O desenvolvimento da IA criou novas oportunidades para melhorar a vida das pessoas ao redor do mundo, desde negócios até saúde e educação. Também levantou novas questões sobre a melhor forma de construir equidade, interpretabilidade, privacidade e segurança nesses sistemas. Neste curso, você fará uma exploração de alto nível das melhores práticas recomendadas pelo Google para o uso responsável da IA em diferentes áreas de foco: Equidade, Interpretabilidade, Privacidade e Segurança. Ao longo do caminho, você aprenderá como aproveitar diferentes ferramentas de código aberto e ferramentas no Vertex AI para explorar esses conceitos e dedicar tempo para considerar os diferentes desafios que surgem com a IA generativa.
Objetivos
Neste curso, os participantes aprenderão as seguintes habilidades:
- Visão geral dos princípios e práticas de IA responsável
- Implementar processos para verificar preconceitos injustos dentro dos modelos de machine learning
- Explorar técnicas para interpretar o comportamento dos modelos de machine learning de uma maneira compreensível para humanos
- Criar processos que garantam a privacidade dos dados sensíveis em aplicações de machine learning
- Compreender técnicas para garantir a segurança em aplicações alimentadas por IA generativa
Público-Alvo
Esta aula destina-se ao seguinte público:
-
Profissionais de machine learning e desenvolvedores de aplicações de IA que desejam aproveitar a IA generativa de maneira responsável.
Pré-requisitos
- Familiaridade com conceitos básicos de machine learning
- Familiaridade com conceitos básicos de IA generativa no Google Cloud em Vertex AI
Duração
Investimento
Resumo do curso
1 dia de conteúdo introdutório a intermediário para profissionais de machine learning e desenvolvedores de aplicações de IA que desejam aproveitar a IA generativa de maneira responsável. Esta aula inclui palestras, demonstrações e atividades práticas em laboratório.
- Google’s AI Principles
- Responsible AI practices
- General best practices
- Overview of Fairness in AI
- Examples of tools to study fairness of datasets and models
- Lab: Using TensorFlow Data Validation and TensorFlow Model Analysis to Ensure Fairness
- Overview of Interpretability in AI
- Metric selection
- Taxonomy of explainability in ML Models
- Examples of tools to study interpretability
- Lab: Learning Interpretability Tool for Text Summarization
- Overview of Privacy in ML
- Data security
- Model security
- Security for Generative AI on Google Cloud
- Overview of AI Safety
- Adversarial testing
- Safety in Gen AI Studio
- Lab: Responsible AI with Gen AI Studio