El desarrollo de la IA ha creado nuevas oportunidades para mejorar la vida de las personas en todo el mundo, desde los negocios hasta la salud y la educación. También ha planteado nuevas preguntas sobre la mejor manera de incorporar equidad, interpretabilidad, privacidad y seguridad en estos sistemas. En este curso, realizarás una exploración de alto nivel de las mejores prácticas recomendadas por Google para el uso responsable de la IA en diferentes áreas de enfoque: Equidad, Interpretabilidad, Privacidad y Seguridad. A lo largo del curso, aprenderás cómo puedes aprovechar diferentes herramientas de código abierto y herramientas en Vertex AI para explorar estos conceptos y dedicar tiempo a considerar los diferentes desafíos que surgen con la IA generativa.
Objetivos
Este curso enseña a los participantes las siguientes habilidades:
- Visión general de los principios y prácticas de IA responsable
- Implementar procesos para verificar sesgos injustos dentro de los modelos de machine learning
- Explorar técnicas para interpretar el comportamiento de los modelos de machine learning de una manera comprensible para los humanos
- Crear procesos que garanticen la privacidad de los datos sensibles en aplicaciones de machine learning
- Comprender técnicas para asegurar la seguridad en aplicaciones impulsadas por IA generativa
Público
Esta clase está dirigida a la siguiente audiencia:
-
Profesionales de machine learning y desarrolladores de aplicaciones de IA que desean aprovechar la IA generativa de manera responsable.
Requisitos previos
Comprensión básica de uno o más de los siguientes:
- Familiaridad con conceptos básicos de machine learning
- Familiaridad con conceptos básicos de IA generativa en Google Cloud en Vertex AI
Duración
Inversión
Resumen del curso
1 día de contenido introductorio a intermedio para profesionales de machine learning y desarrolladores de aplicaciones de IA que desean aprovechar la IA generativa de manera responsable. Esta clase incluye conferencias, demostraciones y actividades prácticas en laboratorio.
- Google’s AI Principles
- Responsible AI practices
- General best practices
- Overview of Fairness in AI
- Examples of tools to study fairness of datasets and models
- Lab: Using TensorFlow Data Validation and TensorFlow Model Analysis to Ensure Fairness
- Overview of Interpretability in AI
- Metric selection
- Taxonomy of explainability in ML Models
- Examples of tools to study interpretability
- Lab: Learning Interpretability Tool for Text Summarization
- Overview of Privacy in ML
- Data security
- Model security
- Security for Generative AI on Google Cloud
- Overview of AI Safety
- Adversarial testing
- Safety in Gen AI Studio
- Lab: Responsible AI with Gen AI Studio