En este curso, explorarás las herramientas y API disponibles en Google Cloud para integrar modelos de lenguaje grandes (LLMs) en tu aplicación. Después de explorar opciones de IA generativa en Google Cloud, a continuación, explorarás LLMs y el diseño de solicitudes en Vertex AI Studio.
Luego, aprenderás sobre LangChain, un marco de código abierto para desarrollar aplicaciones impulsadas por modelos de lenguaje. Después de una discusión sobre técnicas de ingeniería de prompt más avanzadas, lo pondrás todo junto para construir una aplicación de chat de múltiples turnos utilizando LangChain y la API PaLM de Vertex AI.
Objetivos
En este curso, los participantes aprenderán las siguientes habilidades:
- Explora las diferentes opciones disponibles para usar inteligencia artificial generativa en Google Cloud.
- Utiliza Vertex AI Studio para probar solicitudes para modelos de lenguaje grandes.
- Desarrolla aplicaciones impulsadas por LLM utilizando LangChain y modelos LLM en Vertex AI.
- Aplica técnicas de ingeniería de prompt para mejorar la salida de los LLM.
- Construye una aplicación de chat de múltiples turnos utilizando la API PaLM y LangChain.
Público objetivo
Público objetivo
Esta clase está dirigida al siguiente público:
Desarrolladores de aplicaciones y otras personas que deseen aprovechar los LLM en aplicaciones.
Requisitos previos
Para aprovechar al máximo este curso, los participantes deben cumplir con los siguientes criterios:
- Completar el curso Introduction to Developer Efficiency with Gemini on Google Cloud o experiencia equivalente.
Duración
1 día
Inversión
Resumen del curso
- Explore the different options available for using generative AI on Google Cloud.
- Use Vertex AI Studio to test prompts for large language models.
- Understand how Vertex AI Studio keeps your data secure.
- Understand basic concepts and components of LangChain.
- Develop LLM-powered applications using LangChain and LLM models on Vertex AI.
- Apply prompt engineering techniques to improve the output from LLMs.
- Implement a RAG architecture to ground LLM models.
- Understand the concept of memory for mult-iturn chat applications.
- Build a multi-turn chat application by using the PaLM API and LangChain.