Neste curso, você vai explorar ferramentas e APIs disponíveis no Google Cloud para integrar Grandes Modelos de Linguagem (LLMs) em sua aplicação. Após explorar as opções de IA generativa no Google Cloud, você vai investigar os LLMs e o design de prompts no Vertex AI Studio.
Em seguida, vai aprender sobre o LangChain, uma estrutura de código aberto para desenvolver aplicações com modelos de linguagem. Depois de uma discussão sobre técnicas mais avançadas de engenharia de prompts, você vai juntar tudo para construir uma aplicação de chat multi-turn usando LangChain e a API Vertex AI PaLM.
Objetivos
Neste curso, os participantes aprenderão as seguintes habilidades:
- Explore as diferentes opções disponíveis para usar IA generativa no Google Cloud.
- Use o Vertex AI Studio para testar prompts para modelos de linguagem grandes.
- Desenvolva aplicações alimentadas por LLMs usando LangChain e modelos de LLM no Vertex AI.
- Aplique técnicas de engenharia de prompts para melhorar a saída dos LLMs.
- Construa uma aplicação de chat de múltiplos turnos usando a API PaLM e LangChain.
Público-alvo
Público-alvo
Esta aula destina-se ao seguinte público:
Desenvolvedores de aplicativos e outras pessoas que desejam aproveitar os LLMs em aplicações.
Pré-requisitos
- Completar o curso Introduction to Developer Efficiency with Gemini on Google Cloud ou experiência equivalente.
Duração
1 dia
Investimento
Resumo do curso
- Explore the different options available for using generative AI on Google Cloud.
- Use Vertex AI Studio to test prompts for large language models.
- Understand how Vertex AI Studio keeps your data secure.
- Understand basic concepts and components of LangChain.
- Develop LLM-powered applications using LangChain and LLM models on Vertex AI.
- Apply prompt engineering techniques to improve the output from LLMs.
- Implement a RAG architecture to ground LLM models.
- Understand the concept of memory for mult-iturn chat applications.
- Build a multi-turn chat application by using the PaLM API and LangChain.