Application Development with LLMs on Google Cloud

Neste curso, você vai explorar ferramentas e APIs disponíveis no Google Cloud para integrar Grandes Modelos de Linguagem (LLMs) em sua aplicação. Após explorar as opções de IA generativa no Google Cloud, você vai investigar os LLMs e o design de prompts no Vertex AI Studio.

Em seguida, vai aprender sobre o LangChain, uma estrutura de código aberto para desenvolver aplicações com modelos de linguagem. Depois de uma discussão sobre técnicas mais avançadas de engenharia de prompts, você vai juntar tudo para construir uma aplicação de chat multi-turn usando LangChain e a API Vertex AI PaLM.

Objetivos

Neste curso, os participantes aprenderão as seguintes habilidades:

  • Explore as diferentes opções disponíveis para usar IA generativa no Google Cloud.
  • Use o Vertex AI Studio para testar prompts para modelos de linguagem grandes.
  • Desenvolva aplicações alimentadas por LLMs usando LangChain e modelos de LLM no Vertex AI.
  • Aplique técnicas de engenharia de prompts para melhorar a saída dos LLMs.
  • Construa uma aplicação de chat de múltiplos turnos usando a API PaLM e LangChain.

Público-alvo

Esta aula destina-se ao seguinte público:

  • Desenvolvedores de aplicativos e outras pessoas que desejam aproveitar os LLMs em aplicações.

Pré-requisitos

Para aproveitar ao máximo este curso, os participantes precisam atender aos seguintes critérios:

Duração

1 dia

Investimento

Consulte o valor atualizado e datas das próximas turmas abertas em nossa página de inscrições.
Caso tenha interesse em uma turma fechada para sua empresa, entre em contato conosco.

Resumo do curso

  • Explore the different options available for using generative AI on Google Cloud.
  • Use Vertex AI Studio to test prompts for large language models.
  • Understand how Vertex AI Studio keeps your data secure.
  • Understand basic concepts and components of LangChain.
  • Develop LLM-powered applications using LangChain and LLM models on Vertex AI.
  • Apply prompt engineering techniques to improve the output from LLMs.
  • Implement a RAG architecture to ground LLM models.
  •  Understand the concept of memory for mult-iturn chat applications.
  • Build a multi-turn chat application by using the PaLM API and LangChain.