Por dentro das LLMs como ChatGPT - O Curso Completo
Sobre este curso
Um curso completo que explora o raciocínio, a cognição e as três etapas de treinamento dos Large Language Models (LLMs) como o ChatGPT.
Este vídeo é um curso completo da Asimov Academy que mergulha no funcionamento interno dos Large Language Models (LLMs) [00:00:05]. O objetivo é explicar como funciona a cognição desses modelos [00:00:24] e como eles são treinados, desde a "internet bruta" até se tornarem assistentes conversacionais [00:00:43]. O conteúdo é uma versão traduzida e adaptada de um curso de Andrej Karpathy, engenheiro da OpenAI [00:01:53].
O que você vai aprender
- Os conceitos por trás dos LLMs e da arquitetura Transformer ("Attention is All You Need") [00:03:53].
- Etapa 1: Pre-training: Como os modelos são treinados com dados massivos da internet (ex: Common Crawl) [00:06:25] e o que é um "modelo base" [00:28:40].
- Tokenização: Como o texto é transformado em "tokens" que a rede neural pode entender [00:11:54].
- Etapa 2: Supervised Fine-Tuning (SFT): Como o "modelo base" é transformado em um "assistente" (Instruction-following) usando feedback humano [00:29:52], [00:39:20].
- Etapa 3: Reinforcement Learning (RLHF): Como o modelo é refinado para resolver problemas lógicos e de matemática, melhorando seu raciocínio [00:59:11], [01:01:43].
- O que é "In-Context Learning" (aprendizado dentro do contexto) [00:34:41].
- Por que os modelos precisam de "tokens para pensar" (Chain of Thought) para resolver problemas complexos [00:54:49].
- Como os modelos lidam com alucinações e aprendem a dizer "eu não sei" [00:51:36].
Pré-requisitos
- Interesse em Inteligência Artificial. O curso menciona conceitos como Redes Neurais e Machine Learning [00:01:41], sugerindo que um conhecimento básico na área é benéfico.
Para quem é este curso
Desenvolvedores, estudantes e entusiastas de IA que desejam entender profundamente como os LLMs (ChatGPT, Claude, Gemini) funcionam por baixo dos panos e qual o processo para "ensinar" uma IA [00:00:17], [00:01:01].