🔤 O que sao Modelos de Linguagem
Um Modelo de Linguagem Grande (LLM) e, na essencia, um programa treinado para prever a proxima palavra. Ele leu bilhoes de textos da internet, livros, artigos e codigos. A partir desses padroes, ele calcula qual palavra tem maior probabilidade de vir depois das anteriores. Parece simples, mas essa abordagem produz resultados surpreendentemente sofisticados.
🔑 A Analogia do Autocompletar
Pense no autocompletar do seu celular, mas multiplicado por um trilhao. Seu celular preve a proxima palavra com base nas suas mensagens. Um LLM preve a proxima palavra com base em praticamente todo o conhecimento humano escrito. A diferenca de escala gera uma diferenca qualitativa impressionante.
- •Redes neurais: Camadas de processamento que identificam padroes em dados
- •Parametros: GPT-4 tem ~1.7 trilhao de parametros — "conexoes" que capturam padroes
- •Transformer: A arquitetura que permitiu processar textos longos com eficiencia
💡 Dica Pratica
Voce nao precisa entender matematica avancada para usar IA. Mas entender que ela trabalha com probabilidades (nao com certezas) muda completamente como voce formula perguntas e valida respostas.
🧩 Tokens e Contexto
A IA nao le palavras como voce. Ela processa tokens — pedacos de palavras. A palavra "inteligencia" pode ser dividida em 3-4 tokens. O portugues, por ter palavras mais longas e acentos, usa mais tokens que o ingles para dizer a mesma coisa. Isso importa porque tudo na IA tem custo por token.
🧩 Entendendo Tokens
Um token e, em media, 3/4 de uma palavra em ingles. Em portugues, a proporcao e menor — cerca de 1/2 palavra por token. Isso significa que um texto em portugues "custa" mais tokens que o mesmo texto em ingles.
- •"Ola" = 1-2 tokens | "Hello" = 1 token
- •"Inteligencia artificial" = 4-5 tokens | "Artificial intelligence" = 2-3 tokens
- •1 pagina A4 ≈ 500-700 tokens em portugues
📊 Janelas de Contexto por Modelo
- GPT-4o: 128K tokens (~200 paginas)
- Claude Opus/Sonnet: 200K-1M tokens (~300-1500 paginas)
- Gemini 1.5 Pro: 1M tokens (~1500 paginas)
- Modelos menores: 4K-32K tokens (~6-50 paginas)
🎲 Probabilidade vs. Inteligencia
Aqui esta a verdade que muda tudo: a IA nao "sabe" nada. Ela calcula probabilidades. Quando voce pergunta "qual a capital do Brasil?", ela nao consulta um banco de dados — ela calcula que, dado o padrao de textos que viu, a palavra mais provavel depois dessa pergunta e "Brasilia". Funciona na maioria das vezes, mas essa abordagem tem consequencias importantes.
🎯 O Parametro Temperatura
A "temperatura" controla quao criativa ou conservadora a IA sera:
- •Temperatura baixa (0-0.3): Respostas mais previsiveis e "seguras" — ideal para dados, fatos, codigo
- •Temperatura media (0.5-0.7): Equilibrio entre criatividade e precisao — ideal para a maioria das tarefas
- •Temperatura alta (0.8-1.0): Respostas mais criativas e imprevisiveis — ideal para brainstorming, criacao
⚠️ Atencao
A IA pode dar respostas erradas com total confianca. Ela nao tem mecanismo interno para dizer "eu nao sei". Quando nao sabe, ela "inventa" a resposta mais provavel — e as vezes essa resposta e completamente falsa. Isso se chama alucinacao e sera aprofundado no Modulo 1.7.
📏 Janela de Contexto
A janela de contexto e a "memoria de trabalho" da IA. Tudo que voce escreve e tudo que ela responde na conversa ocupa espaco nessa janela. Quando o limite e atingido, a IA comeca a "esquecer" as partes mais antigas. Entender isso e crucial para conversas longas e tarefas complexas.
📐 Estrategias para Gerenciar Contexto
- •Resumir e reconectar: Em conversas longas, peca a IA para resumir o que ja foi discutido
- •Dividir tarefas grandes: Em vez de um prompt enorme, divida em etapas menores
- •Nova conversa quando necessario: Se a conversa ficou longa e a IA comeca a errar, inicie uma nova
- •Informacao relevante primeiro: Coloque o contexto mais importante no inicio do prompt
💡 Dica Pratica
Se voce precisa analisar um documento longo (50+ paginas), use o Claude com sua janela de 1M tokens. Para conversas rapidas do dia a dia, qualquer modelo serve. A escolha do modelo deve considerar a quantidade de contexto necessaria.
🔄 Treinamento vs. Inferencia
Existe uma confusao muito comum: achar que a IA "aprende" com voce quando voce conversa com ela. Nao aprende. Treinamento e inferencia sao processos completamente diferentes, e entender essa diferenca evita expectativas erradas.
Treinamento
- ✓Acontece antes de voce usar o modelo
- ✓Custa milhoes de dolares
- ✓Leva semanas ou meses
- ✓Muda permanentemente o modelo
- ✓Feito pelas empresas (OpenAI, Anthropic, Google)
Inferencia
- →Acontece quando voce usa o modelo
- →Custa centavos por conversa
- →Leva segundos
- →NAO muda o modelo
- →Feito por voce, o usuario
💡 Dica Pratica
Quando alguem diz "eu ensinei a IA a fazer X", na verdade ela deu instrucoes claras no prompt. O modelo nao aprendeu nada de novo — ele apenas seguiu instrucoes dentro de uma conversa. Na proxima conversa, voce precisara dar as instrucoes novamente (a menos que use custom instructions ou Projects).
🤔 O que a IA NAO sabe fazer
Tao importante quanto saber o que a IA faz e saber o que ela nao faz. Muitas frustracoes vem de expectativas irrealistas. A IA atual, por mais impressionante que seja, tem limitacoes fundamentais que voce precisa conhecer.
🚧 Limitacoes Fundamentais
- •Nao tem consciencia: A IA nao "sabe" que existe, nao sente nada, nao tem opinioes reais
- •Nao acessa internet em tempo real: A maioria dos modelos tem uma data de corte do conhecimento
- •Nao faz matematica de forma confiavel: Calculos complexos podem conter erros — use calculadora
- •Nao verifica fatos: Ela gera texto provavel, nao necessariamente verdadeiro
- •Nao tem empatia real: Pode simular empatia, mas nao sente — decisoes sobre pessoas precisam de humanos
✓ IA e excelente para
- ✓Redigir, resumir e reescrever textos
- ✓Brainstorming e geracao de ideias
- ✓Explicar conceitos complexos
- ✓Analisar e organizar informacao
✗ IA nao e confiavel para
- ✗Dados numericos precisos sem verificacao
- ✗Informacoes em tempo real (precos, noticias)
- ✗Decisoes eticas ou morais complexas
- ✗Substituir julgamento profissional especializado
📋 Resumo do Modulo
Proximo Modulo:
1.3 - A Arte do Prompt — Domine a habilidade mais importante da era da IA