👻 Alucinacoes
Alucinacoes sao o risco numero 1 do uso de IA. A IA pode inventar fatos, criar citacoes falsas e fabricar dados com total confianca. Ela nao sabe que esta mentindo — ela esta gerando a sequencia de palavras mais provavel, que as vezes e completamente falsa.
⚠️ Tipos de Alucinacao
- •Fatos inventados: "O estudo de Harvard de 2024 mostrou que..." — o estudo nao existe
- •Citacoes fabricadas: "Como disse Peter Drucker: ..." — Drucker nunca disse isso
- •Numeros falsos: "O mercado brasileiro de IA vale R$ 47 bilhoes" — numero inventado
- •Links quebrados: URLs que parecem reais mas levam a paginas inexistentes
🛡️ Como se Proteger
- •Regra de ouro: Nunca publique dados, numeros ou citacoes sem verificar em fonte original
- •Peca fontes: "Cite a fonte exata desse dado" — se a IA nao conseguir, desconfie
- •Cross-check: Verifique informacoes criticas com Perplexity ou busca direta
- •Desconfie de especificidade: Se a IA da um numero muito preciso sem fonte, provavelmente inventou
⚖️ Vies e Etica
Modelos de IA sao treinados em dados humanos — e dados humanos contem preconceitos. Se os textos de treinamento associam "CEO" a homens brancos, o modelo tende a reproduzir esse padrao. Vieses podem ser sutis e dificeis de detectar.
⚖️ Tipos de Vies em IA
- •Vies de genero: Associar profissoes a generos ("enfermeira" vs. "engenheiro")
- •Vies cultural: Priorizar perspectivas anglo-saxonicas sobre outras culturas
- •Vies de confirmacao: Reforcar opinioes do usuario em vez de desafiar
- •Vies de dados: Subrepresentacao de minorias nos dados de treinamento
💡 Dica Pratica
Quando usar IA para decisoes que envolvem pessoas (contratacao, avaliacao, comunicacao), sempre revise o output buscando vieses. Pergunte: "essa resposta seria diferente se o genero/raca/idade fosse diferente?" Se sim, ha vies.
🔒 Seguranca e Privacidade
Tudo que voce escreve em um prompt pode ser usado para treinamento do modelo (em planos gratuitos). Isso significa que dados sensiveis compartilhados com IA podem vazar. A protecao comeca com consciencia sobre o que nunca colocar em um prompt.
🚫 NUNCA Coloque em um Prompt
- ✗CPF, RG ou documentos pessoais de terceiros
- ✗Senhas, tokens de API ou credenciais de acesso
- ✗Contratos confidenciais com clausulas de sigilo
- ✗Dados financeiros sensiveis de clientes
- ✗Informacoes medicas identificaveis de pacientes
- ✗Codigo-fonte proprietario com IP critico
✅ Boas Praticas de Seguranca
- •Use planos corporativos: ChatGPT Enterprise, Claude for Business — dados nao sao usados para treinamento
- •Anonimize dados: Substitua nomes reais por ficticios antes de colar em prompts
- •Desative historico: Se usar plano gratuito, desative o treinamento nas configuracoes
- •LGPD: Dados pessoais de brasileiros tem protecao legal — respeite
📜 Propriedade Intelectual
Quem e o "autor" de um texto gerado por IA? Posso usar comercialmente? E se a IA reproduzir conteudo protegido? O cenario juridico esta em construcao, mas ja existem diretrizes praticas que voce deve seguir.
📊 Estado Atual da Regulamentacao
- Brasil: PL 2338/2023 (Marco Legal da IA) em tramitacao — foco em transparencia e responsabilidade
- EUA: Conteudo gerado puramente por IA nao tem copyright. Se ha contribuicao humana significativa, pode ter
- UE: AI Act em vigor — exige transparencia sobre conteudo gerado por IA
- Pratica: A maioria das empresas trata output de IA como "rascunho" que precisa de revisao humana para ter valor legal
💡 Dica Pratica
Regra segura: use IA como ferramenta de rascunho, nunca como autor final. Adicione seu julgamento, revisao e contribuicao original. Isso garante que o output final tem sua marca intelectual e reduz riscos legais.
🚫 Quando NAO Usar IA
O profissional maduro sabe quando a IA nao deve ser usada como decisor. Em situacoes de alto impacto, risco para pessoas ou contextos regulados, o julgamento humano e insubstituivel.
🚫 Situacoes Criticas
- ✗Diagnosticos medicos: IA pode auxiliar na triagem, nunca substituir o medico
- ✗Decisoes legais finais: Pareceres juridicos exigem advogado, nao chatbot
- ✗Avaliacao de pessoas: Demissoes, promocoes e feedbacks criticos precisam de empatia humana
- ✗Decisoes financeiras de alto valor: Investimentos significativos exigem analise humana com responsabilidade fiduciaria
- ✗Comunicacao de crise: Situacoes sensiveis que exigem empatia, tato e julgamento moral
✅ O Principio do Humano no Loop
Em qualquer uso de IA, pergunte: "Se essa resposta estiver errada, qual e o impacto?" Se o impacto for alto, o humano DEVE validar antes de agir.
- •Impacto baixo: Rascunho de e-mail interno → pode usar sem revisar profundamente
- •Impacto medio: Relatorio para diretoria → revise dados e conclusoes
- •Impacto alto: Decisao juridica, medica, financeira → humano decide, IA auxilia
✅ Guardrails Pessoais
Guardrails pessoais sao o seu filtro de qualidade e responsabilidade. Um checklist que voce aplica antes de usar qualquer output da IA em contexto profissional. E a diferenca entre uso amador e uso profissional.
✅ Checklist de Uso Responsavel
- •□ Verifiquei fatos e numeros? Dados criticos conferidos em fontes primarias
- •□ Revisei por vieses? Output nao contem preconceitos ou estereotipos
- •□ Protegi dados sensiveis? Nenhuma informacao confidencial foi compartilhada
- •□ Adicionei minha contribuicao? Output tem meu julgamento e perspectiva
- •□ Avaliei o impacto? Se estiver errado, as consequencias sao aceiraveis
- •□ Sou transparente? Se necessario, informo que IA auxiliou na criacao
✓ Profissional Responsavel
- ✓Valida antes de publicar
- ✓E transparente sobre uso de IA
- ✓Protege dados de terceiros
✗ Uso Irresponsavel
- ✗Publica sem revisar
- ✗Esconde que usou IA
- ✗Compartilha dados sensiveis em prompts
📋 Resumo do Modulo
Proximo Modulo:
1.8 - Construindo Autonomia — Memoria, fluxos pessoais, kit de ferramentas e independencia