📜 Politica de Uso de IA
Uma boa politica de uso de IA nao e para restringir — e para dar clareza e seguranca. Quando as pessoas sabem exatamente o que podem e o que nao podem fazer, usam IA com mais confianca e mais frequencia.
📋 Estrutura da Politica
- •Ferramentas aprovadas: Lista clara do que pode ser usado (e versao: pessoal vs. enterprise)
- •Classificacao de dados: O que pode e o que nao pode ser compartilhado com IA
- •Casos de uso permitidos: Exemplos claros do que e encorajado
- •Limites de autonomia: O que precisa de revisao humana antes de publicar ou enviar
- •Processo de duvidas: Quem procurar quando nao souber se pode ou nao
💡 Dica Pratica
A politica ideal tem no maximo 2 paginas. Se precisar de mais, ninguem vai ler. Use o formato "Semaforo": Verde (pode usar livremente), Amarelo (pode usar com cuidado), Vermelho (nao pode, precisa de aprovacao). Simples, visual, memoravel.
🔒 Seguranca de Dados
O maior risco de IA nao e a IA errar — e alguem compartilhar dados sensiveis sem querer. Um funcionario que cola dados de clientes no ChatGPT gratuito pode gerar um incidente de seguranca que custa milhoes.
🚫 NUNCA Compartilhar com IA
- •CPF, RG, dados pessoais de clientes ou funcionarios
- •Numeros de cartao de credito, dados bancarios, senhas
- •Informacoes estrategicas confidenciais (M&A, precos, patentes)
- •Dados de saude, prontuarios medicos, diagnosticos
- •Codigo-fonte proprietario em ferramentas sem plano enterprise
✅ Boas Praticas de Seguranca
- •Use planos enterprise: ChatGPT Team/Enterprise, Claude for Business — dados nao sao usados para treino
- •Anonimize dados: Troque nomes, CPFs e valores reais por ficticios antes de enviar
- •Desative historico: Em ferramentas pessoais, desabilite o salvamento de conversas
- •Treine o time: Uma sessao de 30 minutos sobre seguranca previne 90% dos incidentes
⚖️ Compliance e LGPD
O Brasil tem uma das legislacoes de protecao de dados mais rigorosas do mundo. A LGPD se aplica diretamente ao uso de IA — e ignorar isso expoe a empresa a multas de ate 2% do faturamento.
📊 Requisitos LGPD para IA
- Base legal: Voce precisa de base legal para processar dados pessoais com IA (consentimento, interesse legitimo, etc.)
- Transparencia: Clientes e funcionarios devem saber quando IA e usada em decisoes que os afetam
- Direito a explicacao: Se IA toma decisao automatizada, a pessoa pode pedir explicacao de como foi decidido
- Minimizacao: Use apenas os dados estritamente necessarios — nao jogue tudo na IA
- Retencao: Dados processados por IA devem ser retidos apenas pelo tempo necessario
🛡️ Guardrails Organizacionais
Guardrails nao sao barreiras — sao corrimoes. Permitem que as pessoas avancem com confianca, sabendo que ha limites claros que previnem quedas. Bem desenhados, guardrails aceleram a adocao em vez de freia-la.
✓ Guardrails que Funcionam
- ✓Revisao humana obrigatoria antes de publicar
- ✓Checklist de validacao de 3 itens
- ✓Canal rapido para duvidas de seguranca
- ✓Self-service para casos de baixo risco
✗ Guardrails que Sufocam
- ✗Aprovacao de 3 niveis para qualquer uso
- ✗Formulario de 20 campos antes de usar
- ✗Comite mensal que decide caso a caso
- ✗Bloqueio total ate "termos certeza"
📋 Processos de Aprovacao
O equilibrio entre governanca e agilidade e uma arte. Processos pesados demais fazem as pessoas usarem IA escondido (shadow AI). Processos leves demais criam riscos. O ponto ideal e categorizar por risco e aplicar governanca proporcional.
📋 Modelo de 3 Faixas
- •Faixa Verde (self-service): Ferramentas aprovadas, dados publicos ou internos nao-sensiveis. Nao precisa de aprovacao. Use a vontade
- •Faixa Amarela (fast-track): Dados internos sensiveis, ferramentas novas. Aprovacao do gestor em 24h
- •Faixa Vermelha (full review): Dados de clientes, decisoes automatizadas, integracao com sistemas criticos. Comite de IA em 5 dias
🔄 Revisao Continua
A tecnologia de IA muda a cada trimestre. Uma politica escrita em janeiro pode estar obsoleta em abril. Revisao continua nao e luxo — e necessidade. Politica desatualizada e pior que nenhuma politica.
📋 Ciclo de Revisao
- •Trimestral: Revisao completa da politica com stakeholders
- •Trigger events: Nova ferramenta importante, incidente de seguranca, mudanca regulatoria
- •Feedback loop: Canal aberto para usuarios sugerirem ajustes
- •Versionamento: Cada versao da politica e datada, com changelog
💡 Dica Pratica
Crie um "Comite de IA Enxuto": 3-4 pessoas (TI, juridico, negocios, RH) que se reunem 1h por mes para revisar politicas, aprovar novas ferramentas e resolver pendencias. Nada de comite de 15 pessoas que se reune trimestralmente — pequeno, agil e decisivo.
📋 Resumo do Modulo
Proximo Modulo:
4.7 - Metricas e ROI — O que medir e como apresentar para a diretoria