MODULO 4.6

📋 Governanca e Politicas

Como criar politicas de uso de IA que protegem a empresa sem sufocar a inovacao. LGPD, seguranca de dados e guardrails inteligentes.

6
Topicos
35
Minutos
Avancado
Nivel
Governanca
Tipo
1

📜 Politica de Uso de IA

Uma boa politica de uso de IA nao e para restringir — e para dar clareza e seguranca. Quando as pessoas sabem exatamente o que podem e o que nao podem fazer, usam IA com mais confianca e mais frequencia.

📋 Estrutura da Politica

  • Ferramentas aprovadas: Lista clara do que pode ser usado (e versao: pessoal vs. enterprise)
  • Classificacao de dados: O que pode e o que nao pode ser compartilhado com IA
  • Casos de uso permitidos: Exemplos claros do que e encorajado
  • Limites de autonomia: O que precisa de revisao humana antes de publicar ou enviar
  • Processo de duvidas: Quem procurar quando nao souber se pode ou nao

💡 Dica Pratica

A politica ideal tem no maximo 2 paginas. Se precisar de mais, ninguem vai ler. Use o formato "Semaforo": Verde (pode usar livremente), Amarelo (pode usar com cuidado), Vermelho (nao pode, precisa de aprovacao). Simples, visual, memoravel.

2

🔒 Seguranca de Dados

O maior risco de IA nao e a IA errar — e alguem compartilhar dados sensiveis sem querer. Um funcionario que cola dados de clientes no ChatGPT gratuito pode gerar um incidente de seguranca que custa milhoes.

🚫 NUNCA Compartilhar com IA

  • CPF, RG, dados pessoais de clientes ou funcionarios
  • Numeros de cartao de credito, dados bancarios, senhas
  • Informacoes estrategicas confidenciais (M&A, precos, patentes)
  • Dados de saude, prontuarios medicos, diagnosticos
  • Codigo-fonte proprietario em ferramentas sem plano enterprise

Boas Praticas de Seguranca

  • Use planos enterprise: ChatGPT Team/Enterprise, Claude for Business — dados nao sao usados para treino
  • Anonimize dados: Troque nomes, CPFs e valores reais por ficticios antes de enviar
  • Desative historico: Em ferramentas pessoais, desabilite o salvamento de conversas
  • Treine o time: Uma sessao de 30 minutos sobre seguranca previne 90% dos incidentes
3

⚖️ Compliance e LGPD

O Brasil tem uma das legislacoes de protecao de dados mais rigorosas do mundo. A LGPD se aplica diretamente ao uso de IA — e ignorar isso expoe a empresa a multas de ate 2% do faturamento.

📊 Requisitos LGPD para IA

  • Base legal: Voce precisa de base legal para processar dados pessoais com IA (consentimento, interesse legitimo, etc.)
  • Transparencia: Clientes e funcionarios devem saber quando IA e usada em decisoes que os afetam
  • Direito a explicacao: Se IA toma decisao automatizada, a pessoa pode pedir explicacao de como foi decidido
  • Minimizacao: Use apenas os dados estritamente necessarios — nao jogue tudo na IA
  • Retencao: Dados processados por IA devem ser retidos apenas pelo tempo necessario
4

🛡️ Guardrails Organizacionais

Guardrails nao sao barreiras — sao corrimoes. Permitem que as pessoas avancem com confianca, sabendo que ha limites claros que previnem quedas. Bem desenhados, guardrails aceleram a adocao em vez de freia-la.

✓ Guardrails que Funcionam

  • Revisao humana obrigatoria antes de publicar
  • Checklist de validacao de 3 itens
  • Canal rapido para duvidas de seguranca
  • Self-service para casos de baixo risco

✗ Guardrails que Sufocam

  • Aprovacao de 3 niveis para qualquer uso
  • Formulario de 20 campos antes de usar
  • Comite mensal que decide caso a caso
  • Bloqueio total ate "termos certeza"
5

📋 Processos de Aprovacao

O equilibrio entre governanca e agilidade e uma arte. Processos pesados demais fazem as pessoas usarem IA escondido (shadow AI). Processos leves demais criam riscos. O ponto ideal e categorizar por risco e aplicar governanca proporcional.

📋 Modelo de 3 Faixas

  • Faixa Verde (self-service): Ferramentas aprovadas, dados publicos ou internos nao-sensiveis. Nao precisa de aprovacao. Use a vontade
  • Faixa Amarela (fast-track): Dados internos sensiveis, ferramentas novas. Aprovacao do gestor em 24h
  • Faixa Vermelha (full review): Dados de clientes, decisoes automatizadas, integracao com sistemas criticos. Comite de IA em 5 dias
6

🔄 Revisao Continua

A tecnologia de IA muda a cada trimestre. Uma politica escrita em janeiro pode estar obsoleta em abril. Revisao continua nao e luxo — e necessidade. Politica desatualizada e pior que nenhuma politica.

📋 Ciclo de Revisao

  • Trimestral: Revisao completa da politica com stakeholders
  • Trigger events: Nova ferramenta importante, incidente de seguranca, mudanca regulatoria
  • Feedback loop: Canal aberto para usuarios sugerirem ajustes
  • Versionamento: Cada versao da politica e datada, com changelog

💡 Dica Pratica

Crie um "Comite de IA Enxuto": 3-4 pessoas (TI, juridico, negocios, RH) que se reunem 1h por mes para revisar politicas, aprovar novas ferramentas e resolver pendencias. Nada de comite de 15 pessoas que se reune trimestralmente — pequeno, agil e decisivo.

📋 Resumo do Modulo

Politica de 2 paginas - Semaforo: verde, amarelo, vermelho. Simples e memoravel
Seguranca primeiro - Nunca compartilhar dados pessoais, financeiros ou estrategicos
LGPD se aplica - Transparencia, consentimento, minimizacao e direito a explicacao
Guardrails, nao barreiras - Corrimoes que aceleram, nao muros que bloqueiam
3 faixas de aprovacao - Verde (livre), amarela (24h), vermelha (5 dias)
Revisao trimestral - Politica desatualizada e pior que nenhuma

Proximo Modulo:

4.7 - Metricas e ROI — O que medir e como apresentar para a diretoria