Contextualização do tema
Sistemas de agentes especializados deixaram de ser ferramentas auxiliares e passaram a intermediar decisões críticas: análise de crédito, diagnóstico médico, processos seletivos, vigilância pública e até sentenças judiciais experimentais. A escala dessas decisões redefine o que entendemos por autonomia, privacidade e responsabilidade.
Casos recentes mostram que algoritmos podem reproduzir e amplificar racismo, sexismo e desigualdades sociais — bastando que tenham sido treinados com dados enviesados. Mulheres recebem menos oferta de emprego, pessoas negras são mais alvejadas por reconhecimento facial e idosos são alvos preferenciais de fraudes automatizadas.
A vulnerabilidade humana se acentua quando o cidadão não compreende os critérios usados para decidir sobre sua vida, e quando órgãos reguladores e o Judiciário ainda se adaptam à velocidade das mudanças tecnológicas.
Por que esse tema pode aparecer no ENEM
O ENEM tem cobrado, com frequência crescente, temas que articulam tecnologia, ética e direitos humanos. O uso de agentes especializados e a vulnerabilidade humana cruzam todos esses eixos, com base normativa em construção (PL 2338/2023, LGPD) e farto repertório acadêmico, jurídico e jornalístico.
Eixos argumentativos possíveis
1. Algoritmos como reprodutores de desigualdades históricas
Mostre que sistemas treinados com dados enviesados ampliam injustiças contra mulheres, pessoas negras, LGBTQIA+ e moradores de periferia.
2. Opacidade algorítmica e o direito à explicação
Discuta a 'caixa-preta' dos algoritmos e o direito do cidadão de entender decisões automatizadas que o afetam.
3. Necessidade de governança democrática
Argumente pela construção participativa de regulações que envolvam Estado, sociedade civil, academia e setor privado.
Repertórios socioculturais
LGPD (Lei 13.709/2018)
Lei Geral de Proteção de Dados Pessoais, que prevê o direito à revisão de decisões automatizadas.
Como usar: Cite para sustentar que existe base legal para responsabilizar empresas que usam sistemas automatizados contra usuários, mas que falta regulamentação específica.
Algoritmos de Destruição em Massa, de Cathy O'Neil
Obra que mostra como modelos matemáticos opacos amplificam desigualdades.
Como usar: Use para sustentar a tese de que tecnologia não é neutra: ela carrega os vieses de quem a constrói e dos dados que recebe.
Princípio da dignidade da pessoa humana (CF, art. 1º, III)
Fundamento do Estado brasileiro, que orienta toda interpretação jurídica.
Como usar: Articule com a ideia de que decisões automatizadas só são legítimas se respeitarem a dignidade e a autonomia do cidadão.
Competências ENEM trabalhadas
Competência 1 — Norma-padrão
Atenção à grafia de siglas (LGPD) e ao uso correto de aspas e itálico em termos estrangeiros.
Competência 2 — Compreensão da proposta e repertório
Articule ética, vulnerabilidade e tecnologia; não fique só em 'a tecnologia pode ser perigosa'.
Competência 3 — Argumentação
Use casos concretos (reconhecimento facial, crédito automatizado) para sustentar argumentos.
Competência 4 — Coesão
Use conectores explicativos (isto é, ou seja, por exemplo) ao apresentar conceitos técnicos.
Competência 5 — Proposta de intervenção
Cite ANPD, Congresso, MCTI, escolas e organizações da sociedade civil; respeite os direitos humanos.
Propostas de intervenção possíveis
Proposta 1
Agente: Congresso Nacional, com apoio da ANPD
Ação: Aprovar marco legal específico para sistemas automatizados
Meio: Por meio do PL 2338/2023, com ampla consulta pública
Finalidade: A fim de garantir transparência, auditoria e responsabilização de sistemas algorítmicos
Detalhamento: Com classificação de riscos, exigência de explicabilidade e canais acessíveis de contestação.
Proposta 2
Agente: Ministério da Educação, em parceria com universidades
Ação: Promover formação em ética algorítmica
Meio: Por meio da inclusão do tema no Ensino Médio e em cursos de tecnologia
Finalidade: A fim de formar cidadãos críticos diante de decisões automatizadas
Detalhamento: Com material didático aberto, formação de professores e parcerias com instituições de pesquisa.
Erros comuns ao escrever sobre este tema
- Demonizar toda a tecnologia, ignorando seus benefícios.
- Defender sistemas automatizados como solução neutra para todos os problemas.
- Esquecer que algoritmos são feitos por seres humanos com vieses.
- Propor 'criar uma tecnologia boa' sem indicar agente, meio e finalidade.
- Confundir tecnologia com ficção científica.
Escrever redação sobre este tema
Perguntas Frequentes
Quais são os principais dilemas éticos da inteligência artificial?
Os principais dilemas incluem: viés algorítmico (IA treinada em dados históricos reproduz preconceitos), privacidade (coleta massiva de dados), substituição de empregos, uso militar da IA (armas autônomas), manipulação política por algoritmos de desinformação e ausência de transparência nas decisões algorítmicas.
Como a IA pode violar direitos humanos?
A IA pode violar direitos humanos quando: sistemas de reconhecimento facial erram mais com pessoas negras, algoritmos de crédito negam empréstimos por características protegidas, plataformas usam IA para manipular o comportamento dos usuários, ou quando decisões judiciais, médicas ou trabalhistas são tomadas por algoritmos sem explicação humana.
Que propostas de intervenção caber neste tema?
Proponha: regulamentação da IA com princípios de transparência, explicabilidade e responsabilização, direito dos cidadãos de contestar decisões algorítmicas, auditorias independentes de sistemas de IA em uso público, e marcos legais que garantam que o humano tenha a palavra final em decisões de alto impacto.
Como funciona a correção gratuita da E-Redação para este tema?
Escolha o tema, escreva sua redação no editor online (30 linhas no padrão ENEM), clique em Salvar Rascunho para receber o texto no seu e-mail e clique em Correção para ganhar uma correção gratuita por competência feita pelos professores da E-Redação. Sem cadastro pago, sem cartão — apenas confirme seu e-mail e pratique no padrão da prova.