De acordo com uma investigação da Reuters, a administração Trump estaria utilizando a inteligência artificial desenvolvida por Elon Musk, em particular o chatbot Grok, de maneira controversa dentro das agências federais.
Para torná-lo ainda mais preocupante seria o papel central do Department of Government Efficiency (DOGE), criado com o intuito declarado de otimizar a eficiência administrativa, mas acusado de intervir de forma opaca e coercitiva. Dois funcionários anônimos da Environmental Protection Agency (EPA) relataram uma crescente pressão interna, alimentada por uma busca sistemática, realizada através de software de mensagens e ferramentas colaborativas, de conteúdos “anti-Trump” ou “anti-Musk”.
O instrumento central desta operação seria justamente o Grok, a inteligência artificial criada pelo magnata da SpaceX e xAI, que permitiria uma vigilância abrangente sobre as comunicações internas das agências.
Summary
Um algoritmo a serviço da lealdade: o envolvimento da IA na administração pública de Trump
Embora a vigilância nunca tenha sido oficialmente confirmada, fontes internas da EPA relataram que a liderança alertou os trabalhadores para “ter cuidado com o que dizem, escrevem e fazem”. Ferramentas como Microsoft Teams e outros aplicativos de comunicação interna estariam sob exame, segundo relatos.
O resultado: um clima de autocensura entre os funcionários públicos, preocupados com uma possível retaliação disciplinar ligada às suas opiniões pessoais ou alinhamento com a agenda presidencial. A EPA parece ser uma das agências mais afetadas, com até 600 funcionários colocados em licença a partir de janeiro.
A administração Trump também expressou a intenção de cortar até 65% do orçamento da agência, uma ação que poderia ter consequências dramáticas em termos de funcionamento e pessoal.
Caça aos “não alinhados”: o lado obscuro da IA
As acusações que ecoam de várias partes, tanto entre Democratas quanto Republicanos, sugerem que a estratégia de redução orgânica é uma purga ideológica, disfarçada de racionalização administrativa. Segundo essas vozes, o objetivo não declarado de DOGE seria expulsar funcionários neutros ou críticos do governo, para substituí-los por fiéis dispostos a ignorar eventuais irregularidades. Um porta-voz da EPA, no entanto, negou categoricamente as acusações, classificando o relatório como “completamente falso” e esclarecendo que a agência “não monitora ou registra chamadas telefônicas, reuniões ou compromissos de calendário”.
DOGE e a zona cinzenta da legalidade
O véu de discrição que envolve as atividades de DOGE deu origem a fortes críticas, especialmente por seu status dentro do Ufficio Esecutivo del Presidente, que a tornaria isenta das leis normais de registro e conservação de documentos federais. Segundo Reuters, essa ambiguidade normativa é utilizada para contornar regulamentações de segurança de dados e para cometer supostas violações éticas.
Como funcionário governamental especial, Musk é obrigado a não explorar sua posição para obter vantagens pessoais ou para suas próprias empresas. Mas a integração de seu chatbot AI nos sistemas governamentais levanta sérias dúvidas: esse acesso favoreceria a coleta de dados sensíveis, potencialmente úteis para fins empresariais.
Não é a primeira vez que circulam rumores sobre uma possível utilização da inteligência artificial para substituir funcionários públicos. Já antes da reeleição de Trump, um insider havia relatado que Musk tinha sugerido usar Grok para automatizar o trabalho governamental, graças à vasta quantidade de dados estatais disponíveis para o treinamento da IA.
Signal, Google Docs e o tênue limite da transparência
Outro ponto objeto de forte contestação diz respeito ao uso da aplicação Signal, famosa pelo mecanismo de auto-cancelamento das mensagens. De acordo com uma ação judicial, utilizar apps desse tipo para comunicações oficiais obstruiria as leis sobre a liberdade de informação, criando barreiras ao acesso dos dados públicos.
DOGE teria recorrido também a métodos pouco ortodoxos para evitar qualquer forma de supervisão documental. Fontes do governo relatam que Google Docs é utilizado para a elaboração simultânea e compartilhada de documentos oficiais, de modo a evitar a rastreabilidade de várias versões enviadas por email — uma maneira rápida e eficiente de operar, mas fora dos protocolos de conservação de documentos.
Privacidade violada? O caso da coleta de dados do Departamento de Educação
Outra denúncia preocupante chega de um processo federal, segundo o qual a administração dos EUA teria abusado dos dados provenientes do Departamento de Educação. Os demandantes alegam que DOGE tenha adquirido informações pessoais de dezenas de milhões de americanos sem o seu consentimento. Os dados recolhidos incluiriam rendimentos, números de segurança social, datas de nascimento, endereços de residência, estado civil e cidadania, utilizados, segundo as acusações, “com o objetivo de destruir” o Departamento.
Em março, um juiz federal ordenou que DOGE entregasse os documentos solicitados pela organização Citizens for Responsibility and Ethics in Washington, que havia iniciado uma ação legal justamente para obter maior transparência através do Freedom of Information Act. Mas, até hoje, nenhum documento foi ainda fornecido.
A inteligência artificial: arma de eficiência ou instrumento de controle?
Um último elemento de reflexão diz respeito ao efetivo emprego da inteligência artificial dentro da EPA. Enquanto a agência nega categoricamente o uso da IA como critério para decisões sobre o pessoal, admite, no entanto, que está examinando o uso dessas tecnologias para “otimizar funções administrativas”.
A distinção é sutil, mas crucial: de um lado há a eficiência prometida pela inovação digital, do outro o risco de um controle centralizado e não transparente das instituições públicas. Em uma época em que a inteligência artificial promete revolucionar todos os aspectos da sociedade, dos transportes à saúde, seu impacto sobre a democracia permanece uma área obscura ainda pouco investigada.
O caso DOGE, entre acusações, negações e pedidos de clareza, torna-se assim o banco de prova de um futuro em que a fronteira entre inovação e ética pode tornar-se perigosamente tênue.