Introdução: O escândalo que a Microsoft tentou aplaudir em silêncio
Na sexta-feira, enquanto a Microsoft estourava champanhes e celebrava seus reluzentes 50 anos de contratos e lucros, uma funcionária teve a audácia — ou a coragem ética — de interromper o espetáculo. Ibtihal Aboussad, engenheira de software da equipe de plataforma de IA, levantou-se durante a apresentação do chefe de IA da empresa, Mustafa Suleyman, e despejou uma verdade inconveniente no palco decorado de sorrisos e palminhas automáticas.
“Você tem sangue nas mãos. Toda a Microsoft tem sangue nas mãos”, acusou ela, referindo-se ao uso da inteligência artificial da Microsoft em conflitos militares, em especial no genocídio em Gaza.
Essa frase ressoou mais forte do que qualquer inovação anunciada. E é sobre isso que precisamos falar: o uso da IA em conflitos armados, o papel da Big Tech na militarização da tecnologia e o silêncio corporativo em nome de contratos bilionários.
A gênese do protesto: IA e o rastro de sangue
Aboussad não estava delirando. Seus argumentos vieram carregados de dados e ética. Em um memorando enviado aos colegas após ser removida do evento, ela denunciou a parceria da Microsoft com o Ministério da Defesa de Israel, apontando um contrato de US$ 133 milhões — uma bolada suficiente para enterrar qualquer escrúpulo corporativo.
Segundo ela, desde março, o uso da inteligência artificial da Microsoft por forças israelenses aumentou quase 200 vezes, com os dados armazenados nos servidores da empresa ultrapassando os 13,6 petabytes. Mas não é só o volume que assusta. A IA da Microsoft estaria alimentando os projetos mais letais e secretos do exército israelense, incluindo o famigerado “banco de alvos” e o sistema de registro da população palestina.
Microsoft: inovação ou colaboracionismo tecnológico?
A Microsoft se defendeu, como sempre, com seu discurso corporativo genérico:
“Fornecemos muitas avenidas para que todas as vozes sejam ouvidas. No entanto, pedimos que isso não interfira nas operações.”
Ou seja, pode até reclamar… mas só se for fora da vista, do som e do marketing. Enquanto isso, os contratos fluem como petróleo em tempos de guerra. O problema é que esse tipo de “inovação” com IA ultrapassa a linha tênue entre avanço e cúmplice.
E essa não é a primeira vez. A empresa já foi alvo de protestos internos. Em fevereiro, cinco funcionários foram removidos de outro evento por protestarem com camisetas que questionavam: “Nosso código mata crianças?”
Infelizmente, a resposta pode ser “sim”.
IA e militarização: casamento perigoso
A militarização da inteligência artificial não é um segredo. A questão é que o uso da IA em conflitos armados está crescendo exponencialmente — e silenciosamente. Empresas como Palantir e Anduril viraram queridinhas da defesa. O Google e a Meta, que já enfrentaram revoltas internas, agora preferem cortar vozes críticas do que abrir mão de contratos com governos.
A IA está sendo usada para definir alvos, calcular danos colaterais, planejar ataques. Em teoria, isso reduziria erros humanos. Na prática? Soldados estão delegando decisões de vida ou morte a algoritmos com margens de erro preocupantes.
No caso israelense, denúncias apontam que a IA tem sido usada para identificar alvos rapidamente, sem revisão humana adequada — o que, convenhamos, é uma receita perfeita para assassinatos indiscriminados.
A ética da IA: quando os engenheiros se tornam cúmplices involuntários
Aboussad escreveu no memorando que se juntou à equipe de IA da Microsoft com o desejo de usar tecnologia para o bem. Tradução de idiomas, acessibilidade, ferramentas para empoderar. Em vez disso, viu seu trabalho ser redirecionado para matar, rastrear e destruir.
Essa é a dissonância moral que abala muitos profissionais de tecnologia: eles escrevem código para melhorar o mundo, mas acordam um dia e descobrem que seu algoritmo está ajudando a lançar mísseis. E o pior? Não têm poder de decisão sobre isso.
Como bem observou Palmer Luckey, CEO da Anduril, pelo menos quem se junta à sua empresa sabe o que está assinando. Já na Big Tech, a opacidade é estratégica: os contratos são sigilosos, os fins são ocultos e a conta (ética e moral) fica com os funcionários.
Entre inovação e cumplicidade: qual o limite da responsabilidade
A inteligência artificial em conflitos militares levanta uma pergunta incômoda: até que ponto as empresas são responsáveis pelo uso de suas tecnologias? A Microsoft pode alegar que só fornece ferramentas. Mas isso é como o fabricante de armas dizer que só faz o produto — quem mata é o cliente.
Estamos falando de uma tecnologia que não apenas auxilia, mas automatiza. Que “decide” onde atacar. Que armazena e classifica dados de populações inteiras. Que pode ser usada para vigilância em massa, repressão e genocídio.
Se a IA é o futuro — e é — precisamos discutir agora o seu uso. Porque enquanto CEOs fazem brindes com powerpoints, civis estão morrendo sob bombardeios auxiliados por software de última geração.
A ironia do Copilot: o assistente que faz tudo, menos perguntar “por quê?”
Durante o evento, a Microsoft também anunciou atualizações para seu Copilot, incluindo um novo agente autônomo que navega na web e realiza tarefas sozinho. O robô que prepara seus impostos agora também pode ajudar na guerra.
Claro, ainda é lento, caro e cheio de bugs. Mas a promessa está aí: um Copilot para tudo. Inclusive para decisões de vida ou morte. Só falta ensiná-lo a ter consciência, empatia… ou vergonha.
Conclusão: a festa acabou, e a realidade bateu na porta
A celebração dos 50 anos da Microsoft foi interrompida por algo que a empresa preferia esconder: a verdade. O protesto de Aboussad não foi apenas um ato isolado, mas o sintoma de um mal maior — a naturalização do uso da inteligência artificial em conflitos militares.
O futuro da tecnologia está sendo escrito por linhas de código, mas também por contratos secretos e decisões éticas nebulosas. Se a IA é poderosa o suficiente para transformar o mundo, ela também é perigosa o suficiente para destruí-lo. E enquanto os lucros forem prioridade, a linha entre inovação e barbárie será cada vez mais tênue.
FAQ – Inteligência Artificial em Conflitos Militares
O que motivou o protesto da funcionária da Microsoft?
Ela denunciou o uso da IA da empresa por forças israelenses, alegando cumplicidade em crimes de guerra.
Qual é a relação entre Microsoft e o exército de Israel?
A Microsoft possui um contrato de US$ 133 milhões com o Ministério da Defesa de Israel, envolvendo serviços de IA e armazenamento de dados.
A IA da Microsoft está realmente sendo usada em ataques?
Denúncias apontam que sim — incluindo automação de alvos e apoio a projetos de vigilância e ataques militares.
Funcionários da Big Tech têm controle sobre o uso de suas criações?
Na maioria dos casos, não. As decisões sobre uso militar são tomadas pela liderança das empresas.
Esse tipo de contrato é comum no setor de tecnologia?
Sim, cada vez mais empresas de tecnologia têm contratos com governos e setores de defesa.
O uso de IA em guerras é legal?
Depende da aplicação. Porém, o uso indiscriminado sem supervisão humana pode violar leis internacionais e princípios de direitos humanos.