Inteligência ou máquina algorítmica?
A afirmação de Miguel Nicolelis — de que “a primeira guerra robótica da história foi travada em Gaza” — não é apenas provocadora; é reveladora de uma mudança de época. O que está em causa não é apenas a evolução tecnológica dos meios de combate, mas a transformação da própria natureza da decisão humana em contexto de guerra. Pela primeira vez, sistemas apoiados na chamada Inteligência Artificial não se limitam a auxiliar: começam a intervir diretamente na seleção de alvos, na análise de cenários e na execução de ações letais.
O relato de Gianluca Di Feo, apoiado nas declarações de Yaron Sarig, sugere que aquilo a que se chamou “massacres inteligentes” não é um desvio, mas o resultado de duas décadas de investigação orientada para a eficiência bélica. A promessa é conhecida: maior precisão, menor risco para os próprios soldados, decisões mais rápidas. Mas por trás desta promessa esconde-se uma inquietação fundamental: quando a guerra se torna mais eficiente, torna-se também mais fácil de iniciar e mais difícil de travar.
A utilização crescente de IA em conflitos envolvendo potências como Estados Unidos, Israel ou Irão aponta para uma normalização progressiva deste paradigma. Como alerta Peter Asaro, nem sequer compreendemos plenamente o funcionamento destes sistemas. A opacidade dos algoritmos — frequentemente designada como “caixa negra” — introduz um elemento novo e perturbador: decisões potencialmente letais podem ser tomadas por processos que nenhum humano consegue explicar completamente.
É neste contexto que a advertência de Chris Stokel-Walker ganha especial relevância. A militarização da IA representa um ponto de viragem histórico, comparável, segundo ele, ao uso de armas nucleares em Bombardeamentos de Hiroshima e Nagasaki. Tal como então, a humanidade entra num território onde a capacidade técnica ultrapassa a maturidade ética e política para a gerir. O problema não é apenas o que a tecnologia permite fazer, mas o que passa a ser considerado aceitável fazer.
Mas é talvez na crítica de Miguel Nicolelis que emerge a interrogação mais profunda. Ao recusar a ideia de que a chamada “Inteligência Artificial” seja verdadeiramente inteligente, o neurocientista questiona um dos mitos fundadores do nosso tempo. Para ele, a inteligência não é um conjunto de operações computáveis, mas uma realidade emergente da vida, enraizada no corpo, na experiência e na consciência. Reduzi-la a algoritmo é, no fundo, empobrecê-la.
Se assim for, aquilo a que chamamos IA revela-se como uma extraordinária capacidade de processamento, mas não de compreensão. Pode correlacionar dados, antecipar padrões, até imitar decisões — mas não sabe o que faz. E isso faz toda a diferença. Porque, na única experiência que conhecemos por dentro — a experiência humana —, é o homem quem transforma o mundo em significado, quem converte o acontecimento em sentido. Essa capacidade não é acessória: é constitutiva. E, até prova em contrário, permanece irredutivelmente humana.
Impõe-se, então, uma distinção decisiva: estamos perante inteligência ou perante uma máquina algorítmica altamente sofisticada? A resposta não é meramente semântica. Chamar “inteligência” a um sistema que apenas executa operações formais corre o risco de confundir desempenho com compreensão, eficiência com consciência. A máquina algorítmica opera por cálculo, otimização e probabilidade; a inteligência humana, pelo contrário, integra memória, experiência, intencionalidade e sentido. Ao diluir esta diferença, não apenas sobrestimamos a máquina — subestimamos também o humano. E é precisamente nesse deslizamento conceptual que reside um dos maiores perigos do nosso tempo.
Esta distinção é crucial. Porque se confundirmos simulação com compreensão, corremos o risco de delegar decisões morais — como a de tirar uma vida — a sistemas que não possuem qualquer consciência do que fazem. A máquina não hesita, não duvida, não sofre. E é precisamente essa ausência de humanidade que a torna perigosamente eficaz.
A questão, portanto, não é apenas tecnológica, mas profundamente antropológica: o que acontece quando o ser humano abdica da responsabilidade última sobre a violência? Ao longo da história, a guerra foi sempre uma tragédia humana, marcada por decisões difíceis, dilemas morais e limites éticos. A introdução da IA pode diluir essa responsabilidade, criando uma distância entre quem decide e quem sofre as consequências.
Por outro lado, há um risco político evidente. Como em todas as revoluções tecnológicas, a vantagem inicial pertence a quem primeiro domina os novos instrumentos. Isso cria uma corrida — não apenas por superioridade militar, mas por sobrevivência estratégica. Se um país utiliza IA para otimizar a guerra, os outros sentir-se-ão obrigados a fazer o mesmo. O resultado é um efeito de escalada difícil de conter.
Neste cenário, a promessa de precisão pode transformar-se numa ilusão perigosa. A história mostra que a tecnologia raramente elimina o erro; apenas o torna mais rápido e, muitas vezes, mais devastador. A crença numa guerra “limpa”, conduzida por máquinas inteligentes, pode ocultar uma realidade mais dura: a de conflitos mais frequentes, mais automatizados e menos controláveis.
Assim, a reflexão de Nicolelis obriga-nos a regressar ao essencial. Talvez o maior risco da Inteligência Artificial não seja a sua capacidade técnica, mas a forma como ela redefine a nossa própria ideia de inteligência, responsabilidade e humanidade.
Se aceitarmos sem crítica que algoritmos possam decidir sobre a vida e a morte, então não estaremos apenas a transformar a guerra — estaremos a transformar o próprio homem.
E, nesse momento, a questão deixará de ser o que a máquina pode fazer. Passará a ser: o que ainda resta ao humano decidir.
Francisco Vaz
16 de março de 2026
Nota final
Miguel Nicolelis é um neurocientista brasileiro de renome internacional, professor na Duke University, conhecido pelos seus trabalhos pioneiros na interface cérebro-máquina. A sua reflexão crítica sobre a Inteligência Artificial destaca-se por questionar os pressupostos conceptuais da área, defendendo que a inteligência é uma propriedade emergente dos sistemas biológicos e não um fenómeno plenamente reproduzível por algoritmos.