Gaza como campo de ensaio: a guerra da IA de
Israel levanta sérias questões éticas
Al Mayadeen / New York Times
À sombra da guerra em Gaza, está a
desenvolver-se uma experiência militar sem precedentes: a potência ocupante
israelita está a implantar novas tecnologias de inteligência artificial
(IA) no território ocupado — a uma escala que está a causar comoção e
preocupação em todo o mundo. A tecnologia não é apenas utilizada para aquisição
de alvos, mas também para reconhecimento facial , análise
de fala e assassinato automatizado de pessoas.
De acordo com o New York Times, Israel
integrou a IA em quase todos os níveis de tomada de decisões militares nos
últimos 18 meses. O caso do comandante do Hamas Ibrahim Biari ,
que foi rastreado e alvo de assassinato no final de 2023, utilizando um sistema
de áudio assistido por IA, é apenas um exemplo. A ação já ceifou mais
de 125 vidas civis e mostra que a guerra da IA não é algo do
futuro, mas sim uma realidade brutal.
A IA está a chegar – com ajuda americana
Os sistemas foram desenvolvidos em estreita
cooperação entre a Unidade 8200 israelita (inteligência
militar) e reservistas de grandes empresas tecnológicas dos EUA, como a Google , a
Microsoft e a Meta . O hub: um centro de inovação com
o nome revelador “The Studio”.
São utilizados sistemas que analisam a língua
árabe, reconhecem rostos e avaliam automaticamente potenciais “alvos”. No
entanto, de acordo com várias fontes americanas e israelitas, isto levou
repetidamente a identificações incorrectas, detenções arbitrárias e
mortes de civis.
Gaza: um laboratório de testes em tempo
real único no mundo
Especialistas em defesa da Europa e dos EUA
confirmam: Nenhum outro exército testa a IA de forma tão agressiva em situações
de combate reais como Israel. Para muitos, Gaza é, por isso, um campo
de testes ao vivo , onde as novas tecnologias são aplicadas sem
restrições políticas ou legais – com consequências mortais para a
população civil.
O especialista israelita Hadas Lorber alerta:
Estas tecnologias levantam sérias questões
éticas. Precisam de controlo, supervisão humana e, acima de tudo, de
responsabilização.
Drones, reconhecimento de fala por IA e
aquisição autónoma de alvos
Após o início da ofensiva em Gaza, Israel
instalou câmaras de alta resolução nas passagens de fronteira que
tiram fotografias aos palestinianos e as comparam com um sistema de
reconhecimento facial por IA. De acordo com dois oficiais dos serviços de
informação israelitas, houve várias identificações erradas e
subsequentes detenções de pessoas inocentes .
A frota de drones também foi atualizada com
sistemas de IA. Reconhecem e perseguem objetivos de forma autónoma. Ao mesmo
tempo, foram desenvolvidos modelos de IA em árabe que
avaliam as conversas e as incorporam na seleção de alvos.
A base de dados Lavender – 37.000 “alvos”
Em abril de 2024, fontes de inteligência
relataram que os militares israelitas estavam a utilizar uma nova base
de dados de IA chamada “Lavender ”. Isto identificou 37.000
alvos suspeitos alegadamente ligados à resistência palestiniana.
Fontes internas relatam que a matança
de civis também foi autorizada – especialmente nas primeiras semanas
dos bombardeamentos.
"A máquina fez isso a sangue frio. E isso
tornou tudo mais fácil", explicou um oficial dos serviços de informação
envolvido.
Outro soldado acrescentou:
"Investi 20 segundos em cada objetivo —
todos os dias, completava dezenas deles. Como pessoa, não tinha valor
acrescentado; era apenas um corredor."
Estas declarações foram pesquisadas pelo
jornalista israelita Yuval Abraham e publicadas na revista +972 e na
Local Call.
Vidas humanas por algoritmo: um desastre
ético
Enquanto “Israel” afirma publicamente que os
sistemas ajudam a proteger os civis , os casos reais mostram o
contrário:
a combinação de tomada de decisão automatizada , falta
de controlo humano e falta de transparência leva a um
cenário em que os algoritmos decidem entre a vida e a morte –
e os erros são sistematicamente aceites.
De acordo com a Human Rights Watch ,
a utilização destas tecnologias viola o direito internacional humanitário
porque maximiza as baixas civis em vez de as minimizar. O
assassinato seletivo de milhares de civis com base em pressupostos
estatísticos, correlações de dados e identificadores automáticos não é
um efeito colateral infeliz, mas um elemento sistémico desta
guerra da IA.
Conclusão: Gaza como prenúncio de uma guerra
de vigilância apoiada pela IA
A utilização da IA pelo exército de
ocupação israelita revela uma nova dimensão da guerra moderna – uma em que a
eficiência tecnológica substitui a responsabilidade ética.
O que está a acontecer em Gaza pode ser um
precedente sombrio para futuros conflitos.
Porque quando os algoritmos determinam quem vive e quem morre, a questão já não
é se um erro acontecerá, mas sim quantas vidas humanas
isso custará .
Comentários
Enviar um comentário