Nos primeiros dias da guerra na Faixa de Gaza, o exército israelita dependeu quase inteiramente de um sistema de Inteligência Artificial que marcou 37 mil palestinianos como suspeitos de pertencerem ao Hamas, aponta uma investigação do +972, baseada em fontes dos serviços secretos.

Segundo o trabalho, os soldados adotaram inquestionavelmente as “listas de morte” recomendadas por um sistema de Inteligência Artificial, que até agora não tinha sido utilizado, o Lavender.

Depois de os nomes surgirem, “pessoal humano” gastou cerca de “20 segundos” em cada alvo antes de autorizar um bombardeamento, simplesmente para garantir que o alegado combatente era um homem, detalha a investigação.

O jornal destaca, no entanto, que o Lavender não é tão sofisticado e apresenta uma margem de erro em cerca de 10% dos casos, podendo por isso ocasionalmente incriminar “indivíduos que têm apenas uma ligação ténue com grupos militantes, ou nenhuma ligação”.

Além disso, segundo a reportagem, o exército israelita atacou essas pessoas, muitos possíveis combatentes de baixa patente, sistematicamente nas suas casas e “normalmente à noite, enquanto toda a sua família estava presente”, considerando-os um alvo mais fácil, aumentando a número de mortes de civis.

“Não estávamos interessados em matar agentes [do Hamas] apenas quando estes estavam em um edifício militar ou a participar numa operação militar”, contou um oficial de inteligência ao +972. “Pelo contrário, as Forças de Defesa de Israel bombardearam [os alegados combatentes] nas suas casas, sem hesitação, como primeira opção”, acrescentou, alegando que “o sistema está desenhado para procurá-los nestas situações”.

Nas primeiras semanas da guerra, segundo duas fontes anónimas citadas pela investigação, o exército decidiu que o ataque contra qualquer agente do Hamas identificado por Lavender poderia resultar na morte de “15 ou 20 civis”, uma proporção de baixas não-combatentes sem precedentes.

Além disso, o exército preferiu utilizar mísseis não guiados contra estes militantes de menor escalão, vulgarmente conhecidos como “bombas mudas” e documentados em Gaza, no final de dezembro, pela estação CNN, capazes de destruir edifícios inteiros e causar outras vítimas.

“Não é aconselhável desperdiçar bombas caras com pessoas sem importância. É muito caro para o país e há escassez [dessas bombas]”, explicou um oficial de inteligência a esta reportagem, sob condição de anonimato.

De acordo com esta investigação, o uso deste e de outros sistemas de Inteligência Artificial como o Gospel, baseado em algoritmos, estará relacionado com o elevado número de mortes de civis na Faixa de Gaza, já que, segundo números israelitas não verificados, 13 mil mortes teriam alguma relação com grupos islamitas entre mais de 32.900 mortos reportados pelas autoridades do enclave, sem contar os milhares de corpos que permanecem sob toneladas de escombros.

Dados divulgados na terça-feira pelo Banco Mundial apontaram que 84% das instalações médicas no enclave palestiniano também foram danificadas ou destruídas, o sistema de água e saneamento está quase em colapso, com 5% da sua produção, e as estradas e infraestruturas foram devastadas pelas forças israelitas.