“Lavender”, Le logiciel de mort : Quand l’IA Israélienne décide qui vit ou meurt à Gaza

C’est une abomination technologique qui émerge des ténèbres de la guerre, une honte pour l’humanité déguisée en prouesse. “Lavender”, un programme d’IA utilisé par l’armée israélienne, a non seulement franchi la ligne rouge de l’éthique, mais l’a effacée avec une impunité glaciale. Selon une enquête menée par le magazine +972 et Local Call, cette IA est responsable de marquer des milliers de Palestiniens innocents, les transformant en cibles d’assassinat sans visage dans un jeu macabre de vie ou de mort.

La monstruosité de “Lavender” n’est pas une fiction dystopique ; elle est le cœur pulsant d’un système qui voit la bande de Gaza non comme une terre habitée par des êtres humains, mais comme un terrain de chasse où chaque habitant peut être transformé en cible par un algorithme froid et calculateur. Le livre “L’équipe humain-machine” révèle l’horreur de cette approche, où l’élimination de cibles est priorisée par-dessus le respect de la vie humaine. Cette IA, loin d’être un outil de précision, est un agent de chaos, marquant jusqu’à 37 000 personnes comme cibles potentielles dans un déluge de feu aveugle.

L’indignation est trop faible pour décrire la réaction face à ce système qui, avec l’approbation effroyable de l’opération “Iron Swords”, a généralisé l’assassinat de civils innocents. Des officiers ne prenant que quelques secondes pour confirmer si une cible est un homme avant de donner le feu vert pour des bombardements, cela révèle un mépris terrifiant pour la vie humaine. Des erreurs? Environ 10% des cas, selon les sources. Mais dans ce calcul morbide, ces “erreurs” représentent des vies humaines, des familles entières anéanties sous prétexte de statistiques et d’efficacité.

Cette horreur ne s’arrête pas là. La machine a été alimentée par des systèmes comme “Where’s Daddy ?”, transformant des maisons en tombeaux pour ceux qui avaient le malheur d’être marqués. Et quelle ironie dans le choix des armes – des “bombes muettes” pour les cibles de moindre importance, comme si le volume des explosions déterminait la valeur des vies prises.

Quant au nombre de victimes civiles “autorisées”, les chiffres sont à glacer le sang. Pouvoir tuer jusqu’à 300 civils pour éliminer un haut commandant? Quelle forme de justice est-ce, sinon une barbarie revêtue d’un vernis de légalité? Ce n’est pas seulement une guerre contre le Hamas; c’est une attaque contre l’humanité même, une trahison de tout principe moral.

La technologie, qui devrait être un vecteur de progrès et d’amélioration de la vie humaine, est ici détournée dans l’une de ses pires utilisations. “Lavender” n’est pas une réalisation ; c’est un cauchemar, un symbole de la déchéance morale dans laquelle nous pouvons tomber lorsque la technologie est dépourvue de conscience.

Nous suivre