Israël utilise des bombes intelligentes pour mener sa guerre génocidaire : Révélations sur des assassinats de masse à Ghaza

06/04/2024 mis à jour: 00:59
3427
Photo : D. R.

Des révélations fracassantes sur l’utilisation par l’armée sioniste d’un système d’IA (intelligence artificielle), appelé «Lavender», pour identifier par la machine 37 000 «cibles» de la résistance, avec un taux autorisé de dommages collatéraux pouvant aller de 15 à 20 victimes, voire 100, lorsque la cible est importante. Reprise par le journal britannique The Guardian et basée sur les témoignages d’officiers de renseignement et militaires israéliens, l’enquête a montré comment le système Lavender a engendré des assassinats en masse, en raison de l’utilisation de munitions non guidées appelées «bombes stupides» «afin de ne pas gaspiller les bombes coûteuses sur des personnes sans importance, du fait de la pénurie des bombes».

Une enquête explosive sur le recours de l’armée d’occupation sioniste à une base de données soutenue par un système d’IA (Intelligence artificielle), pour diriger des frappes contre 37 000 cibles potentielles à Ghaza, avec pour chacune de ces cibles des dommages collatéraux pouvant atteindre 100 personnes.

Une vraie machine d’assassinats collectifs, dévoilée par une enquête menée par les sites +972 magazine et Local Call, basée sur des témoignages de militaires et d’officiers de renseignement israéliens et reprise, mercredi dernier, par des journaux britanniques, dont The Guardian.

Les sources citées ont affirmé que le système «Lavender», développé à partir de l’unité «8200» de l’armée israélienne, «a joué un rôle central dans la guerre contre Ghaza, en traitant d’énormes quantités de données avant de générer des milliers de cibles potentielles pour des frappes militaires».

Une technologie, explique un officier de l’unité «8200», qui «résoudrait le goulot d’étranglement humain pour la localisation des nouvelles cibles et la prise de décision pour approuver les cibles».

Selon six officiers des renseignements israéliens, «qui ont tous servi dans l’armée pendant la guerre actuelle dans la bande de Ghaza et ont été directement impliqués dans l’utilisation de l’IA pour générer des cibles d’assassinat, Lavender qui a joué un rôle central dans le bombardement sans précédent de Palestiniens».

L’influence de cette technologie sur les opérations militaires «était telle, qu’elles traitaient essentiellement les résultats de la machine IA comme s’il s’agissait d’une décision humaine». Pour les auteurs de l’enquête, le système Lavender est, en fait, conçu pour marquer tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien, comme cibles potentielles de bombardement.

Pendant les premières semaines de la guerre, «l’armée s’est presque entièrement appuyée sur Lavender qui a surveillé jusqu’à 37 000 Palestiniens considérés comme des militants présumés – ainsi que leurs maisons – en vue d’éventuelles frappes aériennes (…)».

L’armée a largement autorisé les officiers à adopter les listes des cibles de Lavender sans aucune obligation de vérification sur les raisons du choix, ou d’examiner les données brutes des renseignements sur lesquelles ils étaient basés, «surtout que l’armée a systématiquement attaqué les individus ciblés alors qu’ils se trouvaient chez eux, généralement la nuit, en présence de leur famille, plutôt que pendant le déroulement d’une activité militaire».

37 000 palestiniens désignés comme cibles

Des systèmes automatisés supplémentaires, dont un appelé «Où est papa ?», également révélés par l’enquête, «ont été utilisés spécifiquement pour traquer les individus visés lorsqu’ils pénétraient dans les résidences de leurs familles».

Le résultat est que des milliers de Palestiniens – pour la plupart des femmes, des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été anéantis par les frappes aériennes israéliennes, en particulier pendant les premières semaines de la guerre, à cause de l’IA.

«Nous n’avions pas envie de tuer des membres du Hamas uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou lorsqu’ils étaient engagés dans une activité militaire», a déclaré A., un officier des renseignements.

Au contraire, ils ont été bombardés dans les maisons sans hésitation, comme première option. Il est bien plus facile de bombarder une maison familiale. Le système est conçu pour les rechercher dans ces situations.

La machine Lavender rejoint un autre système d’IA, «The Gospel». Une différence fondamentale existe, selon l’enquête, entre les deux systèmes. Elle réside dans la définition de la cible. The Gospel marque les bâtiments et les structures à partir desquels l’armée prétend que les militants opèrent alors que Lavender marque les personnes et les met sur une liste de cibles.

Lorsqu’il s’agissait de cibler les militants juniors présumés marqués par Lavender, affirment les auteurs de l’enquête, l’armée préférait utiliser uniquement des missiles non guidés, communément appelés bombes «stupides» (par opposition aux bombes de précision «intelligentes»), capables de détruire des bâtiments entiers au-dessus de leurs occupants et causent d’importantes pertes.

«Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie de ces bombes», a déclaré un des officiers du renseignement aux journalistes.

D’autres ont affirmé «qu’ils avaient personnellement autorisé le bombardement de centaines de maisons privées» de jeunes agents présumés marqués par Lavender, tuant des civils et des familles entières comme «dommages collatéraux».

Selon les mêmes témoignages, «l’armée a également décidé que, pour chaque jeune agent du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils». Dans le passé, l’armée n’autorisait aucun «dommage collatéral» lors des assassinats de militants de bas rang.

Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant. «Nous avons éliminé des milliers de personnes.

Nous ne les avons pas examinés un par un, nous avons tout mis dans des systèmes automatisés et dès que l’un des individus marqués était chez lui, il devenait immédiatement une cible.

Nous l’avons bombardé, lui et sa maison (...). C’était très surprenant pour moi qu’on nous demande de bombarder une maison pour tuer un soldat au sol, dont l’importance dans les combats était si faible», a affirmé une source à propos de l’utilisation de l’IA pour repérer des militants présumés de bas rang.

«J’ai surnommé ces cibles des ‘’cibles poubelles’’. Pourtant, je les ai trouvés plus éthiques que les cibles que nous bombardions, juste à des fins de dissuasion, des gratte-ciel qui sont évacués et renversés juste pour provoquer la destruction», a-t-il poursuivi.

Le logiciel Lavender, explique l’enquête, analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de Ghaza, grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans la branche militaire du Hamas ou du Djihad islamique.

«Selon des sources, la machine attribue à presque chaque personne à Ghaza une note de 1 à 100, exprimant la probabilité qu’elle soit un militant.» Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du Jihad, dont les informations ont été transmises à la machine sous forme de données, puis à localiser ces mêmes caractéristiques parmi la population générale.

Jusqu’à 100 victimes collatérales pour une cible de Lavender

Celui qui présente plusieurs «caractéristiques incriminantes différentes atteindra une note élevée et deviendra ainsi automatiquement une cible potentielle d’assassinat».

Un officier supérieur qui utilisait Lavender, lit-on dans l’enquête, a révélé que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner de manière indépendante les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves. «Tout était statistique, tout était soigné, c’était très sec.

Ce manque de supervision était permis malgré des contrôles internes montrant que les calculs de Lavender n’étaient considérés comme exacts que 90% du temps. En d’autres termes, on savait à l’avance que 10% des cibles humaines destinées à être assassinées n’étaient pas du tout membres de la branche militaire du Hamas.»

Pour d’autres sources citées par les deux médias, «la raison de cette automatisation était une volonté constante de générer davantage de cibles d’assassinat». «Dans une journée sans cibles (dont les caractéristiques étaient suffisantes pour autoriser une frappe), nous avons attaqué à un seuil inférieur. Nous subissions constamment des pressions.» «Amenez-nous plus d’objectifs (...).

Ils nous ont vraiment crié dessus. Nous avons fini de tuer nos cibles très rapidement.» Plusieurs sources ont souligné que «contrairement aux nombreux cas où des membres du Hamas s’engageaient dans des activités militaires à partir de zones civiles, dans le cas de frappes d’assassinat systématiques, l’armée faisait régulièrement le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient dans des maisons civiles», où aucun militaire n’avait accès.

L’activité a eu lieu. Ce choix, disent-ils, reflète la manière dont est conçu le système israélien de surveillance de masse à Ghaza. «Puisque tout le monde à Ghaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement ‘‘relier’’ les individus aux maisons familiales.

Afin d’identifier en temps réel le moment où les agents entrent dans leur maison, divers logiciels automatiques supplémentaires ont été développés. Ces programmes suivent simultanément des milliers d’individus, identifient leur présence chez eux et envoient une alerte automatique à l’agent qui les cible, qui marque ensuite la maison en vue d’un bombardement.

L’un de ces logiciels de suivi, dévoilé ici pour la première fois, s’appelle ‘‘Où est papa ?’’ Vous mettez des centaines (de cibles) dans le système et attendez de voir qui vous pouvez tuer», a déclaré une source connaissant le système. «C’est ce qu’on appelle une chasse large : vous copiez-collez à partir des listes produites par le système cible.» Lavender et des systèmes comme «Où est papa ?» se sont ainsi combinés, selon l’enquête, avec un effet meurtrier, tuant des familles entières.

Cette enquête intervient alors qu’un nouveau rapport, d’Euro-Med Monitor, a fait état vendredi dernier, d’une «politique délibérée» d’Israël visant à renforcer la famine à Ghaza.

Selon l’ONG de défense des droits de l’homme, entre janvier et mars, «563 Palestiniens ont été tués et 1523 autres blessés en raison des attaques contre les centres de distribution d’aide, les travailleurs et les civils en attente d’aide.

Entre le 11 janvier et le 23 mars, 256 Palestiniens ont été tués au rond-point de Koweït, au sud-est de la ville de Ghaza, 230 dans la rue Rashid, au sud-ouest de Ghaza, et 21 en raison du ciblage d’un centre d’aide. 41 policiers et 12 travailleurs humanitaires ont été tués, dont 2 de l’Unrwa».

Pour l’ONG, l’utilisation de la famine comme arme «est une décision politique officielle dès le premier jour de la guerre, déclarée par le ministre israélien de la Défense, et mise en œuvre par étapes intégrées.

Ces étapes comprennent le renforcement du siège et la fermeture des postes frontaliers, le refus de l’entrée de marchandises commerciales, la destruction des éléments de la production locale et des sources alimentaires, l’accroissement de la dépendance de la population à l’égard de l’aide humanitaire pour en faire leur principale source de nourriture».

Copyright 2024 . All Rights Reserved.