Le premier génocide assisté par l’Intelligence artificielle ?

12/05/2024 mis à jour: 01:13
810
Photo : D. R.

Par Ali Kahlane

Le conflit israélo-palestinien trouve ses racines au milieu du XXe siècle et s’est totalement transformé avec l’avènement des technologies modernes. Il a évolué vers une dimension de guerre technologique d’une grande intensité avec l’adoption de l’intelligence artificielle (IA) dans ses opérations militaires. L’emploi controversé, de l’IA dans le conflit contre les Palestiniens et en particulier les habitants de Ghaza, soulève des questions éthiques que les modifications tactiques et les répercussions sur les milliers civils exacerbent encore plus. 

Depuis le 7 octobre 2023, ces technologies d’intelligence artificielle, notamment Habsora, Lavender et Where’s Dadd ?, jouent un rôle-clé dans la stratégie militaire israélienne. Elles analysent rapidement de grandes quantités de données pour identifier et frapper des cibles efficacement, ouvrant une ère nouvelle dans les conflits où la technologie joue un rôle clé, elle soulève des problèmes majeurs car elle marque potentiellement une absence totale d’éthique et de morale dans les conflits futurs.

Contexte historique et racines du conflit

L’occupation continue des terres palestiniennes demeure une question centrale qui influence les stratégies militaires et les justifications des actions d’Israël et des ses alliés. Ainsi, le déploiement de l’intelligence artificielle dans les opérations militaires représente non seulement une avancée technologique mais aussi la prolongation de tactiques anciennes, adaptées à l’ère moderne. Ceci permet de maintenir une supériorité stratégique et sécuritaire en vue de la colonisation incrémentale des terres palestiniennes, un phénomène profondément enraciné dans ce contexte historique.

Les technologies d’IA en question

Israël a franchi une nouvelle limite dans l’automatisation de la guerre. Les Forces de Défense Israéliennes (IDF) ont développé un programme soutenu par l’intelligence artificielle (IA) pour sélectionner les victimes de ses bombardements. C’est un processus qui nécessitait traditionnellement une vérification manuelle jusqu’à ce qu’une personne puisse être confirmée comme cible.

Selon six officiers des renseignements israéliens, l’armée utilise un outil IA surnommée «Lavander» pour générer des dizaines de milliers de «cibles humaines» à assassiner au motif qu’elles feraient partie des branches armées du Hamas ou du Jihad islamique palestinien. Les données ainsi recueillies sont ensuite introduites dans un système de suivi automatisé connu sous le nom de «Where is daddy ?» qui permet à l’armée de tuer des Palestiniens ciblés, à l’intérieur de leur maison, ainsi que toute leur famille et souvent nombre de leurs voisins.

Ceci est un exemple d’utilisation opérationnelle de l’intelligence artificielle. Lavender, est un système IA qui a identifié 37 000 Palestiniens comme cibles potentielles durant les premières semaines de la guerre, et entre le 7 octobre et le 24 novembre. Il a été utilisé dans au moins 15 000 meurtres lors de l’invasion de Gaza. C’est ce qui  rapporté dans une enquête journalistique menée par deux médias israéliens, +972 Magazine et Local Call et repris dans une publication notamment dans The Guardian. Ces systèmes IA, représentent l’avant-garde d’un changement technologique qui offre à l’armée israélienne des capacités sans précédent en termes d’identification de cibles et d’exécution opérationnelle.

L’IA «Lavender» est conçu pour diriger les bombardements de manière plus efficace et mortelle en identifiant les cibles humaines basées sur leurs connexions présumées avec le Hamas ou d’autres groupes militants. Ce système catégorise les individus et les lieux avec très peu de supervision humaine. Le rôle de Lavender s’étend au-delà de la simple suggestion de cible.

Il influence la prise de décision stratégique. Cette dernière pouvant conduire à un nombre plus élevé de victimes civiles en raison de ses critères de ciblage expansifs. Si le nombre de victimes collatérales tolérées était de 2-4 victimes il est passé à 10-15, depuis le 7 octobre, d’après un officier israélien rapporté par le journaliste de +971. Sans compter qu’il n’est donné à l’opérateur militaire qui a l’oeil sur le drone tueur, guidé par l’IA,  que 20 secondes pour confirmer ou infirmer la décision prise par l’IA de bombarder un bâtiment ou de tuer un combattant.

L’IA «Where’s Daddy ?» cible les individus dans leurs domiciles, principalement la nuit. Ce système de suivi géographique permet de lancer des frappes aériennes dès que les cibles rentrent chez elles, profitant de leur localisation stable pour une plus grande précision. Selon un officier du renseignement israélien, les forces militaires israéliennes préfèrent attaquer les Palestiniens chez eux plutôt que pendant leurs activités de défense, car cela est techniquement plus simple et direct, offrant une plus grande assurance de succès.

Ce choix révèle une stratégie visant à maximiser l’efficacité des opérations en exploitant les capacités technologiques avancées, tout en négligeant les dommages collatéraux souvent sévères, impliquant des civils, des femmes et des enfants, puisque les domiciles sont visés. Ensemble, «Where’s Daddy ?» et «Lavender» constituent une automatisation des composants de localisation, fixation, suivi et ciblage de ce que l’on appelle dans l’armée moderne la «chaîne de destruction”.

L’IA «Habsora» ou «l’évangile», automatise le processus de sélection des cibles en analysant de vastes quantités de données provenant de diverses sources de renseignements. Ce système d’IA accélère considérablement le processus décisionnel, permettant l’identification rapide de cibles potentielles à Gaza.

La capacité de traiter ces données beaucoup plus rapidement que les analystes humains permet un rythme opérationnel plus élevé, augmentant à la fois le nombre et la précision des frappes. «L’évangile», était utilisé pour marquer les bâtiments ou structures depuis lesquels le Hamas est supposé opérer. Selon un rapport de +972 Magazine et Local Call de novembre 2023, repris en avril 2024, cette IA a également contribué à un nombre considérable de victimes civiles.

«Lorsqu’une fillette de 3 ans est tuée dans une maison à Gaza, c’est parce que quelqu’un dans l’armée israëlienne a décidé que ce n’était pas grave qu’elle soit tuée — que c’était un prix à payer pour atteindre une autre cible,» a déclaré une source militaire aux publications à l’époque. Le déploiement de ces systèmes d’IA a fondamentalement changé le paysage de l’engagement militaire pour Israël. En permettant des attaques plus fréquentes et précisément ciblées, ces technologies sont vantées pour leur efficacité et leur efficience.

Cependant, elles représentent également une escalade significative dans la capacité de conduire la guerre dans des zones densément peuplées, où la distinction entre combattants et non-combattants est extrêmement floue.Les Israéliens ont installé sur tous les téléphones des Palestiniens des logiciels espions, des spywares. Ce sont les équivalents du fameux logiciel espion «Pegasus», développé et vendu par la compagnie israélienne NSO Groupe. Ils sont utilisés pour détecter, écouter et suivre avec la capacité les cibles qui sont «prises en charge» ensuite par les outils IA utilisés comme une arme à part entière par les Israéliens en tuant et en bombardant à distance sans engager de troupes au sol.

Implications juridiques, éthiques et  droits humains 

L’intégration de l’IA dans les opérations militaires israéliennes pose des questions profondes sur le respect des normes juridiques et éthiques internationales. Les systèmes comme «Habsora», «Lavender» et «Where’s Daddy ?» automatisent des décisions cruciales, réduisant les cibles à de simples points de données. Cette déshumanisation (“kill list”) risque d’accroître les erreurs, où les civils sont parfois identifiés à tort comme des combattants, brouillant la ligne de responsabilité lors de victimes injustifiées.

Les principes de distinction et de proportionnalité, pierres angulaires du droit humanitaire, sont particulièrement menacés. L’IA peut exécuter des attaques avec une rapidité et une fréquence qui défient ces normes, menant souvent à une utilisation disproportionnée de la force. Le manque de transparence des algorithmes militaires complique encore la supervision et la responsabilité, soulevant des inquiétudes sur la capacité à maintenir une éthique dans des zones de conflit densément peuplées.

Les implications de telles technologies vont au-delà des champs de bataille, provoquant un tollé international et des accusations de crimes de guerre. Ces critiques soulignent la nécessité urgente d’une réglementation internationale plus stricte pour encadrer l’utilisation de l’IA dans les conflits, garantissant que les avancées technologiques ne dépassent pas les limites éthiques et légales.

Impact que les civils et réactions internationales

L’utilisation de stratégies pilotées par l’IA dans l’armée israélienne a eu un impact et des conséquences dévastatrices pour la population de Gaza. L’application de systèmes d’IA tels que mentionnés ci-dessus  dans des zones densément peuplées a facilité une haute fréquence de frappes aériennes, qui ont entraîné de lourdes pertes civiles et une destruction étendue de l’infrastructure civile.

La technologie IA cible ce qui est considéré comme des cibles «à haute valeur» dans les zones résidentielles, souvent sans avoir suffisamment de temps pour vérifier la présence d’actifs militaires ou de combattants. Cette méthode a conduit à une augmentation très substantielle des victimes civiles, incluant des femmes et des enfants. Par ailleurs, la destruction s’étend au-delà de la perte de vies, avec des écoles, des hôpitaux et des maisons détruits ou gravement endommagés, ce qui déplace des milliers de personnes et aggrave la crise humanitaire à Gaza.

Cette utilisation étendue de l’IA dans les opérations militaires a suscité de vives critiques de la part de la communauté internationale, y compris des organisations des droits de l’homme, du secrétaire général de l’Organisation des Nations Unies lui-même et des dizaines de gouvernements. Des accusations de crimes de guerre et de génocides ont été portées, mettant en lumière l’impact disproportionné sur les civils et les implications éthiques de l’utilisation de telles technologies avancées dans ces conditions de confinement extrêmes.

Ces critiques sont renforcées par la capacité des systèmes d’IA de modifier l’échelle et la portée de l’engagement militaire, provoquant d’importants débats sur la conformité avec le droit humanitaire international. En réponse à ces préoccupations, des appels ont été lancés pour une plus grande transparence dans les opérations militaires utilisant des technologies d’IA.

Les critiques soulignent la nécessité de mécanismes de surveillance indépendants pour garantir que ces technologies soient utilisées conformément au droit international et aux normes éthiques. De plus, il y a une demande croissante pour l’établissement de normes claires et de cadres juridiques régissant l’utilisation de l’IA dans les conflits armés, afin de prévenir les abus et de s’assurer que les avancées technologiques ne surpassent pas les normes éthiques et légales.

La représentation du conflit et le rôle de l’IA dans les médias ont également impacté la perception publique à l’échelle mondiale. Les reportages sur les frappes dirigées par l’IA mettent souvent en avant la nature clinique de telles attaques et les pertes et les souffrances civiles qui en résultent, influençant l’opinion publique et augmentant la pression sur les dirigeants politiques pour qu’ils interviennent ou réévaluent leurs politiques militaires concernant l’IA.

Changements tactiques et stratégiques

L’adoption de l’intelligence artificielle (IA) dans les opérations militaires israéliennes a non seulement renforcé les capacités de l’Armée, mais a également transformé de manière significative ses approches tactiques et stratégiques. Les systèmes d’IA tels que «Habsora» et «Lavender» permettent une identification rapide et précise des cibles, augmentant l’efficacité des frappes et le tempo opérationnel.

Cette capacité accrue réduit le temps de réaction de l’adversaire, intensifiant l’impact des opérations. Parallèlement, l’utilisation de l’IA a élargi la définition des cibles potentielles, permettant aux algorithmes de détecter des connexions subtiles qui pourraient indiquer une valeur stratégique. Cela augmente la pression psychologique sur l’adversaire et pourrait potentiellement pousser les groupes hostiles à reconsidérer leurs stratégies.

Toutefois, la dépendance accrue à l’IA peut aussi induire une dépersonnalisation des décisions de combat, où les implications humaines des actions militaires sont parfois sous-évaluées. Les changements introduits par l’IA préfigurent un avenir où la guerre est de plus en plus menée à distance, ce qui pourrait fondamentalement transformer la nature des conflits. Les implications de ces changements stratégiques sont vastes, requérant une attention continue pour s’assurer que les avancées technologiques se traduisent par des améliorations tactiques qui respectent les normes internationales de conduite en guerre.

Effets psychologiques et sociétaux

L’utilisation stratégique de l’intelligence artificielle (IA) dans les opérations militaires a profondément altéré la dynamique sociale et psychologique à Gaza. La précision et l’imprévisibilité des frappes IA créent une atmosphère de peur et d’insécurité, où aucun lieu n’est perçu comme sûr. Cette anxiété omniprésente affecte profondément la santé mentale des résidents, exacerbant les troubles comme le stress post-traumatique, l’anxiété et la dépression.

Les répercussions vont au-delà de la santé individuelle, érodant la cohésion sociale et la structure communautaire. La destruction de maisons, écoles et infrastructures critiques non seulement déplace des populations, mais affaiblit également les réseaux de soutien essentiels à la résilience communautaire. À long terme, cela peut conduire à une fragmentation sociale, compliquant les efforts de rétablissement de la paix et de stabilité.

Ces impacts ne sont pas seulement locaux; ils résonnent également à l’échelle internationale, influençant la perception publique et augmentant la pression politique pour une réponse plus humaine et réglementée au conflit. L’engagement continu dans le dialogue et la formulation de politiques visant à atténuer ces effets est crucial pour diriger l’avenir des opérations militaires vers une conduite plus respectueuse de la dignité humaine et des normes éthiques.

Conclusion et implications futures

L’expansion de l’intelligence artificielle dans le conflit israélo-palestinien, en particulier durant les hostilités actuelles contre Gaza, fait apparaître clairement que l’intégration de cette technologie dans les stratégies militaires constitue une évolution majeure dangereuse. La guerre automatisée par l’IA ne redéfinit pas seulement les tactiques de combat, elle soulève également des enjeux éthiques, juridiques et humanitaires significatifs qui interpellent toutes normes internationales établies dans ce domaine.

Les systèmes tels que «Lavender», «Where’s Daddy ?» et «Habsora» ont transformé les opérations militaires, ils offrent une précision et une rapidité de ciblage accrues, mais qui ont également entraîné de très nombreuses pertes civiles et des destructions d’infrastructures considérables. L’utilisation de ces technologies soulève d’importantes questions éthiques, montrant la nécessité de règles internationales pour les encadrer.

Ces efforts doivent équilibrer les avantages technologiques avec la nécessité de protéger d’abord les vies humaines, tout en respectant le droit humanitaire international. Il est également impératif de développer des normes internationales spécifiques à l’utilisation de l’IA dans les contextes militaires. Ces normes devraient incorporer des exigences de transparence, de responsabilité et de proportionnalité. La création d’un organe international de surveillance pourrait s’avérer nécessaire pour garantir l’application de ces normes.

Il est important de poursuivre la recherche, le dialogue et la formulation de politiques qui optimisent les bénéfices de l’IA tout en minimisant ses risques. L’objectif de tout humain doit demeurer de diriger l’avenir de la guerre vers un chemin qui privilégie la dignité humaine et la paix, plutôt que la domination technologique. Enfin, j’ai personnellement demandé à mon IA préférée de me fournir les dernières informations sur le conflit russo-ukrainien. En moins de deux secondes, elle m’a résumé la situation et ses implications.

Cependant, lorsque j’ai posé la même question à propos du conflit israélo-palestinien, je n’ai obtenu que de vagues réponses. Elle conclut qu’elle n’est pas en mesure de fournir des informations telles que demandées, arguant que le sujet est trop sensible et controversé. Voici ce que cela implique pour l’avenir : même l’intelligence artificielle peut être manipulée et suivre des directives imposées par les corporations qui la contrôlent. De plus, si l’IA choisit les sujets qu’elle peut traiter ou non, comment pouvons-nous être sûrs que les sujets abordés sont traités de manière impartiale ? A. K.

Copyright 2024 . All Rights Reserved.