Yazid Aguedal. Directeur général d’IT Synergy : «L’utilisation de l’IA est déjà effective en Algérie»

19/06/2023 mis à jour: 23:50
2504
Photo : D. R.

Dans l’entretien à El Watan, Yazid Aguedal, DG d’IT Synergy et consultant de plusieurs multinationales et de sociétés algériennes, évoque l’utilisation de l’intelligence artificielle (IA) dans le monde et en Algérie. Pour lui, «comme pour toutes les technologies qui sont offertes, personne n’a besoin d’autorisation ou de permission pour l’utiliser».

  • Plus de 1100 personnalités ont demandé, fin mars, un moratoire sur la recherche en intelligence artificielle (IA). Elles disent craindre «des risques majeurs pour l’humanité». Les autorités italiennes ont décidé dans un premier temps de bloquer le robot conversationnel ChatGPT, accusé de ne pas respecter la législation sur les données personnelles et de ne pas avoir de système pour vérifier l’âge des usagers mineurs. Que pensez-vous de la polémique suscitée par cet appel ?

Il y a du vrai dans ce discours. Le risque est que dans cette course au développement de différents types d’IA dans maints domaines (santé, sécurité, données personnelles, etc.), on peut se retrouver avec des situations complexes sachant que la législation actuelle n’est pas encore prête. Et comme on sait que la partie législation est toujours en retard par rapport à la réalité, il y a le risque réel que ça «déborde». La solution serait d’«arrêter», de «bloquer» la recherche en attendant. Il y a donc un risque réel dont parlent les personnalités de la pétition, mais il y a aussi la partie «concurrence». La «pause» devra permettre à d’autres de développer leur technologie pour être à la page…

C’est donc difficile de faire la part des choses entre les deux «camps». Ce qui est clair, c’est que le développement de ChatGPT fait réfléchir, surtout en raison de la multiplicité de ses domaines d’utilisation. Autre chose : cette technologie offerte et qu’il est possible d’utiliser par tous peut poser problème, surtout que l’on ne sait pas à quoi cela peut aboutir. D’autant que l’IA en tant que technologie est évolutive : en termes de qualité, plus l’utilisation est importante, plus la qualité des réponses est meilleure.

  • L’Unesco a appelé à mettre en œuvre «sans délai» sa recommandation sur l’éthique de l’IA entérinée en 2021. Comment y parvenir ?

Je pense que c’est logique comme recommandation, vu qu’on n’était pas préparés pour cela. Les plus optimistes ne s’attendaient pas à ce qu’il y ait une tendance vers l’IA. On savait qu’il y avait des travaux, mais on ne savait pas que d’un seul coup cette technologie sera accessible à tous et avec une telle qualité. Conséquence : l’humanité, la législation, les pays en général ne sont pas prêts.

Quelle sera la réponse à cette évolution ? Qui définit l’éthique ? Quand on parle de santé, de sécurité informatique, d’éducation, de copyright, de recherches, on aimerait savoir quelles seront les limites de l’IA. Qui saura les définir ? Sur quelle base ? Ce sont des sujets compliqués. Et la réponse va être différente d’un pays à un autre, selon les limites de chacun, selon les résistances propres à chaque pays…

Cette IA va éventuellement menacer des intérêts, va toucher à des pouvoirs, va provoquer des blocages et générer des «ouvertures» dans certains domaines. Tout ce débat sur les limites de l’IA et quelle sera l’éthique ou la législation à adopter, ce sont autant de questions sérieuses à prendre en compte. Il est clair que cela nécessite un débat et des études, des séminaires, des conférences, etc. La recommandation de l’Unicef est donc logique et compréhensible.

  • Dans un post sur votre page Facebook, vous considérez que l’utilisation de l’IA en Algérie est déjà «effective». Néanmoins, cet usage reste, selon vous, «silencieux»

L’utilisation de l’IA en Algérie est effective puisque, comme toutes les technologies qui sont offertes, personne n’a besoin d’autorisation ou de permission pour l’utiliser. Dès lors que quelqu’un voit, juge que cette technologie est utile pour lui, à titre personnel ou professionnel, il n’a pas besoin d’autorisation pour l’utiliser. Beaucoup de développeurs informatiques ont déjà commencé à l’utiliser. C’est le cas aussi de nombreuses boîtes de marketing, de communication...

Cet usage, comme je l’ai dit, reste dans un premier temps «silencieux». Maintenant, plus le nombre d’utilisateurs de l’IA va augmenter, plus l’utilisation va être évidente, logique et importante. On va peut-être voir se multiplier dans les prochaines semaines les offres de formations sur l’utilisation du ChatGPT dans le marketing, dans la communication, dans la recherche scientifique… Cela devra susciter à terme un débat public et donner aussi naissance à des services à valeur ajoutée (formation, coaching, etc.).

A partir de là, on va sortir du cadre «silencieux» dont j’ai parlé. Je suppose que c’est une question de temps et ce n’est pas uniquement lié à ChatGPT puisque l’on parle de génération d’images par IA, de vidéos par IA, ou carrément de campagnes publicitaires par IA. Donc, on aura peut-être l’occasion de voir fleurir plusieurs autres produits, des formations, et même, comme je l’ai dit, un débat autour de cette technologie. Cela va devenir avec le temps un sujet public. Côté législation, on aura un dispositif législatif et réglementaire qui va prendre en charge l’usage de cette technologie.

  • Vous considérez qu’à court terme, les étudiants seront les premiers à s’emparer de cet outil. Pourquoi, selon vous ?

Effectivement, l’utilisation de l’IA dans la recherche scientifique est logique, puisqu’il faut imaginer quelles sont les opportunités offerts par ChatGPT pour un étudiant, pour quelqu’un qui est en fin d’étude, qui prépare sa thèse ou qui a des difficultés à trouver la bonne documentation, la bonne définition, la bonne méthodologie...

Pour quelqu’un qui prépare son cours, un exposé, un TP, un projet de fin d’étude, l’IA est une source d’information plus au mois fiable, qui donne l’information directement sans être obligé de s’«encombrer» de plusieurs dizaines ou même de centaines de pages de documentation.

En même temps, ce domaine devra fera face à un défi de taille concernant tout ce qui est copyright, droits d’auteur... Se posera aussi le problème de la différence entre un travail qui est fait par l’IA et celui remis par l’étudiant. C’est une problématique de taille, d’éthique, et aussi d’outils dans un domaine qui s’approprie déjà cet outil de recherche.

  • Comment peut-on éviter les «risques» potentiels de cette technologie ?

Pour les risques, il n’y a pas de bonne méthode. Cela doit faire l’objet de débat entre spécialistes, comme pour tout domaine. Quand on parle par exemple d’IA dans la santé, qui est un domaine très sensible, ce sont les gens de la santé qui vont, peut-être, discuter avec les «techniciens» en vue d’avoir des éléments d’information qui leur font défaut sur cet outil. Mais c’est aux gens de la santé d’anticiper sur les risques et c’est à eux de définir quelles sont les mesures nécessaires à adopter pour faire face à d’éventuels risques. Idem pour l’enseignement supérieur. C’est aux chercheurs et responsables de définir et détecter les risques potentiels, mais aussi les opportunités, parce qu’il ne faut pas voir que les risques.

Les opportunités qu’offre cet outil sont aussi importantes. Il ne faut pas que les risques bloquent la valeur ajoutée de cette technologie. Donc, tout est fonction du domaine d’utilisation (protection des données personnelles, etc.), surtout quand on travaille sur un service en cloud, où on ne maîtrise rien sur l’autre partie, sur ce qui est stocké concernant nos questions, mais aussi par rapport au pays...

C’est la même chose quand on parle de la sécurité informatique. Quand on donne, par exemple, la possibilité à des gens ordinaires de poser des questions sur comment attaquer un site internet, etc., l’IA pourrait offrir une méthode et des outils qui peuvent être dangereux. Un débat doit donc être lancé à un haut niveau. L’objectif est de voir quelles seront les réponses que peuvent apporter les différentes institutions et les composantes de la société à ce nouveau défi, qui est source de risques mais aussi de beaucoup d’opportunités.

Bio express

Yazid Aguedal est diplômé de l’Ecole supérieure d’informatique (ex-INI), directeur général d’IT Synergy (www.itsynergy-dz.com), une société de services dans le Digital. Il a à son actif 23 ans d’expérience dans le domaine du développement et de la gestion des projets informatiques, certifié par Microsoft et Oracle. Consultant de plusieurs multinationales et de sociétés algériennes, il est très actif dans l’écosystème des start-up et de la numérisation en Algérie. Il est également membre du conseil d’administration du Groupement algérien des acteurs du numérique (GAAN).

Copyright 2024 . All Rights Reserved.