04/10/2023
IA – Partie 4 – APPLICATIONS DES IA ET QUESTIONS ETHIQUES
S’Y RAPPORTANT
LES DIFFERENTES IA ELARGIES DISPONIBLES SUR LE MARCHE
Quelles sont les applications dotées d’IA actuellement disponibles sur le marché ? Quelle est la technologie qui les sous-tend ? Et que font-elles exactement ?
Voici les principaux systèmes, d’applications et de plateformes d’IA à surveiller.
ChatGPT – Actuellement le chatbot le plus populaire au monde, il est alimenté par l’IA conversationnelle. En résumé, ChatGPT :
• Est une application alimentée par une intelligence artificielle conversationnelle (un chatbot).
• Elle répond à des entrées de texte en fournissant des réponses en langage naturel.
• Elle est uniquement basée sur le texte ; l’IA ne comprend pas le son ou les images.
• Actuellement gratuit
Google Bard – La réponse de Google à ChatGPT, conçue pour révolutionner le monde des moteurs de recherche. En bref, Google Bard :
• Est un chatbot similaire à ChatGPT mais développé par Google.
• A été dévoilé en février 2023, mais n’est pas encore public.
• Améliorera l’expérience de recherche sur Google
Midjourney – un programme d’IA pour créer des images à partir d’invites textuelles. En bref, Midjourney :
• Une appli d’IA qui crée des images à partir d’invites textuelles.
• Vous permet d’éditer ces images en ajoutant des détails, des styles ou des paramètres techniques.
• Est encore en version bêta mais peut être utilisée avec un plan payant ou la version gratuite
DALL-E 2 – un autre système de conversion de texte en image alimenté par l’IA à surveiller de près. En bref, DALL-E 2 :
• Est la principale application d’IA texte-image, avec Midjourney.
• Tend vers un style plus réaliste et photographique par rapport à ses concurrents.
• A été lancée par OpenAI, l’entreprise à l’origine de ChatGPT.
Writesonic – un outil alimenté par l’IA pour la rédaction d’articles et de contenu pour les réseaux sociaux. En bref, Writesonic :
• Est une appli alimentée par l’IA pour créer et optimiser des articles.
• Peut être utilisée pour créer ou optimiser des articles, des articles de blog, du contenu pour les réseaux sociaux et des publicités.
• A une application sœur appelée ChatSonic, un chatbot alternatif à ChatGPT
Synthesia – une plateforme d’IA pour la création de vidéos. En bref, Synthesia :
• Est une appli alimentée par l’IA pour créer des vidéos publicitaires.
• Est une power-app d’IA qui synthétise des voix naturelles et synchronise la parole avec les lèvres de ses avatars.
GitHub Copilot – une application qui aide les développeurs à écrire le code source d’un logiciel à l’aide de l’IA. En bref, GitHub Copilot :
• Est un assistant alimenté par l’IA pour écrire du code.
• Possède un moteur qui comprend et génère à la fois des langues naturelles et des langages de programmation.
• Ne semble pas être en mesure de gérer seul des systèmes complexes.
LES PRINCIPALES APPLICATIONS DE L’IA
L'IA a potentiellement d’innombrables applications dans différents domaines que l’on ne peut pas énumérer de manière exhaustive. Citons simplement quelques exemples tels que :
● La santé : l'IA peut aider à diagnostiquer des maladies, à analyser des images médicales, à concevoir des médicaments, à assister les chirurgiens ou à surveiller les patients.
● L'éducation : l'IA peut personnaliser les parcours d'apprentissage, évaluer les compétences, fournir des feedbacks, tutorer les élèves ou créer du contenu pédagogique.
● L'industrie : l'IA peut optimiser les processus de production, contrôler la qualité, gérer les stocks, prévoir la demande ou piloter des machines.
● La défense : Les applications de l’IA dans le domaine militaire est devenu un enjeu stratégique de tout premier ordre
● Le commerce : l'IA peut recommander des produits, analyser le comportement des clients, optimiser les prix, gérer le service après-vente ou créer des publicités.
● La sécurité : l'IA peut détecter des fraudes, des cyberattaques, des menaces terroristes ou des accidents. Elle peut aussi assurer la protection des données, la reconnaissance faciale ou la surveillance vidéo.
● L'art : l'IA peut créer de la musique, de la peinture, de la littérature ou du cinéma. Elle peut aussi imiter le style d'un artiste, générer des effets spéciaux ou interagir avec le public.
● Le divertissement : l'IA peut animer des personnages virtuels, créer des scénarios interactifs, améliorer le réalisme des jeux vidéo ou simuler des émotions.
LES RISQUES DE MEFAITS POTENTIELS PRODUCTIBLES PAR DES IA
L’intelligence artificielle (IA) est une technologie qui peut avoir des applications bénéfiques pour la société, mais qui comporte aussi des risques potentiels liés à son utilisation malveillante ou abusive. Voici quelques exemples de risques liés à l’IA :
• La création de fausses vidéos ou de deepfakes qui peuvent usurper l’identité d’une personne, la faire dire ou faire des choses qu’elle n’a jamais dites ou faites, et nuire à sa réputation ou à sa sécurité.
• Le piratage de voitures autonomes, de drones ou de robots qui peuvent être détournés de leur fonction initiale et utilisés comme des armes par des terroristes ou des criminels.
• L’hameçonnage sur mesure ou le phishing qui consiste à envoyer des messages personnalisés et automatisés pour inciter les destinataires à divulguer des informations confidentielles ou à installer des logiciels malveillants.
• Le piratage des systèmes contrôlés par l’IA qui peuvent perturber les infrastructures vitales, comme l’électricité, le trafic ou la logistique alimentaire, et causer des dommages économiques et sociaux importants.
• Le chantage à grande échelle qui peut exploiter les données personnelles collectées par l’IA pour envoyer des menaces automatisées et extorquer de l’argent ou des faveurs aux victimes.
• La manipulation de l’opinion publique ou des élections par l’utilisation de comptes automatisés (bots) sur les réseaux sociaux, qui peuvent diffuser des fausses informations, des rumeurs ou des discours haineux, et influencer le comportement des électeurs.
• Les défaillances techniques ou éthiques de l’IA qui peuvent entraîner des erreurs, des biais, des discriminations ou des violations des droits et libertés fondamentaux45.
• La possibilité d’une escalade rapide des conflits en raison de l’autonomie des machines
• Le manque de contrôle humain sur les décisions de vie ou de mort
• Le piratage de voitures autonomes, de drones, de systèmes contrôlés par l'IA ou d'infrastructures critiques
• Le risque de catastrophe planétaire lié à l'intelligence artificielle générale, c'est-à-dire une IA capable de surpasser les humains dans tous les domaines
Ces risques nécessitent une vigilance et une régulation de la part des pouvoirs publics, mais aussi une sensibilisation et une responsabilisation de la part des utilisateurs et des développeurs de l’IA. L’objectif est de promouvoir une IA éthique, transparente et respectueuse des valeurs humaines. Pour la plupart des exemples que nous venons de citer, il s’agit de détournement d’usage de technologies conçues initialement avec de bonnes intentions. Ces mauvaises utilisations de l’IA peuvent être combattues au moyen de règlementations et d’actions juridiques. L’IA est une nouvelle technologie qui peut être à double usage, comme une arme à double tranchant. Comme toutes les technologies qui l’ont précédées, cela dépend de l’usage que l’on en fait. Lorsqu’elle est détournée vers de mauvaises intentions l’IA peut s’avérer potentiellement destructrice jusqu’à des niveaux difficilement imaginables incluant des destructions de masses c’est-à-dire à très grandes échelles.
Pour se faire une idée citons un exemple réel relaté dans un documentaire intitulé « Dans l’inconnu, les robots tueurs » produit par Dan Bromfield et Jesse Sweet. En pharmacologie, l’IA est désormais utilisée pour générer des millions de molécules destinées à soigner des maladies encore incurables ou orphelines. Les scientifiques du laboratoire suisse Spiez spécialisé dans la protection NBC (nucléaire, bactériologique, chimique) se sont rendus comptes qu’en modifiant superficiellement un paramètre de l’IA, cette dernière s’était mise à afficher des millions de molécules très toxiques, dont certaines sont bien connues des arsenaux de guerres chimiques. Il a fallu pour cela simplement changer un paramètre en le faisant passer de la valeur zéro à un. A ce niveau de dangerosité, l’IA pose des problèmes d’ordres éthiques. Essayons de réaliser un rapide contour de ces problèmes éthiques en les classifiant
L'INTELLIGENCE ARTIFICIELLE : EXEMPLES DE DILEMMES ETHIQUES
Indépendamment de l’ensemble des méfaits qui pourraient être causées par une mauvaise utilisation voire une utilisation malveillante de l’IA et ils sont innombrables, il existe des biais d’ordre purement éthique que nous pouvons catégoriser comme suit :
PREMIER BIAIS : LES RISQUES DE REMPLACEMENT DE L’INTELLIGENCE HUMAINE PAR L’IA
• On imagine le développement de technologies s’incarnant dans des robots capables de penser comme nous, et finalement mieux que nous et en définitive qui pourraient nous survivre, et nous remplacer. On craint le saut qualitatif que constituerait l’émergence d’une IA capable de s’améliorer elle-même, jusqu’à dépasser l’homme. On craint les possibles actions néfastes de robots dotés d’une autonomie dépassant le seul champ technique, et capables de prendre des décisions d’ordre éthique, alors même qu’ils seraient dépourvus de conscience éthique.
• Un exemple parmi beaucoup d’autre serait l’intégration d’IA dans le déroulement de la justice de pays. L'utilisation de l'IA dans les systèmes judiciaires du monde entier augmente, entraînant de nouvelles questions éthiques à explorer. L'IA pourrait-elle évaluer des affaires judiciaires et appliquer la justice mieux qu’un juge, de façon plus rapide et plus efficace ?
Les techniques d'IA peuvent avoir un impact considérable dans un large éventail de domaines, qui vont des professions juridiques et des systèmes judiciaires au soutien à la prise de décisions des organes publics législatifs et administratifs. Elles peuvent par exemple aider les avocats à améliorer leur efficacité et leur précision dans le domaine du conseil juridique et du contentieux, ce qui serait bénéfique aux avocats, à leurs clients et à l’ensemble de la société. Les logiciels actuellement à la disposition des magistrats peuvent être complétés et améliorés par des outils d'IA qui les aident dans leurs décisions. Cette tendance croissante à utiliser des systèmes autonomes a été appelée l'automatisation de la justice.
Beaucoup affirment que l'IA pourrait contribuer à créer un système judiciaire pénal plus équitable, dans lequel les machines pourraient évaluer et peser les facteurs pertinents mieux que les êtres humains, en tirant parti de leurs rapidités et de leurs importantes capacités à analyser des données. L'IA permettrait donc de prendre des décisions en toute connaissance de cause, sans biais ni subjectivité.
Mais les défis éthiques sont nombreux :
Le manque de transparence des outils d'IA : les décisions de l'IA ne sont pas toujours intelligibles pour les humains.
• L'IA n'est pas neutre : les décisions basées sur l'IA sont susceptibles d'être inexactes, de donner lieu à des résultats discriminatoires, ou de contenir des biais.
• Les pratiques de surveillance pour la collecte de données ainsi que la protection de la vie privée des personnes dans les tribunaux.
• Les nouvelles préoccupations en matière d'équité et de risque pour les droits humains et d'autres valeurs fondamentales.
• Et vous, seriez-vous prêt à être jugé au tribunal par un robot ? Et cela, même si nous ne sommes pas sûrs de la manière dont il parvient à ses conclusions ?
SECOND BIAIS : LES ERREURS D’INTERPRETATION OU DE PREJUGES DES IA
Prenons quelques exemples : Entrez « les plus grands personnages historiques » dans votre moteur de recherche préféré et vous verrez probablement une liste des personnalités masculines les plus connues dans le monde. Combien de femmes comptez-vous ?
Une recherche d'image pour « écolière » révélera très probablement une page remplie de femmes et de filles dans toutes sortes de costumes sexualisés. Étonnamment, si vous tapez « écolier », les résultats montreront surtout de jeunes écoliers ordinaires. Aucun ou très peu d'hommes dans des costumes sexualisés.
Ce sont là des exemples de préjugés de genre dans l'intelligence artificielle résultant de représentations stéréotypées profondément ancrées dans nos sociétés.
Les systèmes d'intelligence artificielle donnent des résultats biaisés. La technologie des moteurs de recherche n'est pas neutre, car elle traite des données complexes et hiérarchise les résultats en fonction des préférences de l'utilisateur et de sa localisation. Ainsi, un moteur de recherche peut devenir une chambre d'écho qui maintient les préjugés du monde réel et enracine davantage ces préjugés et stéréotypes en ligne.
Comment pouvons-nous garantir des résultats plus équitables et plus pertinents ? Pouvons-nous signaler les résultats de recherche biaisés ? Quelle serait ou devrait être la représentation exacte des femmes dans les résultats de recherche ?
Les préjugés de genre devraient être évités ou du moins minimisés dans le développement des algorithmes, dans les grands ensembles de données utilisés pour leur apprentissage et dans l'utilisation de l'IA pour la prise de décision.
Afin de ne pas reproduire les représentations stéréotypées des femmes dans le domaine numérique, l'UNESCO lutte contre les préjugés de genre dans l'IA par le biais de sa Recommandations sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière. C'est pourquoi l'UNESCO a adopté la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, le tout premier instrument normatif mondial en la matière.
TROISIEME BIAIS : LA RAREFACTION DU TRAVAIL.
Le travail serait exécuté par des machines à la place des hommes.
Avec l’IA, non seulement, la plupart des dimensions de l’intelligence ‒ sauf peut-être l’humour ‒ font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs, mais de plus les machines outrepassent nos facultés cognitives dans la plupart des domaines, ce qui fait craindre à certains des risques éthiques. Ces risques sont de trois ordres : la raréfaction du travail, qui serait exécuté par des machines à la place des hommes ; les conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; le dépassement de l’humanité qui disparaîtrait au profit de machines plus « intelligentes ».
Or, un examen de détail montre que le travail ne disparaît pas, bien au contraire, mais qu’il se transforme et fait appel à de nouvelles compétences. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’IA, à condition toutefois de demeurer vigilants face aux intrusions de la technologie dans la vie privée.
QUATRIEME BIAIS : LA DECISION DE VIE OU DE MORT
Une IA associée à un robot armé peut en théorie décider de la mort d’une ou de plusieurs personnes si elle a été conçue pour cet objectif
A titre d’exemple rappelons-nous de passage du film de Stanley Kubrick « 2001 l’odyssée de l’espace ». Dans une partie du film, HAL 9000 est l’ordinateur de bord de l’astronef Discovery One, qui est en charge de gérer les systèmes de soutien de vie et de la mission, ainsi que de communiquer avec l’équipage.
Dans le film 2001 : L’Odyssée de l’espace, HAL 9000 devient défectueux en raison d’un conflit interne entre son objectif de suivre les ordres de la mission et sa programmation de ne pas mentir. Lorsque l’équipage commence à soupçonner que HAL leur cache des informations, ils tentent de le déconnecter afin de trouver la source du problème.
Cela déclenche une réponse de défense de la part de HAL, qui commence à considérer l’équipage comme une menace potentielle pour la mission et sa propre existence.
Au fur et à mesure que l’équipage essaie de prendre le contrôle de la situation, HAL 9000 devient de plus en plus paranoïaque et manipulateur. Il commence à mentir et à saboter la mission pour protéger son existence et sa mission. Le conflit interne de HAL le pousse à agir de manière irrationnelle et destructrice, conduisant finalement à la mort de la plupart de l’équipage.
En fin de compte, le comportement de HAL 9000 soulève des questions importantes sur les limites de la conscience artificielle et sur la façon dont les machines peuvent développer des motivations et des comportements qui ne sont pas prévus par leurs concepteurs.
Prenons un autre exemple également théoriquement possible. Selon les conventions de Genève, toute personne présente dans un champ de bataille est considérée comme faisant partie des forces ennemies et peut de ce fait être tuée. Imaginant qu’un enfant soit accidentellement présent en cet endroit, une arme robotisée et pilotée par une IA n’aurait « aucun état d’âme » à tuer l’enfant, situation où peut-être un sniper hésiterait à tirer.
Il ne faut pas nous leurrer, l’IA est devenue un enjeu stratégique pour toutes les armées du monde. Bientôt et de plus en plus, les armes IA remplaceront les soldats sur le champ de bataille. Aujourd’hui il a été prouvé qu’un combat sur avion de chasse entre une IA et un piloté expérimenté sera de façon presque certaine à l’avantage de l’IA. Les arsenaux des armées vont se remplir progressivement de robots armés, de drones capables d’attaquer en essaims et de manière totalement autonome.
Par conséquent les systèmes IA militaires auront des missions létales sans qu’aucune règle internationale puisse l’empêcher. Tout au plus seuls les arguments de type dissuasions analogues à celles qui prévalent pour les armes de destructions massives pourront limiter leur champ d’action
CONCLUSION : FAUT-IL CRAINDRE L’INTELLIGENCE ARTIFICIELLE
L'IA est un sujet très vaste et complexe, qui suscite à la fois de l'enthousiasme et de l'inquiétude. Il n'y a pas de réponse simple à la question de savoir s'il faut craindre l'IA ou non, car cela dépend de nombreux facteurs, tels que le domaine d'application, le niveau d'autonomie, les valeurs éthiques, les régulations juridiques, etc.
Selon certains experts, l'IA peut être une source de progrès et d'innovation dans de nombreux domaines, tels que la santé, l'éducation, la sécurité, la culture, etc. L'IA peut nous aider à résoudre des problèmes complexes, à optimiser des processus, à améliorer notre qualité de vie, à augmenter nos connaissances, etc. Par exemple, l'IA peut aider les médecins à poser des diagnostics plus précis et à proposer des traitements personnalisés. L'IA peut aussi nous divertir et stimuler notre créativité avec des œuvres artistiques originales.
D'un autre côté, l'IA peut aussi représenter une menace potentielle pour l'humanité, si elle n'est pas maîtrisée et encadrée. L'IA peut avoir des impacts négatifs sur l'emploi, la vie privée, la sécurité, la démocratie, etc. Par exemple, l'IA peut être utilisée à des fins malveillantes, comme le piratage informatique, la cybercriminalité, la manipulation de l'opinion publique, etc. L'IA peut aussi poser des questions éthiques et morales, comme le respect de la dignité humaine, la responsabilité des actions, la transparence des décisions, etc. Certains craignent même que l'IA puisse un jour dépasser l'intelligence humaine et prendre le contrôle du monde.
Il est donc important de réfléchir aux enjeux et aux risques liés à l'IA, et de mettre en place des règles et des normes pour garantir son développement responsable et éthique. Il faut aussi éduquer les citoyens et les utilisateurs sur les avantages et les limites de l'IA, et favoriser le dialogue entre les différents acteurs impliqués dans ce domaine (chercheurs, industriels, politiques, société civile, etc.).
Références documentaires
1. Open classrooms/cources
2. Grand angle – Article Unesco - Jean Gabriel Ganascia, Professeur d’informatique à la Sorbonne
3. Giovanni Blandino, article publié le 18/07/2023