fbpx

ChatGPT : La Maison Blanche incite les PDG des entreprises technologiques à limiter les risques de l’I.A

Partager

Lors de la première réunion des entreprises d’I.A. organisée par la Maison Blanche, la vice-présidente Kamala Harris a déclaré aux dirigeants des grandes entreprises technologiques qu’ils avaient l’obligation «morale» d’assurer la sécurité des produits et de se conformer aux lois existantes pour protéger le peuple américain.

Avec AP

La vice-présidente Kamala Harris a rencontré jeudi les dirigeants de Google, de Microsoft et de deux autres entreprises développant l’intelligence artificielle, alors que l’administration Biden met en place des initiatives visant à garantir que la technologie en évolution rapide améliore la vie sans mettre en péril les droits et la sécurité des personnes.

Le président Joe Biden s’est brièvement rendu à la réunion qui s’est tenue dans la salle Roosevelt de la Maison-Blanche et a déclaré qu’il espérait que le groupe pourrait «nous éduquer» sur ce qui est le plus nécessaire pour protéger et faire progresser la société.

«L’intelligence artificielle est l’un des outils les plus puissants de notre époque, mais pour saisir les opportunités qu’elle offre, nous devons d’abord en atténuer les risques» a-t-il écrit sur Twitter.

«Aujourd’hui, j’ai participé à une réunion avec des dirigeants du secteur de l’IA pour évoquer l’importance d’innover de manière responsable et de protéger les droits et la sécurité des personnes».

«Ce que vous faites présente un énorme potentiel et un énorme danger», a déclaré Biden aux PDG, selon une vidéo publiée sur son compte Twitter.

«Le président a été largement informé sur ChatGPT et sait comment il fonctionne», a déclaré Karine Jean-Pierre, secrétaire de presse de la Maison Blanche, lors de la conférence de presse de jeudi.

Pendant près de deux heures, dans la salle Roosevelt de la Maison Blanche, la vice-présidente Kamala Harris et d’autres responsables ont demandé aux dirigeants de Google, de Microsoft, d’OpenAI, le créateur du populaire chatbot ChatGPT, et d’Anthropic, une start-up spécialisée dans l’intelligence artificielle, de prendre sérieusement en compte les inquiétudes suscitées par cette technologie.

Sundar Pichai, directeur général de Google, Satya Nadella, directeur général de Microsoft, Sam Altman, directeur général d’OpenAI, et Dario Amodei, directeur général d’Anthropic, ont participé à la réunion de jeudi. Certains des dirigeants étaient accompagnés d’assistants disposant d’une expertise technique, tandis que d’autres étaient accompagnés d’experts en politique publique.

C’était la première fois que la Maison-Blanche réunissait les principaux responsables de l’IA depuis la sortie d’outils tels que ChatGPT, qui ont captivé le public et stimulé la course à la domination de la technologie.

«Le secteur privé a la responsabilité éthique, morale et juridique de garantir la sécurité de ses produits», a déclaré Kamala Harris dans un communiqué. «Et chaque entreprise doit se conformer aux lois existantes pour protéger le peuple américain».

Cette réunion montre à quel point l’essor de l’IA a touché les plus hautes sphères du gouvernement américain et fait pression sur les dirigeants du monde entier pour qu’ils maîtrisent cette technologie.

Depuis qu’OpenAI a rendu public ChatGPT l’année dernière, un grand nombre des plus grandes entreprises technologiques du monde se sont empressées d’intégrer les chatbots dans leurs produits et ont accéléré la recherche sur l’I.A. Les investisseurs en capital-risque ont déversé des milliards de dollars dans la recherche sur les chatbots et les jeunes pousses de l’IA.

Joe Biden a récemment déclaré qu’il «fallait à voir» si l’I.A. est dangereuse, et certains de ses hauts responsables se sont engagés à intervenir si la technologie est utilisée de manière préjudiciable. Des membres du Congrès, dont le sénateur Chuck Schumer de New York, chef de la majorité, ont également entrepris de rédiger ou de proposer une législation visant à réglementer l’I.A.

En outre, le Bureau de la gestion et du budget de la Maison-Blanche devrait publier dans les prochains mois des orientations sur la manière dont les agences fédérales peuvent utiliser les outils d’IA. Les principaux développeurs d’IA se sont également engagés à participer à une évaluation publique de leurs systèmes en août, à l’occasion de la convention DEF CON de Las Vegas sur le piratage informatique.

La Maison-Blanche a indiqué qu’elle avait fait comprendre aux entreprises qu’elles devaient prendre en compte les risques liés aux nouveaux développements en matière d’intelligence artificielle. Dans un communiqué publié à l’issue de la réunion, l’administration a déclaré qu’il y avait eu une «discussion franche et constructive» sur le désir des entreprises d’être plus ouvertes au sujet de leurs produits, sur la nécessité de soumettre les systèmes d’I.A. à un examen extérieur et sur l’importance de tenir ces produits à l’écart des acteurs mal intentionnés.

Quelques heures avant la réunion, la Maison Blanche a annoncé que la National Science Foundation prévoyait de consacrer 140 millions de dollars à de nouveaux centres de recherche consacrés à l’I.A. L’administration s’est également engagée à publier un projet de lignes directrices à l’intention des agences gouvernementales afin de garantir que leur utilisation de l’I.A. protège “les droits et la sécurité du peuple américain”, ajoutant que plusieurs entreprises d’I.A. avaient accepté de soumettre leurs produits à un examen minutieux en août, lors d’une conférence sur la cybersécurité.

Risques de l’Intelligence Artificielle

Mais l’explosion de l’I.A. a également suscité des craintes quant à la manière dont cette technologie pourrait transformer les économies, ébranler la géopolitique et favoriser les activités criminelles. Les critiques s’inquiètent du caractère trop opaque des puissants systèmes d’I.A., de leur potentiel de discrimination, d’éviction professionnelle, de désinformation et peut-être même de leur capacité à enfreindre la loi.

Plusieurs créateurs d’I.A. ont mis en garde contre les conséquences de la technologie. Cette semaine, Geoffrey Hinton, un chercheur pionnier connu comme le «parrain» de l’I.A., a démissionné de Google pour pouvoir parler ouvertement des risques posés par la technologie, remettant en cause le fruit de son travail.

Geoffrey Hinton a fait part de ses inquiétudes quant au danger que le développement incontrôlé de l’IA pourrait représenter pour l’humanité.

«J’ai soudainement changé d’avis sur la question de savoir si ces objets seront plus intelligents que nous», a-t-il déclaré dans une interview accordée à la MIT Technology Review. «Je pense qu’elles en sont très proches aujourd’hui et qu’elles seront beaucoup plus intelligentes que nous à l’avenir…. Comment allons-nous survivre à cela ?»

Mais la facilité avec laquelle elle peut imiter l’homme a poussé les gouvernements du monde entier à s’interroger sur la manière dont elle pourrait supprimer des emplois, tromper les gens et diffuser de la désinformation.

L’ancien parrain de l’IA de Google n’est pas le seul à s’inquiéter. Peu après que la startup OpenAI, soutenue par Microsoft, a publié en mars son dernier modèle d’IA appelé GPT-4, plus de 1 000 chercheurs et technologues ont signé une lettre appelant à une pause de six mois dans le développement de l’IA car, selon eux, elle présente «des risques profonds pour la société et l’humanité».

Ci-après les principales préoccupations de Geoffrey Hinton concernant l’avenir de l’IA… et de l’humanité :

1. TOUT TOURNE AUTOUR DES RÉSEAUX NEURONAUX

Nos cerveaux humains peuvent résoudre des équations de calcul, conduire des voitures et suivre les personnages de «Succession» grâce à leur talent inné pour organiser et stocker des informations et trouver des solutions à des problèmes épineux. Les quelque 86 milliards de neurones qui peuplent notre crâne – et, surtout, les 100 000 milliards de connexions que ces neurones établissent entre eux – rendent tout cela possible.

En revanche, la technologie qui sous-tend le ChatGPT comporte entre 500 milliards et mille milliards de connexions, a déclaré M. Hinton lors de l’entretien. Bien que cela semble la désavantager considérablement par rapport à nous humains.

Hinton note que GPT-4, le dernier modèle d’IA d’OpenAI, en sait «des centaines de fois plus» que n’importe quel être humain. Peut-être, suggère-t-il, dispose-t-elle d’un «algorithme d’apprentissage bien meilleur» que le nôtre, ce qui la rend plus efficace dans les tâches cognitives.

2. LES IA SONT PEUT-ÊTRE DÉJÀ PLUS INTELLIGENTES QUE NOUS

Les chercheurs ont longtemps remarqué que les réseaux neuronaux artificiels mettaient beaucoup plus de temps que les humains à assimiler et à appliquer de nouvelles connaissances, car leur formation nécessite d’énormes quantités d’énergie et de données.

«Ce n’est plus le cas», affirme Geoffrey Hinton, qui note que des systèmes comme le GPT-4 peuvent apprendre de nouvelles choses très rapidement une fois qu’ils ont été correctement formés par les chercheurs. Cela n’est pas sans rappeler la façon dont un physicien professionnel formé peut assimiler de nouveaux résultats expérimentaux beaucoup plus rapidement qu’un étudiant en sciences de l’enseignement secondaire.

Cela amène Hinton à conclure que les systèmes d’IA sont peut-être déjà plus intelligents que nous. Non seulement les systèmes d’IA peuvent apprendre des choses plus rapidement, mais ils peuvent aussi partager des copies de leurs connaissances avec d’autres presque instantanément.

«Il s’agit d’une forme d’intelligence complètement différente», a-t-il déclaré à la publication. «Une nouvelle et meilleure forme d’intelligence».

3. GUERRES ET RUMEURS DE GUERRES

Que feraient des systèmes d’IA plus intelligents que l’homme ? L’une des possibilités les plus inquiétantes est que des individus, des groupes ou des États-nations malveillants les cooptent tout simplement pour servir leurs propres intérêts. Geoffrey Hinton s’inquiète particulièrement du fait que ces outils pourraient être entraînés à influencer des élections, voire à mener des guerres.

La désinformation électorale diffusée par les chatbots d’IA, par exemple, pourrait être la version future de la désinformation électorale diffusée par Facebook et d’autres plateformes de médias sociaux.

Et ce n’est peut-être que le début. «Ne pensez pas un instant que Poutine ne fabriquerait pas des robots hyperintelligents dans le but de tuer des Ukrainiens», a déclaré Hinton dans l’article. «Il n’hésiterait pas».

4. UNE PÉNURIE DE SOLUTIONS

Ce qui n’est pas clair, c’est la manière d’empêcher une puissance comme la Russie d’utiliser la technologie de l’IA pour dominer ses voisins ou ses propres citoyens. Hinton suggère qu’un accord mondial similaire à la convention sur les armes chimiques de 1997 pourrait constituer un premier pas vers l’établissement de règles internationales contre l’utilisation de l’IA à des fins militaires.

Il convient toutefois de noter que la convention sur les armes chimiques n’a pas empêché les enquêteurs de constater que les attaques syriennes au gaz de chlore et à l’agent neurotoxique sarin contre des civils en 2017 et 2018, au cours de la guerre civile qui a ensanglanté le pays, étaient probables.

Laisser un commentaire

Your email address will not be published.

- Advertisement -