Une image du Pape François générée par intelligence artificielle
Une image du Pape François générée par intelligence artificielle

Plus de 1 000 experts exigent une pause sur les expérimentations d’intelligence artificielle

Plus de 1 000 experts en intelligence artificielle, exigent, dans une lettre ouverte, une pause de six mois sur les expérimentations de ce domaine.

En voici la traduction :

Les systèmes d’IA dotés d’une intelligence compétitive avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies [1] et le reconnaissent les principaux laboratoires d’IA [2]. Comme l’indiquent les principes d’IA d’Asilomar, largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour des tâches générales [3], et nous devons nous interroger : Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration de l’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il pourrait être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. C’est maintenant qu’il faut agir.

C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement d’IA avancées, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable [4], ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui.

Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre : de nouvelles autorités réglementaires compétentes dédiées à l’IA ; la surveillance et le suivi des systèmes d’IA hautement performants et des grands ensembles de capacité de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et pour suivre les fuites de modèles ; un écosystème robuste d’audit et de certification ; la responsabilité pour les dommages causés par l’IA ; un financement public robuste pour la recherche technique sur la sécurité de l’IA ; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.

L’humanité peut jouir d’un avenir florissant grâce à l’IA. Ayant réussi à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, concevrons ces systèmes pour le plus grand bénéfice de tous et donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques [5], et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.

 

Des arguments qui semblent dignes de considération, alors que GPT-3 et GPT-4 sont exploités pour créer des vidéos, des images, des textes, difficilement distinguables d’œuvres humaines.

Ainsi, la photographie du papa en doudoune paraît plus vraie que nature.

De nombreuses illustrations générées par intelligence artificielle pillent sans vergogne la propriété intellectuelle d’artistes, en imitant leurs styles sans autorisation ni rémunération.

Alors que le potentiel de l’intelligence artificielle semble sans limite pour remplacer les cols blancs, le danger est très présent que les documents produits comportent des erreurs, voire des affabulations, comme on l’a remarqué avec les démonstrations du nouveau Bing et de Bard de Google.

On peut s’étonner qu’Elon Musk soit l’un des signataires. Il est le cofondateur d’OpenAI, alors un institut de recherche à but non lucratif auquel il promit 1 milliard de dons pour le financer.

Mais il n’a jamais tenu sa promesse. OpenAI a dû ouvrir une entreprise à but lucratif pour survivre, et a signé un partenariat commercial et d’investissement, depuis renouvelé, avec Microsoft.

Le potentiel financier de cette entreprise étant devenu énorme, Musk a alors tenté d’en prendre le contrôle, sans succès.

 

Notes et références

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (mars 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. Dans Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (juillet 2022,. Current and near-term AI as a potential existential risk factor. Dans Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2]

Ordonez, V. et al. (16 mars 2023. OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

Perrigo, B. (12 janvier 2023). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Il existe de nombreux précédents juridiques – par exemple, les principes de l’OCDE relatifs à l’IA, largement adoptés, exigent que les systèmes d’IA « fonctionnent de manière appropriée et ne posent pas de risque déraisonnable pour la sécurité ».

[5]

Le clonage humain, la modification de la lignée germinale humaine, la recherche sur le gain de fonction et l’eugénisme en sont des exemples.