L’intelligence artificielle franchit un seuil. Plus seulement des assistants ou des générateurs d’image, mais des systèmes susceptibles de dépasser l’humain dans presque tous les domaines de la cognition. Face à cette perspective, l’organisation Future of Life Institute (FLI) a publié le 22 octobre 2025 un appel international intitulé Statement on Superintelligence. Cet appel demande l’arrêt de tout développement de ce qu’elle appelle une “superintelligence” jusqu’à ce que deux conditions soient réunies :
- Un consensus scientifique large démontrant que ces systèmes peuvent être construits de façon sûre et contrôlable.
- Un soutien public significatif pour la mise en œuvre de ces technologies.
Un appel massif et atypique
Ce qui frappe d’abord, c’est la portée de cette lettre :
- Plus de 700 signataires au moment de parution, puis élargi à plus de 800 ou 1 000, parmi lesquels :
- Des chercheurs clés comme Geoffrey Hinton et Yoshua Bengio.
- Des personnalités publiques : Prince Harry et Meghan Markle ont signé l’appel.
- Une coalition peu conventionnelle mêlant experts techniques, célébrités, militants et figures politiques.
Cet appel dépasse le cadre habituel de la recherche autonome : il vise une régulation systémique et mondiale.
Pourquoi maintenant ? Les enjeux concrets
L’inquiétude provient de plusieurs angles :
- Le FLI affirme que des systèmes pourraient approcher ou atteindre une intelligence générale supérieure à l’humain (“superintelligence”) et que la course entre entreprises (OpenAI, Meta Platforms, etc.) accroît les risques d’erreur ou de déploiement précipité.
- Un sondage publié par le FLI montre que 64 % des Américains pensent que le développement d’IA superintelligente ne devrait pas avoir lieu tant qu’il n’est pas démontré qu’il soit sûr.
- Les risques évoqués comprennent : automatisation massive, perte d’emploi, perte de contrôle humain, surveillance accrue, voire menace existentielle pour l’humanité.
Ce que demande l’appel
L’appel formule des exigences précises :
- « Nous demandons une interdiction du développement de systèmes de superintelligence, jusqu’à ce que… ».
- Il ne vise pas l’ensemble des IA, mais spécifiquement celles susceptibles d’« outperformer les humains dans la quasi‑totalité des tâches cognitives ».
- Le document insiste sur le fait que cette interdiction ne serait levée qu’après l’instauration d’un cadre gouvernance robuste, d’une participation démocratique et d’un audit indépendant.
Où en est la réglementation aujourd’hui ?
- À ce jour, aucun pays n’a formellement adopté une « loi stop IA superintelligente ». Toutefois, des initiatives commencent à émerger.
- La France et l’Union Européenne travaillent sur l’Artificial Intelligence Act, mais celle‑ci reste centrée sur la gestion des risques pour les systèmes déjà existants, et non sur une interdiction de recherche future.
- Les efforts se multiplient pour créer des normes internationales d’alignement (IA safety) et des recommandations réglementaires.
Quels sont les arguments contre ce moratoire ?
Les opposants estiment que :
- Une interdiction ou un gel pourrait freiner l’innovation, la compétitivité et les avancées bénéfiques (santé, climat, productivité).
- Il n’existe pas de définition claire d’un système « superintelligent » — comment surveiller, réguler ou sanctionner ce qui n’est pas bien défini ?
- Une régulation stricte pourrait pousser la recherche à se déplacer dans des zones moins contrôlées.
Quel avenir pour le travail humain ?
Le débat touche aussi à l’emploi : si l’IA devient capable de surpasser l’humain, que reste‑t‑il de la capacité humaine à travailler, à créer, à décider ? Le contexte d’automatisation y est directement lié. Le moratoire ne vise pas seulement la peur d’une intelligence abstraite, mais la préservation de la place humaine dans un monde transformé par la technologie.
Conclusion : entre précaution et progrès
Cet appel du FLI marque un tournant dans le débat public sur l’intelligence artificielle. Il ne s’agit plus seulement de “donner des règles à l’IA”, mais de poser la question : avons‑nous besoin d’IA qui dépasse l’humain ?
Et plus fondamentalement : quel type d’avenir souhaitons‑nous ?
La réponse n’est pas évidente. Mais ce qui est clair, c’est que l’IA ne peut plus être traitée comme une simple innovation technologique sans conséquences sociales majeures.