2025
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
« Une auto-réplication réussie sans aucune assistance humaine (...) constitue un signal précoce pour l'arrivée des IA malveillantes ». - En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine, franchissant un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts.