2025
Le dernier rapport international sur la sécurité des systèmes d’IA développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie, et expose désaccords et tensions entre experts mondiaux.
Des deepfakes visant à influencer des élections aux chatbots relayant des fausses informations, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA). Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Pour utiliser les systèmes d’IA en toute confiance jusqu’au cœur du service public, il faudrait une véritable politique de gestion des risques.
Pour l’heure, les pires craintes de voir déferler les escroqueries et les opérations de manipulation de l’opinion par l’intelligence artificielle ne se sont pas concrétisées. Mais les exemples répertoriés illustrent les risques importants que font peser ces outils.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’intelligence artificielle, au nom des droits humains, sociaux et environnementaux.
Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
Une agence du gouvernement des États-Unis réfléchi à un moyen de modifier les globules rouges des soldats américains.
Le 28 janvier 2025, le Bulletin of the Atomic Scientists a avancé son célèbre « Doomsday Clock » à 89 secondes avant minuit, marquant ainsi le point le plus proche de la catastrophe mondiale depuis sa création en 1947. Cette horloge symbolique évalue la proximité de l’humanité d’une destruction causée par ses propres actions, notamment les menaces nucléaires, climatiques et technologiques.
OpenAI, en collaboration avec Retro Biosciences, vient de franchir une étape significative dans la recherche sur la longévité humaine avec le développement de GPT-4b Micro. Ce modèle d’intelligence artificielle (IA) de pointe pourrait transformer la reprogrammation cellulaire et offrir de nouvelles perspectives dans le domaine de la biologie. Bien que cette innovation suscite un grand enthousiasme, elle nécessite encore des validations scientifiques approfondies pour confirmer son potentiel réel.