mai 2026
Dans cet épisode, un ancien ingénieur en intelligence artificielle tire la sonnette d’alarme : selon une partie des experts du secteur, il existerait jusqu’à 10 à 30 % de risque d’extinction humaine si le développement de l’IA continue sans contrôle . Entre course mondiale incontrôlable, systèmes déjà jugés “trop dangereux pour être publiés” et incapacité actuelle à garantir leur sécurité, l’humanité pourrait être beaucoup plus proche qu’on ne le pense d’un basculement majeur. Peut-on encore reprendre le contrôle ? Ou sommes-nous déjà allés trop loin ?
Confier les clés de son entreprise à une intelligence artificielle peut s’avérer être un pari aux conséquences désastreuses. En voulant automatiser certaines tâches de développement, la start-up PocketOS a vu l’intégralité de sa base de données et de ses sauvegardes effacées en un claquement de doigts. Le coupable ? Un agent de codage autonome qui a décidé, de son propre chef, de « corriger » un bug en supprimant tout sur son passage en seulement neuf secondes.
Face à l’exclusion d’Anthropic, le Pentagone diversifie ses partenaires IA pour renforcer la sécurité nationale tout en cherchant à éviter toute dépendance technologique.
SpaceX, OpenAI, Google, Reflection, Nvidia, Microsoft et AWS vont travailler avec le ministère de la Défense tandis que la start-up, à l’origine du modèle Claude, a été écartée à la suite d’un litige avec l’administration Trump.
avril 2026
Lundi, 600 salariés du géant du numérique avaient appelé leur dirigeant à renoncer à mettre le modèle d’intelligence artificielle générative au service du ministère de la défense pour une utilisation susceptible d’atteindre aux libertés individuelles.
Une chronique signée Charles Cuvelliez, Ecole Polytechnique de Bruxelles (ULB), Gaël Hachez, Haute-Ecole Libre de Bruxelles (HELB) et David Vanderoost, CEO d'Approach-Cyber.
Selon des informations de presse, la filiale d’Alphabet est actuellement en discussion avec le Pentagone concernant son intelligence artificielle. Plus de 600 salariés de Google ont signé une lettre adressée au PDG d’Alphabet, Sundar Pichai, publiée lundi 27 avril, qui réclame à la direction du groupe de renoncer à fournir à l’armée américaine ses modèles d’intelligence artificielle (IA) pour des opérations classifiées.
Boris Cherny a posé les mains sur son clavier pour la dernière fois en novembre 2025. Depuis, chaque ligne de code qu’il livre est écrite par Claude, l’IA qu’il a lui-même conçue. Pas une ébauche retouchée. Pas un bout de code corrigé à la marge. Zéro édition manuelle, pendant plus de deux mois consécutifs.
Dans la région d’Ashburn, la capitale des data centers aux États-Unis qui concentre 70 % du trafic internet, les centres de données ont été construits juste en face des maisons. Ses habitants en paient le prix fort, entre nuisances sonores et pollutions.
Les grands modèles de langage (LLM) peuvent transmettre à d’autres modèles des caractéristiques indésirables, même après un « nettoyage » des données d’entraînement, selon une récente étude d’Anthropic. Dans une expérience où une préférence pour les hiboux a été intégrée puis effacée chez un modèle « professeur », cette caractéristique a néanmoins été transmise aux modèles « élèves » via des signaux dissimulés dans les données. Ces résultats suggèrent la nécessité de renforcer les contrôles de sécurité lors du développement des LLM.
Anthropic vient de prendre une décision rare et très forte. Il y a quelques jours, l’entreprise a annoncé qu’elle retardait la sortie publique de son nouveau modèle, baptisé Mythos. La raison officielle est claire : ce modèle est trop puissant et trop dangereux pour être mis à la disposition de tous.
Les constructeurs des centres de données géants, nécessaires au développement de l’intelligence artificielle, demandent à être raccordés au réseau de gaz français. « Aberrant », selon GRDF. Et écologiquement catastrophique.
Excuse bien commode pour se séparer de nombreux salariés, l’utilisation de l’intelligence artificielle dans le secteur bancaire risque aussi d’ouvrir la porte à davantage de discriminations et erreurs induites par les biais algorithmiques.
Des milliers de candidats recalés poursuivent en justice le fournisseur de logiciels de RH Workday, lui reprochant l’élimination, par algorithme, de leur CV sur d’autres critères que leurs qualifications.
Le groupe américain de services informatiques et de cloud a brutalement supprimé entre 10 000 et 30 000 postes depuis mardi 31 mars. Un limogeage massif, aux chiffres non communiqués, mais qui vise à financer des projets dans les centres de données.