Jean-Pascal Van Ypersele

OA - Liste

filtre:
intelligence IA

2026

Confier les clés de son entreprise à une intelligence artificielle peut s’avérer être un pari aux conséquences désastreuses. En voulant automatiser certaines tâches de développement, la start-up PocketOS a vu l’intégralité de sa base de données et de ses sauvegardes effacées en un claquement de doigts. Le coupable ? Un agent de codage autonome qui a décidé, de son propre chef, de « corriger » un bug en supprimant tout sur son passage en seulement neuf secondes.
Face à l’exclusion d’Anthropic, le Pentagone diversifie ses partenaires IA pour renforcer la sécurité nationale tout en cherchant à éviter toute dépendance technologique.
SpaceX, OpenAI, Google, Reflection, Nvidia, Microsoft et AWS vont travailler avec le ministère de la Défense tandis que la start-up, à l’origine du modèle Claude, a été écartée à la suite d’un litige avec l’administration Trump.
Lundi, 600 salariés du géant du numérique avaient appelé leur dirigeant à renoncer à mettre le modèle d’intelligence artificielle générative au service du ministère de la défense pour une utilisation susceptible d’atteindre aux libertés individuelles.
Une chronique signée Charles Cuvelliez, Ecole Polytechnique de Bruxelles (ULB), Gaël Hachez, Haute-Ecole Libre de Bruxelles (HELB) et David Vanderoost, CEO d'Approach-Cyber.
Selon des informations de presse, la filiale d’Alphabet est actuellement en discussion avec le Pentagone concernant son intelligence artificielle. Plus de 600 salariés de Google ont signé une lettre adressée au PDG d’Alphabet, Sundar Pichai, publiée lundi 27 avril, qui réclame à la direction du groupe de renoncer à fournir à l’armée américaine ses modèles d’intelligence artificielle (IA) pour des opérations classifiées.
Boris Cherny a posé les mains sur son clavier pour la dernière fois en novembre 2025. Depuis, chaque ligne de code qu’il livre est écrite par Claude, l’IA qu’il a lui-même conçue. Pas une ébauche retouchée. Pas un bout de code corrigé à la marge. Zéro édition manuelle, pendant plus de deux mois consécutifs.
Dans la région d’Ashburn, la capitale des data centers aux États-Unis qui concentre 70 % du trafic internet, les centres de données ont été construits juste en face des maisons. Ses habitants en paient le prix fort, entre nuisances sonores et pollutions.
Les grands modèles de langage (LLM) peuvent transmettre à d’autres modèles des caractéristiques indésirables, même après un « nettoyage » des données d’entraînement, selon une récente étude d’Anthropic. Dans une expérience où une préférence pour les hiboux a été intégrée puis effacée chez un modèle « professeur », cette caractéristique a néanmoins été transmise aux modèles « élèves » via des signaux dissimulés dans les données. Ces résultats suggèrent la nécessité de renforcer les contrôles de sécurité lors du développement des LLM.
Anthropic vient de prendre une décision rare et très forte. Il y a quelques jours, l’entreprise a annoncé qu’elle retardait la sortie publique de son nouveau modèle, baptisé Mythos. La raison officielle est claire : ce modèle est trop puissant et trop dangereux pour être mis à la disposition de tous.