mai 2026
Cet accord permettra sans délai à l’entreprise, rivale d’OpenAI, d’augmenter les quotas d’utilisation de son modèle Claude.
Le monde politique s’emballe pour l’IA, espérant y trouver la boussole idéale pour piloter la transition écologique. Récemment, la base de données Climate TRACE promettait de révolutionner la mesure des gaz à effet de serre. Pourtant, une équipe de chercheurs vient de doucher cet enthousiasme technologique. En confrontant ces algorithmes à des mesures de terrain éprouvées, les scientifiques ont découvert un gouffre abyssal dans le calcul du CO₂ automobile urbain. Un écart vertigineux qui menace de fausser toutes nos stratégies de lutte contre le réchauffement climatique.
Palantir se lance dans l'agriculture et ça n'est pas une bonne nouvelle. L'omnipotente entreprise de l'ombre vient d'annoncer un contrat de 300 M$ avec l'USDA - le ministère de l'agriculture américain - pour : centraliser les données agricoles, "améliorer" les services et traiter la "sécurité alimentaire" comme un enjeu de sécurité nationale . Le projet repose sur l’intégration massive de données via une plateforme unique : “One Farmer, One File”.
Implantation à marche forcée de data centers avides d’énergie et d’eau, bouleversement du marché du travail, usages militaires affranchis de toute éthique, robots conversationnels se substituant aux vrais amis, chaos sur les réseaux sociaux… La réalité de l’intelligence artificielle que les grandes entreprises de la tech veulent nous imposer est à des années-lumière de la nouvelle ère d’abondance qu’elles nous vendent. Si nous avons une vague conscience du danger, il nous est souvent difficile de nous figurer l’étendue de ce qui se joue. C’est l’objet de ce livre : appréhender tous les impacts de manière systémique pour comprendre qu’ils ne sont pas des bugs indésirables dans la machine, mais la conséquence logique de la concentration du pouvoir dans les mains de quelques-uns. Il est urgent de mettre en débat la place de l'IA dans nos vies, de poser des limites à son usage et de reprendre le pouvoir sur notre quotidien. Lou Welgryn et Théo Alves Da Costa codirigent Data for Good, une association de citoyens
Les systèmes d’intelligence artificielle générative, qui parlent si bien, ne comprennent pas encore le monde. De nouvelles méthodes physiques ou statistiques comme les world models, ou « modèles de monde », permettraient de les doter d’une forme de sens commun, qui leur servirait à mieux simuler la réalité et de mieux interagir avec elle.
Pamela, senior manager dans un cabinet de conseil, relit une analyse de marché générée par une IA. Un chiffre lui paraît incohérent. Elle demande au modèle de vérifier. La réponse est immédiate : structurée, détaillée, assurée. L'analyse est confirmée, enrichie, consolidée. Pamela insiste. Elle a identifié une erreur précise. Cette fois, le modèle s'excuse, la remercie… puis produit une nouvelle analyse encore plus élaborée — qui intègre sa remarque tout en maintenant exactement la même conclusion.
Aujourd’hui, les robots ne sont pas seulement présents dans l’industrie et la logistique, ces derniers deviennent de plus en plus des éléments clés pour des tâches d’inspection et de maintenance. En Chine, une entreprise d’état vient de débloquer des fonds gigantesques pour s’équiper de milliers de robots quadrupèdes, humanoïdes et bi-bras afin de moderniser la maintenance de ses réseaux électriques.
Les salariés disent vouloir s'opposer "à l'utilisation de leurs technologies par Israël et par l'armée américaine".
Dans cet épisode, un ancien ingénieur en intelligence artificielle tire la sonnette d’alarme : selon une partie des experts du secteur, il existerait jusqu’à 10 à 30 % de risque d’extinction humaine si le développement de l’IA continue sans contrôle . Entre course mondiale incontrôlable, systèmes déjà jugés “trop dangereux pour être publiés” et incapacité actuelle à garantir leur sécurité, l’humanité pourrait être beaucoup plus proche qu’on ne le pense d’un basculement majeur. Peut-on encore reprendre le contrôle ? Ou sommes-nous déjà allés trop loin ?
Confier les clés de son entreprise à une intelligence artificielle peut s’avérer être un pari aux conséquences désastreuses. En voulant automatiser certaines tâches de développement, la start-up PocketOS a vu l’intégralité de sa base de données et de ses sauvegardes effacées en un claquement de doigts. Le coupable ? Un agent de codage autonome qui a décidé, de son propre chef, de « corriger » un bug en supprimant tout sur son passage en seulement neuf secondes.
Face à l’exclusion d’Anthropic, le Pentagone diversifie ses partenaires IA pour renforcer la sécurité nationale tout en cherchant à éviter toute dépendance technologique.
SpaceX, OpenAI, Google, Reflection, Nvidia, Microsoft et AWS vont travailler avec le ministère de la Défense tandis que la start-up, à l’origine du modèle Claude, a été écartée à la suite d’un litige avec l’administration Trump.
Le 18 avril 2026, Palantir Technologies publie sur X un manifeste en 22 points inspiré du livre de son PDG Alex Karp, The Technological Republic. Le texte marque une rupture dans le discours public de la Big Tech américaine. Il ne s’agit plus de promettre des plateformes ouvertes, de connecter le monde ou d’améliorer le confort numérique. Le manifeste revendique explicitement la technologie comme instrument de puissance géopolitique, militaire et civilisationnelle.
avril 2026
Lundi, 600 salariés du géant du numérique avaient appelé leur dirigeant à renoncer à mettre le modèle d’intelligence artificielle générative au service du ministère de la défense pour une utilisation susceptible d’atteindre aux libertés individuelles.
Une chronique signée Charles Cuvelliez, Ecole Polytechnique de Bruxelles (ULB), Gaël Hachez, Haute-Ecole Libre de Bruxelles (HELB) et David Vanderoost, CEO d'Approach-Cyber.