XR Belgium

OA - Liste

Les champs auteur(e)s & mots-clés sont cliquables. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

filtre:
intelligence

07 mai 2026

Cet accord permettra sans délai à l’entreprise, rivale d’OpenAI, d’augmenter les quotas d’utilisation de son modèle Claude.

06 mai 2026

Palantir se lance dans l'agriculture et ça n'est pas une bonne nouvelle. L'omnipotente entreprise de l'ombre vient d'annoncer un contrat de 300 M$ avec l'USDA - le ministère de l'agriculture américain - pour : centraliser les données agricoles, "améliorer" les services et traiter la "sécurité alimentaire" comme un enjeu de sécurité nationale . Le projet repose sur l’intégration massive de données via une plateforme unique : “One Farmer, One File”.
Implantation à marche forcée de data centers avides d’énergie et d’eau, bouleversement du marché du travail, usages militaires affranchis de toute éthique, robots conversationnels se substituant aux vrais amis, chaos sur les réseaux sociaux… La réalité de l’intelligence artificielle que les grandes entreprises de la tech veulent nous imposer est à des années-lumière de la nouvelle ère d’abondance qu’elles nous vendent. Si nous avons une vague conscience du danger, il nous est souvent difficile de nous figurer l’étendue de ce qui se joue. C’est l’objet de ce livre : appréhender tous les impacts de manière systémique pour comprendre qu’ils ne sont pas des bugs indésirables dans la machine, mais la conséquence logique de la concentration du pouvoir dans les mains de quelques-uns. Il est urgent de mettre en débat la place de l'IA dans nos vies, de poser des limites à son usage et de reprendre le pouvoir sur notre quotidien. Lou Welgryn et Théo Alves Da Costa codirigent Data for Good, une association de citoyens
Les systèmes d’intelligence artificielle générative, qui parlent si bien, ne comprennent pas encore le monde. De nouvelles méthodes physiques ou statistiques comme les world models, ou « modèles de monde », permettraient de les doter d’une forme de sens commun, qui leur servirait à mieux simuler la réalité et de mieux interagir avec elle.

05 mai 2026

Pamela, senior manager dans un cabinet de conseil, relit une analyse de marché générée par une IA. Un chiffre lui paraît incohérent. Elle demande au modèle de vérifier. La réponse est immédiate : structurée, détaillée, assurée. L'analyse est confirmée, enrichie, consolidée. Pamela insiste. Elle a identifié une erreur précise. Cette fois, le modèle s'excuse, la remercie… puis produit une nouvelle analyse encore plus élaborée — qui intègre sa remarque tout en maintenant exactement la même conclusion.
Aujourd’hui, les robots ne sont pas seulement présents dans l’industrie et la logistique, ces derniers deviennent de plus en plus des éléments clés pour des tâches d’inspection et de maintenance. En Chine, une entreprise d’état vient de débloquer des fonds gigantesques pour s’équiper de milliers de robots quadrupèdes, humanoïdes et bi-bras afin de moderniser la maintenance de ses réseaux électriques.
Les salariés disent vouloir s'opposer "à l'utilisation de leurs technologies par Israël et par l'armée américaine".

03 mai 2026

Dans cet épisode, un ancien ingénieur en intelligence artificielle tire la sonnette d’alarme : selon une partie des experts du secteur, il existerait jusqu’à 10 à 30 % de risque d’extinction humaine si le développement de l’IA continue sans contrôle . Entre course mondiale incontrôlable, systèmes déjà jugés “trop dangereux pour être publiés” et incapacité actuelle à garantir leur sécurité, l’humanité pourrait être beaucoup plus proche qu’on ne le pense d’un basculement majeur. Peut-on encore reprendre le contrôle ? Ou sommes-nous déjà allés trop loin ?

01 mai 2026

Confier les clés de son entreprise à une intelligence artificielle peut s’avérer être un pari aux conséquences désastreuses. En voulant automatiser certaines tâches de développement, la start-up PocketOS a vu l’intégralité de sa base de données et de ses sauvegardes effacées en un claquement de doigts. Le coupable ? Un agent de codage autonome qui a décidé, de son propre chef, de « corriger » un bug en supprimant tout sur son passage en seulement neuf secondes.
Face à l’exclusion d’Anthropic, le Pentagone diversifie ses partenaires IA pour renforcer la sécurité nationale tout en cherchant à éviter toute dépendance technologique.
SpaceX, OpenAI, Google, Reflection, Nvidia, Microsoft et AWS vont travailler avec le ministère de la Défense tandis que la start-up, à l’origine du modèle Claude, a été écartée à la suite d’un litige avec l’administration Trump.
Le 18 avril 2026, Palantir Technologies publie sur X un manifeste en 22 points inspiré du livre de son PDG Alex Karp, The Technological Republic. Le texte marque une rupture dans le discours public de la Big Tech américaine. Il ne s’agit plus de promettre des plateformes ouvertes, de connecter le monde ou d’améliorer le confort numérique. Le manifeste revendique explicitement la technologie comme instrument de puissance géopolitique, militaire et civilisationnelle.

29 avril 2026

Lundi, 600 salariés du géant du numérique avaient appelé leur dirigeant à renoncer à mettre le modèle d’intelligence artificielle générative au service du ministère de la défense pour une utilisation susceptible d’atteindre aux libertés individuelles.
Une chronique signée Charles Cuvelliez, Ecole Polytechnique de Bruxelles (ULB), Gaël Hachez, Haute-Ecole Libre de Bruxelles (HELB) et David Vanderoost, CEO d'Approach-Cyber.

28 avril 2026

Selon des informations de presse, la filiale d’Alphabet est actuellement en discussion avec le Pentagone concernant son intelligence artificielle. Plus de 600 salariés de Google ont signé une lettre adressée au PDG d’Alphabet, Sundar Pichai, publiée lundi 27 avril, qui réclame à la direction du groupe de renoncer à fournir à l’armée américaine ses modèles d’intelligence artificielle (IA) pour des opérations classifiées.
Boris Cherny a posé les mains sur son clavier pour la dernière fois en novembre 2025. Depuis, chaque ligne de code qu’il livre est écrite par Claude, l’IA qu’il a lui-même conçue. Pas une ébauche retouchée. Pas un bout de code corrigé à la marge. Zéro édition manuelle, pendant plus de deux mois consécutifs.

18 avril 2026

Dans la région d’Ashburn, la capitale des data centers aux États-Unis qui concentre 70 % du trafic internet, les centres de données ont été construits juste en face des maisons. Ses habitants en paient le prix fort, entre nuisances sonores et pollutions.

17 avril 2026

Les grands modèles de langage (LLM) peuvent transmettre à d’autres modèles des caractéristiques indésirables, même après un « nettoyage » des données d’entraînement, selon une récente étude d’Anthropic. Dans une expérience où une préférence pour les hiboux a été intégrée puis effacée chez un modèle « professeur », cette caractéristique a néanmoins été transmise aux modèles « élèves » via des signaux dissimulés dans les données. Ces résultats suggèrent la nécessité de renforcer les contrôles de sécurité lors du développement des LLM.

14 avril 2026

Anthropic vient de prendre une décision rare et très forte. Il y a quelques jours, l’entreprise a annoncé qu’elle retardait la sortie publique de son nouveau modèle, baptisé Mythos. La raison officielle est claire : ce modèle est trop puissant et trop dangereux pour être mis à la disposition de tous.

13 avril 2026

Les constructeurs des centres de données géants, nécessaires au développement de l’intelligence artificielle, demandent à être raccordés au réseau de gaz français. « Aberrant », selon GRDF. Et écologiquement catastrophique.


propulsed by