Focus Risque technologique

OA - Liste

Dans quelle mesure la technologie est-elle susceptible de contribuer à l’augmentation du risque d’effondrement de nos sociétés?
Nous vous donnons accès sur cette page à des références qui évoquent des risques majeurs liés à l’utilisation de diverses technologies.

Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

espace50x10

filtre:
focusrisquetech intelligence artificielle

2025

L’univers des technologies de pointe est en pleine ébullition. La Chine vient d’annoncer une avancée majeure : la production de masse des premières puces électroniques non binaires hybrides au monde. Derrière ce terme mystérieux se cache une innovation capable de transformer de nombreux secteurs, de l’aviation à la fabrication, en passant par l’intelligence artificielle.
Nouveau "TALK" sur LIMIT avec Maxime Fournes. Dans ce podcast, cet expert en intelligence artificielle, nous partage son expérience et ses réflexions sur les dangers associés à l'IA, particulièrement à travers l'usage des réseaux de neurones profonds. Après une décennie de recherche en machine learning, il nous raconte son parcours et ses inquiétudes sur l'accélération des progrès technologiques depuis 2020. Il nous invite à réfléchir sur les risques liés à la création de superintelligences autonomes et sur le manque de contrôle sur ces systèmes, de plus en plus puissants et incompréhensibles. Maxime nous présente également son engagement avec l'association Pause AI, qui milite pour un moratoire international sur les IA dangereuses et explore la problématique des algorithmes de recommandation qui façonnent nos comportements et nos sociétés. La discussion se poursuit avec des questions éthiques sur l'utilisation de l'IA dans des domaines comme les jeux vidéo et les applications de rencontre, et la ques
Quand on pense aux guerres de demain, on imagine souvent des robots humanoïdes ou des avions furtifs invisibles au radar. La réalité, pourtant, est déjà là – et elle est bien plus discrète. De petits engins volants, parfois à peine plus grands qu’un modèle réduit, capables de choisir leur cible, de décider d’attaquer… et de tuer, sans qu’aucun humain n’ait à valider la frappe.
Vivrons nous un futur dans lequel les livreurs seront des robots humanoïdes ? Ceci pourrait être le cas, puisque Amazon devrait bientôt tester ce concept assez particulier en compagnie d’un géant de la robotique en Chine.
La quête pour doter les robots d’une perception et d’une intelligence proches de celles des humains est au cœur des avancées technologiques actuelles. Une équipe de chercheurs de l’Université RMIT en Australie vient de franchir une étape majeure en développant un dispositif neuromorphique capable d’imiter la façon dont le cerveau humain traite l’information visuelle en temps réel. Cette innovation promet de transformer la robotique, la vision artificielle et, plus largement, les systèmes autonomes.
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».
Gilets tactiques connectés, écouteurs Bluetooth, intelligence artificielle : l’Etat veut des « policiers et des gendarmes augmentés ». Une stratégie qui ne va pas sans interrogations sur la défense des libertés publiques.
Dans un monde où la technologie progresse à un rythme effréné, les robots humanoïdes occupent une place de plus en plus importante. De l’assistance dans les usines à la livraison de repas en passant par l’interaction avec les humains, ces machines deviennent omniprésentes. Toutefois, un incident récent en Chine a mis en lumière les risques associés à cette révolution technologique. Une vidéo choquante montrant un robot humanoïde devenant incontrôlable a déclenché un débat sur la fiabilité et la sécurité de ces machines.
Si l’on sait que les intelligences artificielles génératives proposent des réponses erronées, inventent et mentent parfois, la question se pose de savoir si elles sont responsables des contenus qu’elles proposent, et en particulier lorsqu’elles poussent un adolescent au suicide.
Une approche unique de la formation des robots - Ce centre de formation chinois se distingue par son approche novatrice, qui repose sur le partage massif de données entre différents fabricants. À l’heure actuelle, plus de 100 types de robots provenant d’une douzaine d’entreprises suivent une formation dans ce centre. Ces machines sont formées pour accomplir des tâches fondamentales, dites atomiques, telles que saisir, placer ou transporter des objets. L’idée est de créer un écosystème de données partagé où chaque appareil apprend à partir des actions répétées et des données collectées, ce qui lui permet de s’améliorer progressivement.
Dans un futur proche, les soldats américains ne seront plus seuls sur le champ de bataille. À leurs côtés, des robots capables de comprendre, de communiquer et d’agir de manière autonome pourraient bien révolutionner les opérations militaires. Grâce à l’intégration poussée de l’intelligence artificielle dans la robotique, l’armée américaine explore en effet une nouvelle ère de collaboration homme-machine. Lors de la National Robotics Week, des chercheurs du laboratoire DEVCOM ARL (Army Research Laboratory) ont présenté des avancées spectaculaires qui pourraient changer la façon dont les conflits sont menés.
La singularité technologique : qu’est-ce que c’est ? La singularité technologique est un concept fascinant, mais aussi inquiétant qui désigne un moment hypothétique où l’intelligence artificielle (IA) dépasserait l’intelligence humaine. Ce seuil marquerait un tournant radical dans l’histoire de l’humanité avec des machines capables non seulement de comprendre et d’apprendre des tâches humaines, mais aussi de s’améliorer d’elles-mêmes à un rythme exponentiel. Autrement dit, une fois l’intelligence artificielle générale (AGI) atteinte, les machines seraient en mesure de concevoir des versions encore plus puissantes d’elles-mêmes, ce qui créerait un effet boule de neige difficile à anticiper.
Larry Page. The name instantly evokes Google. He co-founded the search engine that reshaped how we explore the web. Now, whispers suggest he’s pivoting to AI manufacturing.Two publications lit the match: Tech in Asia and The Hindu. Both allege Page quietly built a team of robotics and data-savvy wizards. The result? A stealthy startup aimed at merging artificial intelligence with factory floors. The company’s identity remains hidden. Yet the words “AI manufacturing” capture attention. Manufacturing is massive, vital, and often riddled with inefficiencies. If Page wants to optimize it, the outcome could be game-changing.
[VIDÉO] Une vidéo filmée lors d’un spectacle en Chine montrerait un robot piloté par intelligence artificielle agresser des spectateurs. La séquence est présentée comme un raté de l'IA, alors que l'objet rencontre simplement un obstacle. Des experts en robotique expliquent que les robots ne peuvent pas décider par eux-mêmes d'attaquer les humains. - VÉRIF' - Un robot piloté par IA a-t-il agressé des spectateurs en Chine ? (Nouvelles technologies).
Le dernier rapport international sur la sécurité des systèmes d’IA développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie, et expose désaccords et tensions entre experts mondiaux.
Des deepfakes visant à influencer des élections aux chatbots relayant des fausses informations, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA). Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Pour utiliser les systèmes d’IA en toute confiance jusqu’au cœur du service public, il faudrait une véritable politique de gestion des risques.
Pour l’heure, les pires craintes de voir déferler les escroqueries et les opérations de manipulation de l’opinion par l’intelligence artificielle ne se sont pas concrétisées. Mais les exemples répertoriés illustrent les risques importants que font peser ces outils.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’intelligence artificielle, au nom des droits humains, sociaux et environnementaux.
Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.