Dans quelle mesure la technologie est-elle susceptible de contribuer à l’augmentation du risque d’effondrement de nos sociétés?
Nous vous donnons accès sur cette page à des références qui évoquent des risques majeurs liés à l’utilisation de diverses technologies.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.
filtre:
focusrisquetech intelligence artificielle
2025
L’univers des technologies de pointe est en pleine ébullition. La Chine vient d’annoncer une avancée majeure : la production de masse des premières puces électroniques non binaires hybrides au monde. Derrière ce terme mystérieux se cache une innovation capable de transformer de nombreux secteurs, de l’aviation à la fabrication, en passant par l’intelligence artificielle.
Nouveau "TALK" sur LIMIT avec Maxime Fournes. Dans ce podcast, cet expert en intelligence artificielle, nous partage son expérience et ses réflexions sur les dangers associés à l'IA, particulièrement à travers l'usage des réseaux de neurones profonds. Après une décennie de recherche en machine learning, il nous raconte son parcours et ses inquiétudes sur l'accélération des progrès technologiques depuis 2020. Il nous invite à réfléchir sur les risques liés à la création de superintelligences autonomes et sur le manque de contrôle sur ces systèmes, de plus en plus puissants et incompréhensibles. Maxime nous présente également son engagement avec l'association Pause AI, qui milite pour un moratoire international sur les IA dangereuses et explore la problématique des algorithmes de recommandation qui façonnent nos comportements et nos sociétés. La discussion se poursuit avec des questions éthiques sur l'utilisation de l'IA dans des domaines comme les jeux vidéo et les applications de rencontre, et la ques
Quand on pense aux guerres de demain, on imagine souvent des robots humanoïdes ou des avions furtifs invisibles au radar. La réalité, pourtant, est déjà là – et elle est bien plus discrète. De petits engins volants, parfois à peine plus grands qu’un modèle réduit, capables de choisir leur cible, de décider d’attaquer… et de tuer, sans qu’aucun humain n’ait à valider la frappe.
Vivrons nous un futur dans lequel les livreurs seront des robots humanoïdes ? Ceci pourrait être le cas, puisque Amazon devrait bientôt tester ce concept assez particulier en compagnie d’un géant de la robotique en Chine.
La quête pour doter les robots d’une perception et d’une intelligence proches de celles des humains est au cœur des avancées technologiques actuelles. Une équipe de chercheurs de l’Université RMIT en Australie vient de franchir une étape majeure en développant un dispositif neuromorphique capable d’imiter la façon dont le cerveau humain traite l’information visuelle en temps réel. Cette innovation promet de transformer la robotique, la vision artificielle et, plus largement, les systèmes autonomes.
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».
Gilets tactiques connectés, écouteurs Bluetooth, intelligence artificielle : l’Etat veut des « policiers et des gendarmes augmentés ». Une stratégie qui ne va pas sans interrogations sur la défense des libertés publiques.
Dans un monde où la technologie progresse à un rythme effréné, les robots humanoïdes occupent une place de plus en plus importante. De l’assistance dans les usines à la livraison de repas en passant par l’interaction avec les humains, ces machines deviennent omniprésentes. Toutefois, un incident récent en Chine a mis en lumière les risques associés à cette révolution technologique. Une vidéo choquante montrant un robot humanoïde devenant incontrôlable a déclenché un débat sur la fiabilité et la sécurité de ces machines.
« Disruption » : l’intelligence artificielle est-elle responsable des conséquences de ses conseils ?
- Jacques Folon,
Si l’on sait que les intelligences artificielles génératives proposent des réponses erronées, inventent et mentent parfois, la question se pose de savoir si elles sont responsables des contenus qu’elles proposent, et en particulier lorsqu’elles poussent un adolescent au suicide.
Une approche unique de la formation des robots - Ce centre de formation chinois se distingue par son approche novatrice, qui repose sur le partage massif de données entre différents fabricants. À l’heure actuelle, plus de 100 types de robots provenant d’une douzaine d’entreprises suivent une formation dans ce centre. Ces machines sont formées pour accomplir des tâches fondamentales, dites atomiques, telles que saisir, placer ou transporter des objets. L’idée est de créer un écosystème de données partagé où chaque appareil apprend à partir des actions répétées et des données collectées, ce qui lui permet de s’améliorer progressivement.
Dans un futur proche, les soldats américains ne seront plus seuls sur le champ de bataille. À leurs côtés, des robots capables de comprendre, de communiquer et d’agir de manière autonome pourraient bien révolutionner les opérations militaires. Grâce à l’intégration poussée de l’intelligence artificielle dans la robotique, l’armée américaine explore en effet une nouvelle ère de collaboration homme-machine. Lors de la National Robotics Week, des chercheurs du laboratoire DEVCOM ARL (Army Research Laboratory) ont présenté des avancées spectaculaires qui pourraient changer la façon dont les conflits sont menés.
La singularité technologique : qu’est-ce que c’est ? La singularité technologique est un concept fascinant, mais aussi inquiétant qui désigne un moment hypothétique où l’intelligence artificielle (IA) dépasserait l’intelligence humaine. Ce seuil marquerait un tournant radical dans l’histoire de l’humanité avec des machines capables non seulement de comprendre et d’apprendre des tâches humaines, mais aussi de s’améliorer d’elles-mêmes à un rythme exponentiel. Autrement dit, une fois l’intelligence artificielle générale (AGI) atteinte, les machines seraient en mesure de concevoir des versions encore plus puissantes d’elles-mêmes, ce qui créerait un effet boule de neige difficile à anticiper.
Larry Page. The name instantly evokes Google. He co-founded the search engine that reshaped how we explore the web. Now, whispers suggest he’s pivoting to AI manufacturing.Two publications lit the match: Tech in Asia and The Hindu. Both allege Page quietly built a team of robotics and data-savvy wizards. The result? A stealthy startup aimed at merging artificial intelligence with factory floors. The company’s identity remains hidden. Yet the words “AI manufacturing” capture attention. Manufacturing is massive, vital, and often riddled with inefficiencies. If Page wants to optimize it, the outcome could be game-changing.
[VIDÉO] Une vidéo filmée lors d’un spectacle en Chine montrerait un robot piloté par intelligence artificielle agresser des spectateurs. La séquence est présentée comme un raté de l'IA, alors que l'objet rencontre simplement un obstacle. Des experts en robotique expliquent que les robots ne peuvent pas décider par eux-mêmes d'attaquer les humains. - VÉRIF' - Un robot piloté par IA a-t-il agressé des spectateurs en Chine ? (Nouvelles technologies).
Le dernier rapport international sur la sécurité des systèmes d’IA développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie, et expose désaccords et tensions entre experts mondiaux.
Des deepfakes visant à influencer des élections aux chatbots relayant des fausses informations, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA). Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Pour utiliser les systèmes d’IA en toute confiance jusqu’au cœur du service public, il faudrait une véritable politique de gestion des risques.
Pour l’heure, les pires craintes de voir déferler les escroqueries et les opérations de manipulation de l’opinion par l’intelligence artificielle ne se sont pas concrétisées. Mais les exemples répertoriés illustrent les risques importants que font peser ces outils.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’intelligence artificielle, au nom des droits humains, sociaux et environnementaux.
Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
OpenAI, en collaboration avec Retro Biosciences, vient de franchir une étape significative dans la recherche sur la longévité humaine avec le développement de GPT-4b Micro. Ce modèle d’intelligence artificielle (IA) de pointe pourrait transformer la reprogrammation cellulaire et offrir de nouvelles perspectives dans le domaine de la biologie. Bien que cette innovation suscite un grand enthousiasme, elle nécessite encore des validations scientifiques approfondies pour confirmer son potentiel réel.
« Une auto-réplication réussie sans aucune assistance humaine (...) constitue un signal précoce pour l'arrivée des IA malveillantes ». - En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine, franchissant un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts.
Une intelligence artificielle a vaincu un puissant programme d'échecs en utilisant une stratégie plutôt inattendue : l'autopiratage.
Alors que l’intelligence artificielle ne cesse de se développer et de s’insérer dans nos usages, la question de son impact sur le climat se pose de plus en plus. Le numérique va-t-il aggraver notre empreinte écologique ? Peut-il être un allié pour la réduire ? On s’interroge en compagnie de Benoît Frénay, professeur d’informatique à l’UNamur, spécialiste en intelligence artificielle et Hugues Ferreboeuf, chef de projet pour The Shift Project, l’organisation présidée par Jean-Marc Jancovici, les invités du Tournant.
L’intelligence artificielle (IA) est en perpétuelle évolution, et les récentes déclarations d’Ilya Sutskever, cofondateur d’OpenAI, marquent un tournant significatif dans cette progression. Lors de la conférence NeurIPS, il a partagé une vision audacieuse du futur de l’IA, où les limites actuelles des modèles pourraient céder la place à des systèmes plus complexes et autonomes. Voici une analyse détaillée de ces perspectives et des enjeux qu’elles soulèvent.
Les intelligences artificielles à court de carburant : une véritable impasse technologique ?
Le spécialiste Geoffrey Hinton n’exclut pas la possibilité que l'IA puisse détruire le monde dans moins de trois décennies.
Peut-on enseigner l’éthique aux armes autonomes ? Inspirée par les lois de la robotique, la DARPA lance un programme pour réguler les robots militaires.
Un serveur d’IA en Russie aurait été conçu spécifiquement pour mener une vaste campagne de désinformation ciblant l’élection présidentielle américaine de 2024.
Le prix Nobel de physique 2024 Geoffrey Hinton ne cache pas ses craintes face à l'avenir du développement de l'intelligence artificielle.
Alors que l’IA générative crée du contenu à partir de données textuelles, un autre type d’IA, l’IA incarnée, fait parler d’elle.
2024
xAI, l'intelligence artificielle d'Elon Musk, vient de lever 6 milliards de dollars, malgré les risques de controverse.
Geoffrey Hinton, l'un des pionniers de l’IA, alerte sur les « risques d’extinction » liés à l’intelligence artificielle et plaide pour une réglementation stricte face aux avancées rapides du secteur.
La révolution technologique s'impose sur le front de la guerre. Si l'Ukraine devient un laboratoire de l'intelligence artificielle dans les conflits modernes, la Belgique, quant à elle, accélère doucement sa transition vers l'usage de ces technologies de pointe.
Nous avons tous ressenti cette étrange sensation que nos smartphones semblent nous écouter. Passer devant un magasin et recevoir, le soir même, une publicité pour celui-ci sur nos applications, ou discuter d’une destination de vacances avec un ami et se retrouver inondé de publicités d’agences de voyages, cela vous rappelle quelque chose ? Ces coïncidences troublantes soulèvent des questions quant à la manière dont nos données personnelles sont utilisées par les publicitaires. Alors, pure coïncidence ou ciblage des publicitaires sans notre consentement ?
Une liste non-exhaustive des principaux dangers pour les sociétés humaines et la vie sur Terre du développement de l'intelligence artificielle.L'une de ces études montre que les activités industrielles ont massivement modifié les flux d'eau de surface dans le monde et mis en péril le cycle de l'eau essentiel à des formes de vie aussi variées que les poissons et les forêts. L'autre confirme qu'en de nombreux endroits de la planète, les aquifères et les puits d'eau souterraine sont pompés et exploités plus rapidement qu'ils ne peuvent se reconstituer.
Récemment, la Chine et les États-Unis sont parvenus à un accord très important concernant l'arme nucléaire et l'intelligence artificielle.
Donald Trump et Elon Musk prônent un antihumanisme décomplexé, géré par l'intelligence artificielle et « vidé de ses corps », explique le philosophe Éric Sadin. Une idéologie déjà à l'œuvre en France.
« En tant que physicien, je suis très troublé par quelque chose qui n’est pas contrôlé, quelque chose que je ne comprends pas assez bien pour savoir quelles sont les limites que l’on peut imposer à cette technologie », a affirmé le chercheur.