Dans quelle mesure la technologie est-elle susceptible de contribuer à l’augmentation du risque d’effondrement de nos sociétés?
Nous vous donnons accès sur cette page à des références qui évoquent des risques majeurs liés à l’utilisation de diverses technologies.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.
filtre:
focusrisquetech
2025
Dans un futur proche, les soldats américains ne seront plus seuls sur le champ de bataille. À leurs côtés, des robots capables de comprendre, de communiquer et d’agir de manière autonome pourraient bien révolutionner les opérations militaires. Grâce à l’intégration poussée de l’intelligence artificielle dans la robotique, l’armée américaine explore en effet une nouvelle ère de collaboration homme-machine. Lors de la National Robotics Week, des chercheurs du laboratoire DEVCOM ARL (Army Research Laboratory) ont présenté des avancées spectaculaires qui pourraient changer la façon dont les conflits sont menés.
Ce samedi 19 avril à Pékin, des dizaines d’androïdes ont couru le premier semi-marathon au monde à leur être dédié. Des petites foulées par rapport à l’homme, mais un grand pas pour la robotique, selon les entreprises participantes.
Imaginez un robot qui ne se contente pas d’imiter nos mouvements, mais qui reproduit notre corps jusque dans ses moindres détails. C’est exactement ce que dévoile la startup polonaise Clone Robotics dans sa nouvelle vidéo fascinante – et légèrement inquiétante – de Protoclone, un androïde musculo-squelettique à la silhouette spectrale et aux mouvements troublants de réalisme.
Ces satellites ont attiré l'attention des analystes spatiaux du monde entier en raison de leur comportement énigmatique.
Des chercheurs ont mis au point des réseaux de neurones artificiels dits « infomorphes », capables d’apprendre de manière autonome et auto-organisée à partir de leur environnement immédiat.
Dans la première vidéo, le robot G1 lance des coups de poing et un coup de pied retourné avec une aisance et une agilité inédite. Dans la seconde, la machine effectue un enchainement assez similaire mais est cette fois opposé à un humain armé d’un bâton, qu’il finit par désarmer. Plutôt surprenantes, ces images témoignent de la capacité du G1 a effectuer des mouvements complexes avec une grande flexibilité.
Après six années de recherches, Cortical Labs a donc créé le CL1, un ordinateur dépourvu des composants électroniques habituels, ici remplacés par des neurones bien vivants. Plus précisément, il est question de neurones humains cultivés en laboratoire à partir de cellules souches. Ces derniers sont ensuite installés sur un support, à savoir une plaque de verre recouverte d’électrodes métalliques plates.
La singularité technologique : qu’est-ce que c’est ? La singularité technologique est un concept fascinant, mais aussi inquiétant qui désigne un moment hypothétique où l’intelligence artificielle (IA) dépasserait l’intelligence humaine. Ce seuil marquerait un tournant radical dans l’histoire de l’humanité avec des machines capables non seulement de comprendre et d’apprendre des tâches humaines, mais aussi de s’améliorer d’elles-mêmes à un rythme exponentiel. Autrement dit, une fois l’intelligence artificielle générale (AGI) atteinte, les machines seraient en mesure de concevoir des versions encore plus puissantes d’elles-mêmes, ce qui créerait un effet boule de neige difficile à anticiper.
La Chine a franchi un nouveau cap dans le domaines de l’informatique quantique avec la présentation de son processeur quantique Zuchongzhi-3.
Les technologies digitales ont investi les champs de bataille, qu’ils soient physiques ou numériques, explique le chercheur Julien Nocetti.
Clone Robotics a récemment dévoilé Protoclone, un robot humanoïde ultra-réaliste conçu pour reproduire fidèlement la structure squelettique et musculaire humaine. Un réalisme aussi fascinant que troublant.
Le dernier rapport international sur la sécurité des systèmes d’IA développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie, et expose désaccords et tensions entre experts mondiaux.
Des deepfakes visant à influencer des élections aux chatbots relayant des fausses informations, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA). Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Pour utiliser les systèmes d’IA en toute confiance jusqu’au cœur du service public, il faudrait une véritable politique de gestion des risques.
Pour l’heure, les pires craintes de voir déferler les escroqueries et les opérations de manipulation de l’opinion par l’intelligence artificielle ne se sont pas concrétisées. Mais les exemples répertoriés illustrent les risques importants que font peser ces outils.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’intelligence artificielle, au nom des droits humains, sociaux et environnementaux.
Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
Une agence du gouvernement des États-Unis réfléchi à un moyen de modifier les globules rouges des soldats américains.
Le 28 janvier 2025, le Bulletin of the Atomic Scientists a avancé son célèbre « Doomsday Clock » à 89 secondes avant minuit, marquant ainsi le point le plus proche de la catastrophe mondiale depuis sa création en 1947. Cette horloge symbolique évalue la proximité de l’humanité d’une destruction causée par ses propres actions, notamment les menaces nucléaires, climatiques et technologiques.