Focus Risque technologique

OA - Liste

Dans quelle mesure la technologie est-elle susceptible de contribuer à l’augmentation du risque d’effondrement de nos sociétés?
Nous vous donnons accès sur cette page à des références qui évoquent des risques majeurs liés à l’utilisation de diverses technologies.

Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

espace50x10

Résultats pour:
focusrisquetech

2025

Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
Une agence du gouvernement des États-Unis réfléchi à un moyen de modifier les globules rouges des soldats américains.
Le 28 janvier 2025, le Bulletin of the Atomic Scientists a avancé son célèbre « Doomsday Clock » à 89 secondes avant minuit, marquant ainsi le point le plus proche de la catastrophe mondiale depuis sa création en 1947. Cette horloge symbolique évalue la proximité de l’humanité d’une destruction causée par ses propres actions, notamment les menaces nucléaires, climatiques et technologiques.
OpenAI, en collaboration avec Retro Biosciences, vient de franchir une étape significative dans la recherche sur la longévité humaine avec le développement de GPT-4b Micro. Ce modèle d’intelligence artificielle (IA) de pointe pourrait transformer la reprogrammation cellulaire et offrir de nouvelles perspectives dans le domaine de la biologie. Bien que cette innovation suscite un grand enthousiasme, elle nécessite encore des validations scientifiques approfondies pour confirmer son potentiel réel.
« Une auto-réplication réussie sans aucune assistance humaine (...) constitue un signal précoce pour l'arrivée des IA malveillantes ». - En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine, franchissant un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts.
Une nouvelle ère technologique s’annonce avec la croissance exponentielle des ventes de robots humanoïdes. Selon un rapport récent, ces machines inspirées de la forme humaine ne se contenteront pas d’investir les usines : elles s’invitent progressivement dans nos foyers et nos établissements de soins. Voici pourquoi ce phénomène pourrait bouleverser nos modes de vie.
Récemment, une expérience du MIT et du FBI a montré qu'il est possible de contourner les contrôles pour obtenir l'ADN nécessaire à recréer des virus pandémiques (dont celui de la grippe espagnole de 1918), exposant des failles inquiétantes dans les protocoles de dépistage des séquences synthétiques.
Des robots humanoïdes et quadrupèdes chinois dévoilent des performances impressionnantes en matière de vitesse et d’agilité, franchissant un nouveau cap dans le développement de la mobilité robotique.
Une intelligence artificielle a vaincu un puissant programme d'échecs en utilisant une stratégie plutôt inattendue : l'autopiratage.
Alors que l’intelligence artificielle ne cesse de se développer et de s’insérer dans nos usages, la question de son impact sur le climat se pose de plus en plus. Le numérique va-t-il aggraver notre empreinte écologique ? Peut-il être un allié pour la réduire ? On s’interroge en compagnie de Benoît Frénay, professeur d’informatique à l’UNamur, spécialiste en intelligence artificielle et Hugues Ferreboeuf, chef de projet pour The Shift Project, l’organisation présidée par Jean-Marc Jancovici, les invités du Tournant.
L’intelligence artificielle (IA) est en perpétuelle évolution, et les récentes déclarations d’Ilya Sutskever, cofondateur d’OpenAI, marquent un tournant significatif dans cette progression. Lors de la conférence NeurIPS, il a partagé une vision audacieuse du futur de l’IA, où les limites actuelles des modèles pourraient céder la place à des systèmes plus complexes et autonomes. Voici une analyse détaillée de ces perspectives et des enjeux qu’elles soulèvent.
Les intelligences artificielles à court de carburant : une véritable impasse technologique ?
Le spécialiste Geoffrey Hinton n’exclut pas la possibilité que l'IA puisse détruire le monde dans moins de trois décennies.
Peut-on enseigner l’éthique aux armes autonomes ? Inspirée par les lois de la robotique, la DARPA lance un programme pour réguler les robots militaires.
Un serveur d’IA en Russie aurait été conçu spécifiquement pour mener une vaste campagne de désinformation ciblant l’élection présidentielle américaine de 2024.
Depuis le séisme du 1er janvier 2024, la reconstruction avance peu à Noto. Dans leur malheur, les habitants se félicitent d’avoir refusé, il y a vingt ans, un projet de centrale nucléaire. Elle aurait été tout près de l’épicentre.
Le prix Nobel de physique 2024 Geoffrey Hinton ne cache pas ses craintes face à l'avenir du développement de l'intelligence artificielle.
Alors que l’IA générative crée du contenu à partir de données textuelles, un autre type d’IA, l’IA incarnée, fait parler d’elle.

2024

IBM vise un nouveau record pour 2025, avec le développement de l'ordinateur quantique le plus puissant jamais conçu, exploitant la puissance de processeurs quantiques connectés en parallèle.
xAI, l'intelligence artificielle d'Elon Musk, vient de lever 6 milliards de dollars, malgré les risques de controverse.