Dans quelle mesure la technologie est-elle susceptible de contribuer à l’augmentation du risque d’effondrement de nos sociétés?
Nous vous donnons accès sur cette page à des références qui évoquent des risques majeurs liés à l’utilisation de diverses technologies.
Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.
Résultats pour:
focusrisquetech
2025
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
Une agence du gouvernement des États-Unis réfléchi à un moyen de modifier les globules rouges des soldats américains.
Le 28 janvier 2025, le Bulletin of the Atomic Scientists a avancé son célèbre « Doomsday Clock » à 89 secondes avant minuit, marquant ainsi le point le plus proche de la catastrophe mondiale depuis sa création en 1947. Cette horloge symbolique évalue la proximité de l’humanité d’une destruction causée par ses propres actions, notamment les menaces nucléaires, climatiques et technologiques.
OpenAI, en collaboration avec Retro Biosciences, vient de franchir une étape significative dans la recherche sur la longévité humaine avec le développement de GPT-4b Micro. Ce modèle d’intelligence artificielle (IA) de pointe pourrait transformer la reprogrammation cellulaire et offrir de nouvelles perspectives dans le domaine de la biologie. Bien que cette innovation suscite un grand enthousiasme, elle nécessite encore des validations scientifiques approfondies pour confirmer son potentiel réel.
« Une auto-réplication réussie sans aucune assistance humaine (...) constitue un signal précoce pour l'arrivée des IA malveillantes ». - En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine, franchissant un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts.
Une nouvelle ère technologique s’annonce avec la croissance exponentielle des ventes de robots humanoïdes. Selon un rapport récent, ces machines inspirées de la forme humaine ne se contenteront pas d’investir les usines : elles s’invitent progressivement dans nos foyers et nos établissements de soins. Voici pourquoi ce phénomène pourrait bouleverser nos modes de vie.
Récemment, une expérience du MIT et du FBI a montré qu'il est possible de contourner les contrôles pour obtenir l'ADN nécessaire à recréer des virus pandémiques (dont celui de la grippe espagnole de 1918), exposant des failles inquiétantes dans les protocoles de dépistage des séquences synthétiques.
Des robots humanoïdes et quadrupèdes chinois dévoilent des performances impressionnantes en matière de vitesse et d’agilité, franchissant un nouveau cap dans le développement de la mobilité robotique.
Une intelligence artificielle a vaincu un puissant programme d'échecs en utilisant une stratégie plutôt inattendue : l'autopiratage.
Alors que l’intelligence artificielle ne cesse de se développer et de s’insérer dans nos usages, la question de son impact sur le climat se pose de plus en plus. Le numérique va-t-il aggraver notre empreinte écologique ? Peut-il être un allié pour la réduire ? On s’interroge en compagnie de Benoît Frénay, professeur d’informatique à l’UNamur, spécialiste en intelligence artificielle et Hugues Ferreboeuf, chef de projet pour The Shift Project, l’organisation présidée par Jean-Marc Jancovici, les invités du Tournant.
L’intelligence artificielle (IA) est en perpétuelle évolution, et les récentes déclarations d’Ilya Sutskever, cofondateur d’OpenAI, marquent un tournant significatif dans cette progression. Lors de la conférence NeurIPS, il a partagé une vision audacieuse du futur de l’IA, où les limites actuelles des modèles pourraient céder la place à des systèmes plus complexes et autonomes. Voici une analyse détaillée de ces perspectives et des enjeux qu’elles soulèvent.
Les intelligences artificielles à court de carburant : une véritable impasse technologique ?
Le spécialiste Geoffrey Hinton n’exclut pas la possibilité que l'IA puisse détruire le monde dans moins de trois décennies.
Peut-on enseigner l’éthique aux armes autonomes ? Inspirée par les lois de la robotique, la DARPA lance un programme pour réguler les robots militaires.
Un serveur d’IA en Russie aurait été conçu spécifiquement pour mener une vaste campagne de désinformation ciblant l’élection présidentielle américaine de 2024.
Depuis le séisme du 1er janvier 2024, la reconstruction avance peu à Noto. Dans leur malheur, les habitants se félicitent d’avoir refusé, il y a vingt ans, un projet de centrale nucléaire. Elle aurait été tout près de l’épicentre.
Le prix Nobel de physique 2024 Geoffrey Hinton ne cache pas ses craintes face à l'avenir du développement de l'intelligence artificielle.
Alors que l’IA générative crée du contenu à partir de données textuelles, un autre type d’IA, l’IA incarnée, fait parler d’elle.
2024
IBM vise un nouveau record pour 2025, avec le développement de l'ordinateur quantique le plus puissant jamais conçu, exploitant la puissance de processeurs quantiques connectés en parallèle.
xAI, l'intelligence artificielle d'Elon Musk, vient de lever 6 milliards de dollars, malgré les risques de controverse.
Geoffrey Hinton, l'un des pionniers de l’IA, alerte sur les « risques d’extinction » liés à l’intelligence artificielle et plaide pour une réglementation stricte face aux avancées rapides du secteur.
info rapide. En cette fin du premier quart de ce 21ième siècle, une annonce pas banale attire l’attention. Elle émane d’une quarantaine de scientifiques de pointe dans leur domaine. Et porte sur le risque de voir l’humanité capable – d’ici une dizaine d’années – de créer des bactéries dites « miroirs ».
La révolution technologique s'impose sur le front de la guerre. Si l'Ukraine devient un laboratoire de l'intelligence artificielle dans les conflits modernes, la Belgique, quant à elle, accélère doucement sa transition vers l'usage de ces technologies de pointe.
Près de 40 scientifiques de renom ont cosigné un article, jeudi, dans la revue Science pour mettre en garde contre la création d’une “bactérie miroir”. Ils estiment que les “nouvelles formes de vie miroir” qui n’existent pas encore mais pourraient arriver d’ici une décennie, posent un risque important pour l’humanité. De quoi s’agit-il ?
Nous avons tous ressenti cette étrange sensation que nos smartphones semblent nous écouter. Passer devant un magasin et recevoir, le soir même, une publicité pour celui-ci sur nos applications, ou discuter d’une destination de vacances avec un ami et se retrouver inondé de publicités d’agences de voyages, cela vous rappelle quelque chose ? Ces coïncidences troublantes soulèvent des questions quant à la manière dont nos données personnelles sont utilisées par les publicitaires. Alors, pure coïncidence ou ciblage des publicitaires sans notre consentement ?
Une liste non-exhaustive des principaux dangers pour les sociétés humaines et la vie sur Terre du développement de l'intelligence artificielle.L'une de ces études montre que les activités industrielles ont massivement modifié les flux d'eau de surface dans le monde et mis en péril le cycle de l'eau essentiel à des formes de vie aussi variées que les poissons et les forêts. L'autre confirme qu'en de nombreux endroits de la planète, les aquifères et les puits d'eau souterraine sont pompés et exploités plus rapidement qu'ils ne peuvent se reconstituer.
Récemment, la Chine et les États-Unis sont parvenus à un accord très important concernant l'arme nucléaire et l'intelligence artificielle.
Donald Trump et Elon Musk prônent un antihumanisme décomplexé, géré par l'intelligence artificielle et « vidé de ses corps », explique le philosophe Éric Sadin. Une idéologie déjà à l'œuvre en France.
La Russie a toujours été prête à utiliser l'arme nucléaire. Depuis le premier jour de l'invasion de l'Ukraine jusqu'à aujourd'hui.
Dans un ouvrage fouillé, la chercheuse Marine de Guglielmo Weber et le journaliste Rémi Noyon analysent les recherches et les risques dans le domaine de la modification artificielle du climat.
« En tant que physicien, je suis très troublé par quelque chose qui n’est pas contrôlé, quelque chose que je ne comprends pas assez bien pour savoir quelles sont les limites que l’on peut imposer à cette technologie », a affirmé le chercheur.
Des microplastiques viennent d’être découverts dans des testicules. Cette pollution pourrait participer au déclin mondial de la fertilité. Explications.
« Un accident majeur, en comparaison duquel Tchernobyl et Fukushima pouvaient n’être que des jeux d’enfants, tant en termes d’ampleur que de conséquences », ce sont les mots d’Oleg Dudar, ingénieur en chef de la centrale de Zaporijia, où il y a travaillé comme responsable de la division opérationnelle avec plus de 650 personnes jusqu’en septembre 2022. C’est grâce à leurs actions courageuses que l’Ukraine et le monde ont réussi à éviter à plusieurs reprises – lors des bombardements de l’armée russe et plus tard sous son occupation – un accident radionucléaire hors norme.
2023
Les robots sont de plus en plus présents dans notre vie quotidienne, mais un incident tragique en Corée du Sud rappelle que les machines ne sont pas sans danger. Mercredi 8 novembre 2023, un employé d’une société de robotique âgé d’environ quarante ans a perdu la vie alors qu’il inspectait un robot. Cette histoire met en lumière les risques potentiels associés à la technologie.
2022
Le Forum économique mondial a récemment suggéré que les « bulles spatiales » peuvent être utilisées pour bloquer le soleil et ainsi réduire le changement climatique.
Le fait que les techniques de géo-ingénierie soient mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte notre journaliste Stéphane Foucart.
Bernard Laponche (84 ans) est un ingénieur polytechnicien, physicien de formation. Ancien ingénieur nucléaire au Commissariat à l’énergie atomique (CEA) et conseiller de la ministre de l’Environnement Dominique Voynet, il est désormais consultant international dans les domaines de l’énergie et de l’efficacité énergétique et membre des associations Global Chance et Énergie partagée. Il est depuis les années 1970 un pilier des luttes anti-nucléaires en France.
Le sujet est sur (presque) toutes les lèvres et défraie de plus en plus la chronique. Le micro plastique est partout. Mais quels sont ses effets sur l’environnement et notre santé ? Le problème devient de plus en plus sérieux…
2021
Incendie, risque sismique, étanchéité des composants... Plusieurs dangers pourraient solder le projet Iter par un échec. L’avenir de la fusion nucléaire en serait quand même protégé, tant les États et les magnats de l’industrie de la tech ou de l’énergie financent des recherches et des projets.
2020
Dans le monde entier, depuis les années 2000, des centaines de scientifiques, experts en la matière, et des médecins, confrontés à la réalité de terrain, alertent les autorités sanitaires nationales et mondiales sur les dangers à court, moyen et long terme de l’exposition aux rayonnements des technologies sans fil.