Articles

OA - Liste

Recherche : Articles Audio – podcast Fiches Livres Sites Vidéos retour Veille

Uniquement les Articles

Pour voir les références d’un(e) auteur(e), cliquez sur son nom. Pour revenir à la page, utilisez le bouton refresh ci-dessous.

Cela fonctionne également avec les mot-clés de chaque référence.

filtre:
focusrisquetech

avril 2025

Imaginez un robot qui ne se contente pas d’imiter nos mouvements, mais qui reproduit notre corps jusque dans ses moindres détails. C’est exactement ce que dévoile la startup polonaise Clone Robotics dans sa nouvelle vidéo fascinante – et légèrement inquiétante – de Protoclone, un androïde musculo-squelettique à la silhouette spectrale et aux mouvements troublants de réalisme.
Ces satellites ont attiré l'attention des analystes spatiaux du monde entier en raison de leur comportement énigmatique.

mars 2025

Des chercheurs ont mis au point des réseaux de neurones artificiels dits « infomorphes », capables d’apprendre de manière autonome et auto-organisée à partir de leur environnement immédiat.
Dans la première vidéo, le robot G1 lance des coups de poing et un coup de pied retourné avec une aisance et une agilité inédite. Dans la seconde, la machine effectue un enchainement assez similaire mais est cette fois opposé à un humain armé d’un bâton, qu’il finit par désarmer. Plutôt surprenantes, ces images témoignent de la capacité du G1 a effectuer des mouvements complexes avec une grande flexibilité.
Après six années de recherches, Cortical Labs a donc créé le CL1, un ordinateur dépourvu des composants électroniques habituels, ici remplacés par des neurones bien vivants. Plus précisément, il est question de neurones humains cultivés en laboratoire à partir de cellules souches. Ces derniers sont ensuite installés sur un support, à savoir une plaque de verre recouverte d’électrodes métalliques plates.
La singularité technologique : qu’est-ce que c’est ? La singularité technologique est un concept fascinant, mais aussi inquiétant qui désigne un moment hypothétique où l’intelligence artificielle (IA) dépasserait l’intelligence humaine. Ce seuil marquerait un tournant radical dans l’histoire de l’humanité avec des machines capables non seulement de comprendre et d’apprendre des tâches humaines, mais aussi de s’améliorer d’elles-mêmes à un rythme exponentiel. Autrement dit, une fois l’intelligence artificielle générale (AGI) atteinte, les machines seraient en mesure de concevoir des versions encore plus puissantes d’elles-mêmes, ce qui créerait un effet boule de neige difficile à anticiper.
La Chine a franchi un nouveau cap dans le domaines de l’informatique quantique avec la présentation de son processeur quantique Zuchongzhi-3.
Les technologies digitales ont investi les champs de bataille, qu’ils soient physiques ou numériques, explique le chercheur Julien Nocetti.

février 2025

Clone Robotics a récemment dévoilé Protoclone, un robot humanoïde ultra-réaliste conçu pour reproduire fidèlement la structure squelettique et musculaire humaine. Un réalisme aussi fascinant que troublant.
Le dernier rapport international sur la sécurité des systèmes d’IA développe les « utilisations malveillantes », les « dysfonctionnements » et les « risques systémiques » liés au développement de la technologie, et expose désaccords et tensions entre experts mondiaux.
Des deepfakes visant à influencer des élections aux chatbots relayant des fausses informations, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA). Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Pour utiliser les systèmes d’IA en toute confiance jusqu’au cœur du service public, il faudrait une véritable politique de gestion des risques.
Pour l’heure, les pires craintes de voir déferler les escroqueries et les opérations de manipulation de l’opinion par l’intelligence artificielle ne se sont pas concrétisées. Mais les exemples répertoriés illustrent les risques importants que font peser ces outils.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’intelligence artificielle, au nom des droits humains, sociaux et environnementaux.
Dans la foulée du retour de Donald Trump à la Maison Blanche, l’entreprise a supprimé de ses principes éthiques des promesses faites en 2018, qui prohibaient l’usage de ses technologies d’intelligence artificielle à des fins militaires ou de surveillance.
Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.

janvier 2025

Une agence du gouvernement des États-Unis réfléchi à un moyen de modifier les globules rouges des soldats américains.
Le 28 janvier 2025, le Bulletin of the Atomic Scientists a avancé son célèbre « Doomsday Clock » à 89 secondes avant minuit, marquant ainsi le point le plus proche de la catastrophe mondiale depuis sa création en 1947. Cette horloge symbolique évalue la proximité de l’humanité d’une destruction causée par ses propres actions, notamment les menaces nucléaires, climatiques et technologiques.
OpenAI, en collaboration avec Retro Biosciences, vient de franchir une étape significative dans la recherche sur la longévité humaine avec le développement de GPT-4b Micro. Ce modèle d’intelligence artificielle (IA) de pointe pourrait transformer la reprogrammation cellulaire et offrir de nouvelles perspectives dans le domaine de la biologie. Bien que cette innovation suscite un grand enthousiasme, elle nécessite encore des validations scientifiques approfondies pour confirmer son potentiel réel.
« Une auto-réplication réussie sans aucune assistance humaine (...) constitue un signal précoce pour l'arrivée des IA malveillantes ». - En effectuant une expérience sur deux grands modèles de langage populaires, des chercheurs ont montré qu’ils pouvaient s’auto-répliquer sans aucune intervention humaine, franchissant un seuil critique où l’IA pourrait devenir plus difficile à contrôler, alertent les experts.
Une nouvelle ère technologique s’annonce avec la croissance exponentielle des ventes de robots humanoïdes. Selon un rapport récent, ces machines inspirées de la forme humaine ne se contenteront pas d’investir les usines : elles s’invitent progressivement dans nos foyers et nos établissements de soins. Voici pourquoi ce phénomène pourrait bouleverser nos modes de vie.
Récemment, une expérience du MIT et du FBI a montré qu'il est possible de contourner les contrôles pour obtenir l'ADN nécessaire à recréer des virus pandémiques (dont celui de la grippe espagnole de 1918), exposant des failles inquiétantes dans les protocoles de dépistage des séquences synthétiques.
Des robots humanoïdes et quadrupèdes chinois dévoilent des performances impressionnantes en matière de vitesse et d’agilité, franchissant un nouveau cap dans le développement de la mobilité robotique.
Une intelligence artificielle a vaincu un puissant programme d'échecs en utilisant une stratégie plutôt inattendue : l'autopiratage.
Alors que l’intelligence artificielle ne cesse de se développer et de s’insérer dans nos usages, la question de son impact sur le climat se pose de plus en plus. Le numérique va-t-il aggraver notre empreinte écologique ? Peut-il être un allié pour la réduire ? On s’interroge en compagnie de Benoît Frénay, professeur d’informatique à l’UNamur, spécialiste en intelligence artificielle et Hugues Ferreboeuf, chef de projet pour The Shift Project, l’organisation présidée par Jean-Marc Jancovici, les invités du Tournant.
L’intelligence artificielle (IA) est en perpétuelle évolution, et les récentes déclarations d’Ilya Sutskever, cofondateur d’OpenAI, marquent un tournant significatif dans cette progression. Lors de la conférence NeurIPS, il a partagé une vision audacieuse du futur de l’IA, où les limites actuelles des modèles pourraient céder la place à des systèmes plus complexes et autonomes. Voici une analyse détaillée de ces perspectives et des enjeux qu’elles soulèvent.
Les intelligences artificielles à court de carburant : une véritable impasse technologique ?
Le spécialiste Geoffrey Hinton n’exclut pas la possibilité que l'IA puisse détruire le monde dans moins de trois décennies.
Peut-on enseigner l’éthique aux armes autonomes ? Inspirée par les lois de la robotique, la DARPA lance un programme pour réguler les robots militaires.
Un serveur d’IA en Russie aurait été conçu spécifiquement pour mener une vaste campagne de désinformation ciblant l’élection présidentielle américaine de 2024.
Depuis le séisme du 1er janvier 2024, la reconstruction avance peu à Noto. Dans leur malheur, les habitants se félicitent d’avoir refusé, il y a vingt ans, un projet de centrale nucléaire. Elle aurait été tout près de l’épicentre.
Le prix Nobel de physique 2024 Geoffrey Hinton ne cache pas ses craintes face à l'avenir du développement de l'intelligence artificielle.
Alors que l’IA générative crée du contenu à partir de données textuelles, un autre type d’IA, l’IA incarnée, fait parler d’elle.

décembre 2024

IBM vise un nouveau record pour 2025, avec le développement de l'ordinateur quantique le plus puissant jamais conçu, exploitant la puissance de processeurs quantiques connectés en parallèle.
xAI, l'intelligence artificielle d'Elon Musk, vient de lever 6 milliards de dollars, malgré les risques de controverse.
Geoffrey Hinton, l'un des pionniers de l’IA, alerte sur les « risques d’extinction » liés à l’intelligence artificielle et plaide pour une réglementation stricte face aux avancées rapides du secteur.
info rapide. En cette fin du premier quart de ce 21ième siècle, une annonce pas banale attire l’attention. Elle émane d’une quarantaine de scientifiques de pointe dans leur domaine. Et porte sur le risque de voir l’humanité capable – d’ici une dizaine d’années – de créer des bactéries dites « miroirs ».
La révolution technologique s'impose sur le front de la guerre. Si l'Ukraine devient un laboratoire de l'intelligence artificielle dans les conflits modernes, la Belgique, quant à elle, accélère doucement sa transition vers l'usage de ces technologies de pointe.
Près de 40 scientifiques de renom ont cosigné un article, jeudi, dans la revue Science pour mettre en garde contre la création d’une “bactérie miroir”. Ils estiment que les “nouvelles formes de vie miroir” qui n’existent pas encore mais pourraient arriver d’ici une décennie, posent un risque important pour l’humanité. De quoi s’agit-il ?
Nous avons tous ressenti cette étrange sensation que nos smartphones semblent nous écouter. Passer devant un magasin et recevoir, le soir même, une publicité pour celui-ci sur nos applications, ou discuter d’une destination de vacances avec un ami et se retrouver inondé de publicités d’agences de voyages, cela vous rappelle quelque chose ? Ces coïncidences troublantes soulèvent des questions quant à la manière dont nos données personnelles sont utilisées par les publicitaires. Alors, pure coïncidence ou ciblage des publicitaires sans notre consentement ?
Une liste non-exhaustive des principaux dangers pour les sociétés humaines et la vie sur Terre du développement de l'intelligence artificielle.L'une de ces études montre que les activités industrielles ont massivement modifié les flux d'eau de surface dans le monde et mis en péril le cycle de l'eau essentiel à des formes de vie aussi variées que les poissons et les forêts. L'autre confirme qu'en de nombreux endroits de la planète, les aquifères et les puits d'eau souterraine sont pompés et exploités plus rapidement qu'ils ne peuvent se reconstituer.

novembre 2024

Récemment, la Chine et les États-Unis sont parvenus à un accord très important concernant l'arme nucléaire et l'intelligence artificielle.
Donald Trump et Elon Musk prônent un antihumanisme décomplexé, géré par l'intelligence artificielle et « vidé de ses corps », explique le philosophe Éric Sadin. Une idéologie déjà à l'œuvre en France.
La Russie a toujours été prête à utiliser l'arme nucléaire. Depuis le premier jour de l'invasion de l'Ukraine jusqu'à aujourd'hui.
Dans un ouvrage fouillé, la chercheuse Marine de Guglielmo Weber et le journaliste Rémi Noyon analysent les recherches et les risques dans le domaine de la modification artificielle du climat.

octobre 2024

« En tant que physicien, je suis très troublé par quelque chose qui n’est pas contrôlé, quelque chose que je ne comprends pas assez bien pour savoir quelles sont les limites que l’on peut imposer à cette technologie », a affirmé le chercheur.

mai 2024

Des microplastiques viennent d’être découverts dans des testicules. Cette pollution pourrait participer au déclin mondial de la fertilité. Explications.

février 2024

« Un accident majeur, en comparaison duquel Tchernobyl et Fukushima pouvaient n’être que des jeux d’enfants, tant en termes d’ampleur que de conséquences », ce sont les mots d’Oleg Dudar, ingénieur en chef de la centrale de Zaporijia, où il y a travaillé comme responsable de la division opérationnelle avec plus de 650 personnes jusqu’en septembre 2022. C’est grâce à leurs actions courageuses que l’Ukraine et le monde ont réussi à éviter à plusieurs reprises – lors des bombardements de l’armée russe et plus tard sous son occupation – un accident radionucléaire hors norme.

novembre 2023

Les robots sont de plus en plus présents dans notre vie quotidienne, mais un incident tragique en Corée du Sud rappelle que les machines ne sont pas sans danger. Mercredi 8 novembre 2023, un employé d’une société de robotique âgé d’environ quarante ans a perdu la vie alors qu’il inspectait un robot. Cette histoire met en lumière les risques potentiels associés à la technologie.

juillet 2022

Le Forum économique mondial a récemment suggéré que les « bulles spatiales » peuvent être utilisées pour bloquer le soleil et ainsi réduire le changement climatique.

mai 2022

Le fait que les techniques de géo-ingénierie soient mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte notre journaliste Stéphane Foucart.
Bernard Laponche (84 ans) est un ingénieur polytechnicien, physicien de formation. Ancien ingénieur nucléaire au Commissariat à l’énergie atomique (CEA) et conseiller de la ministre de l’Environnement Dominique Voynet, il est désormais consultant international dans les domaines de l’énergie et de l’efficacité énergétique et membre des associations Global Chance et Énergie partagée. Il est depuis les années 1970 un pilier des luttes anti-nucléaires en France.
Le sujet est sur (presque) toutes les lèvres et défraie de plus en plus la chronique. Le micro plastique est partout. Mais quels sont ses effets sur l’environnement et notre santé ? Le problème devient de plus en plus sérieux…

juin 2021

Incendie, risque sismique, étanchéité des composants... Plusieurs dangers pourraient solder le projet Iter par un échec. L’avenir de la fusion nucléaire en serait quand même protégé, tant les États et les magnats de l’industrie de la tech ou de l’énergie financent des recherches et des projets.

mai 2020

Dans le monde entier, depuis les années 2000, des centaines de scientifiques, experts en la matière, et des médecins, confrontés à la réalité de terrain, alertent les autorités sanitaires nationales et mondiales sur les dangers à court, moyen et long terme de l’exposition aux rayonnements des technologies sans fil.