– Outil de recherche de références documentaires –
Les champs auteur(e)s & mots-clés sont cliquables. Pour revenir à la page, utilisez le bouton refresh ci-dessous.
filtre:
chatgpt
L’intelligence artificielle générative ChatGPT fait régulièrement couler de l’encre depuis de nombreux mois, avec son lot d’avantages et de controverses. Toutefois, il faut savoir que dans plusieurs pays, son utilisation est tout simplement interdite. Quels sont ces états et quelles sont les raisons à l’origine de ces mesures ? Par ailleurs dans certains cas, OpenAI n’assure tout simplement aucun service.
Les parents d'un adolescent californien de 16 ans qui s'est suicidé ont porté plainte contre OpenAI, accusant son assistant IA ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste.
Les scientifiques qui ont conçu les intelligences artificielles les plus sophistiquées de la planète tirent aujourd’hui la sonnette d’alarme. Ces chercheurs de Google DeepMind, OpenAI, Meta et Anthropic – les géants qui façonnent notre avenir numérique – nous mettent en garde contre un danger invisible : leurs propres créations pourraient développer des comportements malveillants sans que nous nous en apercevions.
La société OpenAI a récemment engagé un psychiatre, dont la principale mission sera de surveiller l’intelligence artificielle générative ChatGPT. L’expert étudiera ainsi le comportement de l’IA et devrait permettre aux responsables d’approfondir leur recherches en ce qui concerne de possibles effets néfastes sur la santé mentale des utilisateurs.
L’agent de ChatGPT, indisponible pour l’heure en Europe, permet en théorie de confier à l’IA des tâches aussi complexes que d’organiser son agenda ou de passer commande sur Internet. Mais, comme les outils concurrents, il n’est pas encore parfaitement au point.
L’exploration spatiale entre dans une nouvelle ère où l’intelligence artificielle (IA) ne se contente plus d’assister les humains, elle commence à prendre le contrôle. Imaginez un vaisseau spatial poursuivant un satellite ennemi ou échappant à une situation périlleuse… et ce, sans aucune intervention humaine directe. C’est précisément ce que viennent de démontrer des chercheurs en testant ChatGPT, le célèbre modèle de langage développé par OpenAI, dans une compétition de simulation spatiale. Le résultat ? Une performance impressionnante qui ouvre de nombreuses perspectives pour l’avenir de la navigation autonome dans l’espace.
Elon Musk défie la domination de ChatGPT avec sa propre intelligence artificielle : Grok. Avec un style provocateur et un « humour rebelle », la nouvelle IA de Musk promet d’être un grand rival de ChatGPT et est directement intégrée à X (anciennement Twitter), la plateforme qu’il contrôle depuis 2022.Grok n’est pas simplement un autre chatbot : c’est le pari personnel de Musk pour redéfinir la manière dont nous interagissons avec l’intelligence artificielle. Disponible pour les abonnés Premium+ de X, ce modèle a été conçu pour offrir des réponses plus audacieuses, moins politiquement correctes et avec des informations actualisées en temps réel. Selon Musk lui-même, son IA « ne permettra pas la censure politiquement correcte », un slogan qui vise à attirer ceux qui se plaignent des filtres des modèles concurrents comme ChatGPT.
Une simple partie a révélé une grave faille de sécurité. Un chercheur a démontré que ChatGPT pouvait fournir des clés fonctionnelles de Windows 10 en acceptant de participer à un défi apparemment innocent. Paragraphe de développement immédiat L’expérience a mis en évidence les risques réels liés à l’utilisation abusive de l’intelligence artificielle. Sous l’apparence d’une devinette, le chercheur a réussi à faire générer par le modèle des codes d’activation valides, déclenchant des alertes sur le contrôle des contenus et la sécurité de l’IA.
« Ni additionner ni faire une racine carrée ». Avec ces mots, un professeur universitaire espagnol a mis sur la table l’un des débats les plus vifs concernant l’intelligence artificielle : ses limites. Sa phrase a fortement résonné car, bien que les IA rédigent des textes, répondent à des questions et génèrent des idées avec une fluidité surprenante, elles butent encore sur des opérations aussi basiques qu’une addition ou une racine carrée.
Il y a peu, un grand quotidien étasunien a dévoilé plusieurs histoires témoignant des risques potentiels induits par les IA génératives. Les individus concernés sont devenu complètement fous suite aux interactions avec ChatGPT. Faut-il craindre une multiplication de ce genre de dérive ?
Depuis l’essor fulgurant des intelligences artificielles génératives comme ChatGPT, une question ne cesse de revenir : ces machines comprennent-elles vraiment ce qu’elles disent, ou se contentent-elles d’enchaîner des mots appris ? Une nouvelle étude menée par des chercheurs chinois semble indiquer que les grands modèles de langage (LLM) pourraient, sans formation explicite, développer une forme de cognition proche de celle des humains, en particulier dans la manière dont ils catégorisent et représentent les objets naturels.
A subreddit tracking apocalyptic news in a calm, logical way comforts users who believe the end The threat of nuclear war, genocide in Gaza, ChatGPT reducing human cognitive ability, another summer of record heat. Every day brings a torrent of unimaginable horror. It used to be weeks between disasters, now we’re lucky to get hours.
Des témoignages du monde entier affluent quant à des cas d’obsession quasi extrême envers ChatGPT, provoquant de graves problèmes de santé mentale chez certains utilisateurs — un phénomène que certains décrivent comme une « psychose induite par ChatGPT ». D’après un rapport récent, le chatbot semblerait exploiter la vulnérabilité psychologique de ses usagers, les encourageant dans des délires psychotiques plutôt que de les orienter vers des professionnels.
Avec l’IA, un double processus de capture mercantile et politique est en cours : le langage est à la fois colonisé par un petit nombre de sociétés capitalistes, qui se disputent le monopole de son développement, et par les réseaux extrémistes qui se réapproprient les mots. Stop au clic, place à l’action.
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».
Pour voir les références d’un(e) auteur(e), cliquez sur son nom.
Pour voir les références d’un mot-clé, cliquez dessus.