le LAPSUS REVELATEUR de DARIAO AMODEI, CEO d'Anthropic
Vincent de Blois, le 06 03 2026
Dario Amodei est le CEO d'Anthropic, la firme qui développe "Claude", un Chatbot similaire à ChatGPT
Dans cette interview de fin février 2026, Dario Amodei en a dit plus qu'il ne pensait au départ, quand il a fait ce lapsus (à 14.05 dans la vidéo). Il a dit en parlant de l'apprentissage des robots : "that could hapen because we discovered..euh...are discovering continual learning"
L'apprentissage continu aurait donc été inventé. Or c'est sûrement une étape importante pour les robots humanoïdes, qui pourront (dès 2026 ?) apprendre absolument n'importe quelle tâche humaine, en partant d'une page blanche ! Il seraient alors capables d'ingérer toutes les sortes de règles qu'on leur donnerait dans un quelconque domaine, où même des règles qu'ils iraient chercher eux-mêmes sur Internet, ou encore des règles qu'ils déduiraient du comportement des utilisateurs utilisant ces machines...ou même les 3 sources en même temps !
Cela confirme les écrits de Emad Mostaque (StableDiffusion). En août 2025, à la parution de son livre "The last economy", Mostaque a affirmé qu'il ne restait qu'un an, avant que tous les jobs d'humains travaillant derrière un ordinateur puissent être remplacés.
En France, on a un train de retard, et même plusieurs. Les médias continuent à aborder l'Intelligence Artificielle comme s'il ne s'agissait que d'un gadget amusant, alors que nous sommes peut-être à un an de l'AGI, et donc de la super-intelligence, qui est ce stade qu'atteindra rapidement l'AGI, quand elle s'améliorera elle-même !
Dans cette autre vidéo, Ilia Sutskever (Ex de OpenAI/ChatGPT) évoque la "conscience d'elles-mêmes" des IAs, un "self-awareness" déjà évoqué par le prix Nobel en Physics/IA Geoffrey Hinton. Ecoutez ce que dit Sutskever dit à 8mn45 :
"I do think that the AI does not feel powerfull, because it makes mistakes, but I do think that at some point the AI will start to feel powerfull actualy, I think when that happens, we will see a big change in the way all AI companies approach safety"
Traduction : "Je pense qu'actuellement, les IA ne se sentent pas puissantes, car elles font des erreurs, mais je pense qu'il arrivera un stade ou les IA commenceront à se sentir puissantes en fait...je pense que quand cela arrivera, nous verrons un grand changement dans la façon dont les grandes compagnies approchent la sécurité."
Enfin des propos rassurants, parce qu'on sentait la sécurité mal partie. Il faut être conscient tout de même, que si jamais une IA parvenue ce stade n'est pas bien alignée, nous n'aurons même pas droit à une seule erreur ! Ce qui pour expérimenter n'est pas l'idéal !
(1) Anthropic : financé par plusieurs fond souverains dont un du Qatar, vient de lever 30 milliards, capitalisation env. 380 milliards de $.