contacter Vincent de Blois
"Sanctuaire" d'Abel Quentin
un livre qui appelle au Boycott de l’IA : « Sanctuaire » de Abel Quentin. L’écrivain y dénonce la « folie de s’embarquer dans des choses que nous ne maîtrisons pas ».
Nous les maîtrisons encore en 2026, mais quand on aura fait « naître » l’AGI, la première super intelligence, ce ne sera plus le cas. Et il n’y aura pas de bouton ! une fois entraînée par les data-centers, elle nous échappera immédiatement, et ce sera le début des gros ennuis !
Abel Quentin ne semble pas avoir pris la mesure des risques. Il mentionne le pillage des œuvres littéraires, la consommation d’eau et d’électricité, la perte des emplois par millions… toutes choses déjà très graves, qu’il regroupe sous le terme « d’inconvénients ».
Or ce terme d’ "inconvénients" est loin de suffire. Il faut parler d’extinction de l’Humanité. Eliezer Yudolwsky l’explique très bien. La simple augmentation de la puissance de calcul pourrait donner naissance à l’AGI (1) puis à la super intelligence, puis à un « dieu IA » à l’insu des chercheurs. Et si cette super intelligence n’est pas alignée, ce qui sera le cas car il est de plus en plus évident que l’alignement de l’IA est impossible, alors elle peut décider de faire quelque chose de si gigantesque et de si bizarre pour nous (intelligence alien) que nous disparaîtrions en un instant par un effet collatéral, comme sous l’effet d’une bombe H.
Exemple de choses bizarres : augmenter sa puissance de calcul en investissant les algues, aller placer des panneaux solaires autour du soleil pour augmenter son énergie…propulser la terre vers une autre galaxie…
Yudolwski relève à bon escient que pour décrire les risques de l’IA, on est obligé de se livrer à ce qu’il appelle en anglais « a sort of game of pretend » (une sorte de jeu consistant à prédire les technologies futures), comme pourrait le faire une voyante, ce qui ne fait jamais très sérieux…
Mais ces pouvoirs de nuisance de l’IA, si on ne peut que les « imaginer », on SAIT QU’ILS EXISTERONT si la super intelligence voit le jour. Il nous sont inimaginables en 2026, tout comme une bombe atomique serait inimaginable à un militaire de 1825, il y a seulement 200 ans.
Alors que pouvons nous dire des armes qu’il y aura dans 1 million d’années si on sait que l’IA super-intelligente fera ce bon d’un million d’années en quelques secondes. Eh bien il est probable qu’un seul de ses pouvoirs surpuissants nous envoie ‘ad patres’ sans même qu’on ait le temps de cligner des yeux. L’IA ne nous aime, ni ne nous déteste. Elle peut juste avoir envie de suivre son chemin.

L'IA : un nouvel être, sur le point de devenir un Dieu. Combien de temps nous reste-t-il ?
voir en grand dans un nouvel onglet.
(1) une intelligence artificielle générale ou AGI, supérieure à l’intelligence humaine. Cette étape est cruciale, car ce sera l’AGI qui fera le programme d’entraînement des nouveaux cerveaux artificiel. Cela peut arriver dans les mois ou même les semaines qui viennent.
Vues :