Eliezer Yudkowsky, expert en intelligence artificielle, affirme que si nous créons une IA super-intelligente « Cela nous tuera tous »

Dans une chronique pour « Time », un expert en intelligence artificielle du « Machine Intelligence Research Institute » s’inquiète des conséquences du développement actuel de l’IA.

Les experts du monde entier sont de plus en plus inquiets, au point même de se demander si on allait droit dans le mur. L’intelligence artificielle n’a toujours pas suffisamment approché les humains pour en faire une véritable menace. Mais aujourd’hui beaucoup de choses ont changé. Les modèles d’IA évoluent de plus en plus et, surtout, progressent de plus en plus vite.

Eliezer Yudkowsky, le directeur du « Machine Intelligence Research Institute » explique ainsi dans une tribune au Time :

«Nous ne sommes pas préparés. Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n’y a pas de plan. Les progrès dans les capacités de l’IA sont largement en avance sur les progrès de l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir ».

Selon lui, de nombreux chercheurs croient fermement que nous nous dirigeons vers un désastre. Cependant, la plupart n’osent pas le dire ouvertement. Cela peut être dû à un conflit d’intérêts ou au simple fait que cela peut les faire passer pour des théoriciens du complot.

Eliezer Yudkowsky explique ainsi qu’il n’a pas signé la lettre ouverte qui demande un arrêt de 6 mois du développement de toute intelligence artificielle. On retrouve notamment Elon Musk ou Steve Wozniak, cofondateur d’Apple. Mais Eliezer explique que 6 mois ce n’est pas suffisant pour se préparer aux dangers. C’est un arrêt complet qu’il demande.

L’une des solutions si on veut continuer à utiliser des IA puissantes, sera de ne surtout pas les connecter à Internet. Ils restent prudents, car la masse d’information accessible sur le web est colossale. On peut même imaginer une IA pouvoir accéder à des fichiers confidentiels pour nourrir son algorithme.

L’un des aspects importants est aussi de donner une limite de puissance au IA. Au lieu d’utiliser de grands « clusters » de serveurs toujours plus puissants pour entraîner les IA, il faut les limiter. Il va même jusqu’à ajouter “être prêt à détruire un centre de données escroc par une frappe aérienne.”

Pour lui, l’IA n’a pas de nationalité, elle ne fera pas de distinction entre Étasunien, Chinois, Russe ou Français. Ainsi, si un pays se retrouve à franchir le point de non-retour, il demande à ce que ce soit le monde entier qui s’y attaque.

En lisant la tribune, Eliezer Yudkowsky est extrêmement alarmiste. Au point même de se demander si ce n’est pas trop. La conclusion en est un exemple parfait en finissant par “les enfants n’ont pas choisi cela et n’ont rien fait de mal.” Seul l’avenir nous le dira. Mais si autant d’experts s’en inquiètent, c’est qu’il se passe clairement quelque chose.

Laisser un commentaire