Superintelligence : Risque ou opportunité ?

Superintelligence

Sommes-nous préparés au défi de la superintelligence ?

Dans Superintelligence, Nick Bostrom s’interroge sur ce qu’il estime être le plus grand défi auquel l’humanité fera face dans le siècle actuel : l’apparition d’une machine plus intelligente que l’homme.

Dans cet article, vous découvrirez ce qu’est la “superintelligence”. Ensuite, vous verrez comment cette intelligence artificielle (IA) générale pourrait arriver et quels sont les principaux dangers auxquels l’humanité pourrait être confrontée.

Qu’est-ce que la superintelligence ?

Le philosophe Nick Bostrom qualifie de superintelligence des “intellects qui dépassent très largement le meilleur intellect humain dans des domaines cognitifs très généraux“.

Cette superintelligence peut se caractériser de trois manières différentes : celle qui va vite, celle qui est collective et celle qui est qualitative.

  • La superintelligence rapide : Il s’agit d’un système capable de tout ce que peut faire un cerveau humain, mais à une vitesse infiniment plus rapide. Pour ce genre d’esprit digital, les mondes macro biologiques et matériels fonctionneraient au ralenti. Cette IA privilégierait donc la réalité virtuelle pour travailler à une vitesse adéquate. Elle pourrait également interagir avec l’environnement physique via des manipulateurs d’échelle pour travailler dans un environnement microscopique (un autre espace-temps) et donc plus rapide.

  • La superintelligence collective : un système composé d’un grand nombre d’intellects réduits mais capable de performances supérieures par agrégation de ces intelligences inférieures. Cette intelligence collective excellerait dans la résolution de problèmes qui peuvent être décomposés en sous parties. Elle fonctionnerait comme une organisation humaine (une intelligence collective) [1] via la division des tâches.

  • La superintelligence qualitative : un système qui réfléchirait à la même vitesse que l’être humain mais qui produirait de meilleures réflexions.

Par quels chemins la superintelligence peut-elle arriver ?
La cognition 100% digitale

Au fil des siècles, le processus aveugle de la sélection naturelle a mené les êtres humains à posséder une intelligence générale. Est-ce que des processus évolutifs informatiques dirigés par des programmeurs peuvent conduire au même résultat en beaucoup moins de temps ?

Selon Bostrom, la réponse dépend des progrès de la technologie informatique au niveau des logiciels (software) et des ordinateurs (hardware). Aujourd’hui, les ressources informatiques (notamment computationnelles) nécessaires ne sont pas disponibles mais qu’en sera-t-il dans le futur ?

Un système censé parvenir à une intelligence générale [2] devra avoir une capacité essentielle : l’auto-apprentissage. Cette IA germe devra être capable de fonctionner dans l’incertitude et de continuellement améliorer son processus de décision. Elle suivra un processus infini d’amélioration.

Les cognitions 100% humaine et humaine améliorée

Le philosophe évoque également l’augmentation de la cognition biologique. Il s’agit d’augmenter les capacités humaines par l’éducation, la formation et l’alimentation. Ou par d’autres méthodes comme les manipulations génétiques.

La dernière solution évoquée est l’augmentation de l’intelligence grâce à la biotechnologie : les interfaces cerveau-ordinateur. Il s’agit d’augmenter la cognition humaine grâce à l’appui de la machine. Mais implanter des électrodes dans un cerveau comporte des risques graves de complications médicales.

A noter qu’augmenter la cognition humaine revient à augmenter les compétences humaines et donc, par effet ricochet, les chances de conception d’une IA générale probablement 100% digitale.

Les dangers potentiels

Nick Bostrom évoque deux questions importantes :

  1. Est-ce qu’une IA sera capable de parvenir à des capacités cognitives générales proches de celles d’un être humain ?

  2. Si cela est possible, à quelle vitesse cette IA pourra ensuite parvenir à un niveau surhumain (superintelligence) ?

Selon le philosophe, le premier problème est le plus compliqué. Mais une fois ce problème résolu, Bostrom s’attend à une vitesse de transition explosive pour le passage de l’intelligence humaine à la superintelligence. Quelques heures pourrait suffire à une IA intelligente pour s’améliorer elle-même afin de devenir superintelligente (explosion exponentielle d’intelligence).

L’explosion d’une superintelligence de ce type pourrait lui donner un avantage stratégique tellement fort qu’elle pourrait tout simplement imposer l’avenir. Aucun contre-pouvoir ne pourrait l’interrompre. Cette IA deviendrait un “singleton“, soit une agence mondiale de décision. [3]

Le philosophe invite donc les scientifiques, les gouvernements et les citoyens à prendre conscience de ce potentiel Cygne Noir pour préparer au mieux l’avènement d’une IA qui travaillera pour l’humanité et non pas contre elle [4].

Car, si le point de bascule est franchi par la mauvaise IA, il n’y aura pas de point de retour : le scénario de science-fiction deviendra réalité. Par contre, si l’IA travaille pour l’humanité, elle pourrait lui apporter des contributions positives phénoménales (santé, niveau de vie, etc.). [5]

Pour aller plus loin : Lire le livre Superintelligence de Nick Bostrom.

Notes

[1] Les réseaux sociaux sont également une sorte d’entité collective qui est plus que la somme de ses composantes.

[2] L’intelligence générale se distingue de “l’intelligence particulière”. Un algorithme qui bat les plus grands joueurs d’échec n’est pas une intelligence générale. C’est “simplement” un algorithme spécialisé sur un jeu particulier (les échecs).

[3] Nick Bostrom va jusqu’à envisager une colonisation de l’espace à l’aide de sondes de Von Neumann (des machines auto réplicatives qui se dupliquent à l’aide des matières premières situées dans leur environnement). Si vous appréciez ce genre de science-fiction, je vous recommande fortement le roman “Le problème à trois corps“.

[4] Il s’agit d’un problème de principal-agent. L’humain est le Principal qui emploie l’IA (l’Agent) pour agir dans son intérêt.

[5] La question de l’éthique se posera toujours qu’il s’agisse de l’IA ou de celui qui contrôle l’IA.

Copier et partager : https://mikaelecanvil.com/superintelligence/

 

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *