Aller au contenu

Superintelligence

Un article de Wikipédia, l'encyclopédie libre.

Une superintelligence est un agent hypothétique qui posséderait une intelligence de loin supérieure à celle des humains les plus brillants et les plus doués. Un système résolvant des problèmes (comme un traducteur automatique ou un assistant à la conception) est parfois aussi décrit comme « superintelligent » s'il dépasse de loin les performances humaines correspondantes, même si cela ne concerne qu'un domaine plus limité.

S'il existe des scénarios de création de superintelligence biologique, ou de superintelligence collective, la plupart des analyses se concentrent sur la possibilité qu'une intelligence artificielle devienne capable de s'améliorer elle-même, donnant naissance à la singularité technologique ; celle-ci est le sujet d'espoirs (le transhumanisme)[1], mais aussi de craintes de catastrophe.

Définitions

[modifier | modifier le code]

De manière générale, on parle de superintelligence dès qu'un agent dépasse de loin les performances humaines dans une activité intellectuelle. Le philosophe Nick Bostrom définit une « superintelligence » comme « un intellect beaucoup plus compétent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse et les talents sociaux. »[2]. Pour cet auteur, des programmes de jeux de réflexion, tels que Fritz ou AlphaGo, bien que largement supérieurs aux humains, ne méritent ainsi pas d'être considérés comme superintelligents, car ils ne sont compétents que pour une seule tâche[3]. Comme Marcus Hutter avant lui, Bostrom définit la superintelligence comme une supériorité générale dans les comportements ayant un objectif, laissant ouverte la question de capacités telles que l'intentionnalité[4] ou la perception des qualia[5].

Possibilité de créer une superintelligence

[modifier | modifier le code]

Les chercheurs sont en désaccord sur les chemins pouvant mener à une superintelligence. Le scénario le plus souvent proposé envisage des progrès en intelligence artificielle (IA), cependant d'autres pensent que les humains évolueront ou modifieront leur biologie pour augmenter radicalement leurs capacités intellectuelles. Certaines analyses de futurologues combinent des éléments de ces deux possibilités, suggérant que les humains pourraient se connecter directement à des ordinateurs, ou même y transférer leur esprit, de façon à permettre une amplification de leurs possibilités.

Superintelligence artificielle

[modifier | modifier le code]
L'intelligence artificielle a réalisé des progrès rapides, en particulier avec les modèles de fondation, commençant à surpasser les capacités humaines sur divers tests[6].

Certains chercheurs, comme David Chalmers[7], pensent que la superintelligence apparaîtra rapidement après la création d'une intelligence artificielle générale. Les premières machines véritablement intelligentes seront notablement supérieures - au moins sur certaines capacités intellectuelles : par exemple une mémoire absolue, une base de connaissance énorme, ou la capacité de mener plusieurs tâches simultanément[8]. Plusieurs scientifiques considèrent l'étude de ces possibilités comme prioritaire, en raison de leurs conséquences sociales[9].

Un logiciel suffisamment intelligent pourrait avoir la capacité de se reprogrammer et de s'améliorer, ce qui le rendrait encore plus performant dans le fait de s'améliorer, scénario connu sous le nom d'explosion d'intelligence, proche du concept de singularité technologique[10].

Selon Nick Bostrom, les circuits électroniques disposent de nombreux avantages sur les cerveaux humains. Ils peuvent fonctionner à des fréquences typiquement 10 millions de fois supérieures à celle des neurones biologiques, les rendant extrêmement rapides en comparaison. Les transistors sont aussi plus fiables que les neurones biologiques, nécessitant moins de redondance et permettant une meilleure précision. De plus, une IA peut être facilement dupliquée et éditée, contrairement au cerveau humain[11].

Une autre possibilité envisagée est la simulation du cerveau humain par des circuits électroniques. Les circuits électroniques permettant une meilleure rapidité et diverses optimisations, l'humain ainsi simulé pourrait en théorie être des millions de fois plus rapide[12]. Un tel humain aurait un énorme avantage dans la plupart des tâches intellectuelles, en particulier celles demandant des décisions rapides, ou nécessitant de longues chaines de déductions couvrant de nombreux cas possibles. Un autre avantage des circuits électroniques est leur modularité, permettant d'accroitre presque sans limite leur taille et leur complexité. Nick Bostrom considère également que cela pourrait donner naissance à une « superintelligence collective », si l'on peut faire communiquer un nombre assez grand d'agents déjà intelligents par eux-mêmes[13].

On peut enfin espérer des améliorations qualitatives des raisonnements et des prises de décision humains[14],[15].

Superintelligence biologique

[modifier | modifier le code]

Carl Sagan a suggéré que la généralisation des césariennes et de la fécondation in vitro pourrait permettre aux humains de développer de plus grands cerveaux, que la sélection naturelle pourrait ensuite conduire à une intelligence améliorée[16]. D'un autre côté, Gerald Crabtree (en) craint au contraire que la diminution des pressions de sélection amène à un déclin de l'intelligence humaine. Il n'y a pas de consensus à ce sujet, et dans tous les cas ces changements seraient lents, comparés à la vitesse des changements culturels.

Des méthodes eugéniques, et plus encore le génie génétique, pourraient améliorer l'intelligence humaine plus rapidement. Bostrom pense que si nous parvenons à comprendre les mécanismes génétiques de l'intelligence, nous pourrons sélectionner des embryons ayant un haut potentiel intellectuel ; itérant ce processus sur de nombreuses générations, les gains pourraient être très importants. Bostrom suggère de plus que le processus pourrait être énormément accéléré en travaillant directement sur les cellules souches embryonnaires[17] ; une organisation sociale convenable d'humains ayant une intelligence exceptionnelle pourrait développer une superintelligence collective[18].

Les avantages mentionnés plus haut d'une superintelligence artificielle sont cependant moins importants pour une superintelligence biologique, les contraintes physiologiques limitant la vitesse et la taille des cerveaux ; c'est pourquoi les études ont plutôt porté sur des scénarios d'intelligence artificielle[19]. Un compromis intéressant pourrait être la création de cyborgs, associations symbiotiques de l'homme et de la machine. Cependant, Bostrom exprime des doutes sur la faisabilité d'une interface superintelligente, estimant qu'il s'agit d'un problème aussi difficile que de créer une superintelligence artificielle pure[20].

Prévisions

[modifier | modifier le code]

La majorité des chercheurs en intelligence artificielle s'attendent à ce que les machines soient un jour capable de rivaliser avec les humains sur le plan de l'intelligence, bien qu'il y ait peu de consensus sur la date à laquelle cela se produira. Ainsi, à la conférence de 2006 de l'AI@50 (en), 18 % des participants s'attendaient à ce que les machines « soient capable de simuler l'apprentissage et les autres capacités intellectuelles humaines » d'ici 2056 ; 41 % pensaient que cela se produirait, mais après 2056, et 41 % pensaient que les machines n'y arriveraient jamais[21].

En , une enquête auprès des cent auteurs les plus cités dans le domaine de l'IA, 2070 était l'année médiane pour laquelle était estimée, avec une confiance de 90 %, que des machines pourraient « exercer la plupart des professions humaines aussi bien qu'un humain typique » ; avec une probabilité de 50 %, ils estimaient de même qu'il faudrait ensuite 30 ans pour que se développe une superintelligence[22].

Problèmes de conception et dangers potentiels

[modifier | modifier le code]

Le principal danger envisagé est la possibilité qu'une superintelligence échappe à ses créateurs (ce que Nick Bostrom appelle le « problème du contrôle »[23]). Eliezer Yudkowsky pense que les risques ainsi créés sont plus imprévisibles que toutes les autres sortes de risques[1], et il ajoute que la recherche à ce sujet est biaisée par l’anthropomorphisme : les gens basant leur analyse de l’intelligence artificielle sur leur propre intelligence[24], ce qui les amène à en sous-estimer les possibilités. Il sépare d’ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l’IA d’atteindre ses objectifs), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l’IA sont en fait nuisibles à l’humanité[25] ; de plus, presque par définition, une superintelligence serait si puissante qu'on ne pourrait l'arrêter en cas de comportement imprévu[26]. Selon Yudkowsky, en l'absence de contrôle, « L'IA ne vous détesterait pas nécessairement, mais vous êtes faits d'atomes qu'elle pourrait décider d'utiliser pour faire autre chose. »[27]

Nick Bostrom s'est inquiété des valeurs qui devraient être incorporées au design d'une superintelligence pour éviter ces problèmes. Il a ainsi comparé plusieurs propositions[28] :

  • Valeurs Extrapolées Cohérentes (VEC) : les valeurs sont celles sur lesquelles tous les humains s'accordent.
  • Justesse Morale (JM) : la valeur principale est la justice.
  • Permissivité Morale (PM) : tout ce qui est moral est permis, en respectant les valeurs VEC.

Dans la fiction

[modifier | modifier le code]
  • Ted Chiang décrit dans sa nouvelle Comprends la vie d'un individu qui a acquis artificiellement une intelligence totalement hors norme.
  1. a et b Dominique de Gramont, Le Christianisme est un transhumanisme, Paris, Éditions du cerf, , 365 p. (ISBN 978-2-204-11217-8)

    « Et si Jésus-Christ était le cyborg ultime? »

  2. (en) Nick Bostrom, « How long before superintelligence? », Linguistic and Philosophical Investigations, vol. 5, no 1,‎ , p. 11–30 (lire en ligne)
  3. Bostrom 2014, p. 22.
  4. Voir l'argument de la chambre chinoise.
  5. Voir la question du problème difficile de la conscience.
  6. (en) « Test scores of AI systems on various capabilities relative to human performance », sur Our World in Data
  7. Chalmers 2010, p. 7.
  8. (en) Kevin Warwick, March of the Machines : The Breakthrough in Artificial Intelligence, University of Illinois Press, , 307 p. (ISBN 0-252-07223-5)
  9. Legg 2008, p. 135-137.
  10. Pitpitt, « Singularité technologique — DataFranca », sur datafranca.org (consulté le )
  11. Bostrom 2014, p. chap. 3, « Forms of superintelligence », section « Sources of advantage for digital intelligence ».
  12. Bostrom 2014, p. 44.
  13. Bostrom 2014, chap. 3, « Forms of superintelligence », section « Collective superintelligence ».
  14. (en) Eliezer Yudkowsky, « Intelligence Explosion Microeconomics », , p. 35.
  15. Bostrom 2014, p. 56-57.
  16. (en) Carl Sagan, The Dragons of Eden, Random House, .
  17. Bostrom 2014, p. 37-39.
  18. Bostrom 2014, p. 39.
  19. Bostrom 2014, p. 52, 59-61.
  20. Bostrom 2014, p. 36-37, 42, 47.
  21. (en) Meg Houston Maker, « AI@50: First Poll », .
  22. Müller et Bostrom 2016, p. 3-4, 6, 9-12.
  23. Bostrom 2014.
  24. Il s’agit là d’un des biais cognitifs qui rendent difficile l’appréciation exacte des risques de catastrophe planétaire.
  25. (en) Eliezer Yudkowsky, « Artificial Intelligence as a Positive and Negative Factor in Global Risk » [« L'intelligence artificielle comme facteur positif et négatif de risque global »], sur yudkowsky.net (consulté le ).
  26. Muehlhauser, Luke, et Louie Helm, "Intelligence Explosion and Machine Ethics." In Singularity Hypotheses: A Scientific and Philosophical Assessment, édité par Amnon Eden, Johnny Søraker, James H. Moor, et Eric Steinhart. Berlin : Springer.
  27. Eliezer Yudkowsky (2008) in Artificial Intelligence as a Positive and Negative Factor in Global Risk
  28. Bostrom 2014, p. 209-221.

Bibliographie

[modifier | modifier le code]
  • (en) Nick Bostrom, « Existential Risks », Journal of Evolution and Technology, vol. 9,‎ (lire en ligne, consulté le ).
  • (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, Oxford University Press,
  • (en) David Chalmers, « The Singularity: A Philosophical Analysis », consc.net, vol. 17,‎ , p. 7-65 (lire en ligne).
  • (en) Bill Hibbard, Super-Intelligent Machines, Kluwer Academic/Plenum Publishers, .
  • (en) Shane Legg, « Machine Super Intelligence », Department of Informatics, University of Lugano, (consulté le ).
  • (en) Vincent C. Müller et Nick Bostrom, Fundamental Issues of Artificial Intelligence, Springer, , 553-571 p. (lire en ligne), « Future Progress in Artificial Intelligence: A Survey of Expert Opinion ».
  • (en) Christopher Santos-Lang, « Our responsibility to manage evaluative diversity », ACM SIGCAS Computers & Society, vol. 44, no 2,‎ , p. 16–19 (DOI 10.1145/2656870.2656874, lire en ligne).

Liens externes

[modifier | modifier le code]