2011/04/18

Que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?

La lecture de la semaine, il s’agit d’un article extrait du numéro d’avril du magazine The Walrus, mensuel canadien de Toronto. On le doit à Alex Hutchinson et il s’intitule “Déficit d’intelligence : que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?”




Un jour dans le siècle qui vient – et peut-être plus tôt que vous ne croyez, commence Hutchinson – des chercheurs arriveront sans doute à créer une intelligence artificielle plus performante que la nôtre. Ce qui adviendra ensuite, c’est la question que tout le monde se pose – et nous ne sommes tout simplement pas assez intelligents pour comprendre, ou seulement prédire, ce qu’une intelligence surhumaine choisira de faire. Mais il y a une chance raisonnable pour que cette intelligence artificielle éradique l’humanité, soit par pure malveillance, soit dans une tentative maladroite de se rendre utile. La Fondation Lifeboat de Minden, dans le Nevada, cherche à repousser cette possible calamité en développant une “Intelligence artificielle amicale”.

lifeboatfoundation
Image : La page d’accueil de la Lifeboat Fondation.

L’auteur rappelle que Vernor Vinge, le mathématicien et informaticien américain, avait nommé ce moment de l’histoire la “Singularité technologique” et qu’il l’imaginait advenir avant 2030. Ray Kurzweil, autre penseur bien connu de la Singularité, estime qu’elle se produira en 2045. Quant à l’auteur de science-fiction canadien Robert J. Sawyer, l’auteur de la trilogie WWW (Wake, Watch, Wonder, du nom des trois volumes de la série consacrée à la Singularité), il la voit arriver à l’automne 2012.

C’est à ce dernier que s’intéresse particulièrement cet article, car Sawyer, non content d’être un auteur de science-fiction à succès, siège à la Fondation Lifeboat. Et comme Sawyer est connu pour un travail de romancier très documenté, ça rend les objectifs de la Fondation Lifeboat moins farfelus qu’il n’y paraît.

Alex Hutchinson résume ensuite les intrigues de la trilogie WWW de Sawyer (dont seulement les deux premiers tomes – L’éveil suivit de veille -sont disponibles en français dans la célèbre collection de SF “Ailleurs et Demain” de Robert Laffont), qui reposent principalement sur l’idée qu’une conscience émergerait spontanément des réseaux, d’une manière que certains chercheurs estiment plausible d’ailleurs. La trilogie pose deux questions qui sont reliées, mais néanmoins distinctes. Si l’émergence d’une conscience dans les réseaux advenait : que feraient les humains ? Et que devraient-ils faire ?
En principe, l’avènement d’une intelligence artificielle capable de diriger le monde serait plutôt une bonne nouvelle. Le mathématicien britannique Irving John Good a écrit en 1965 dans un papier qui a fait date : “La première machine ultra-intelligente sera la dernière invention de l’homme”. La raison qu’il avance est la suivante : toute machine plus intelligente que nous sera aussi plus capable que nous de construire une intelligence artificielle, elle sera donc en mesure d’améliorer toute seule ses propres capacités, dans une sorte de processus de perfectionnement auto-généré. Good a appelé ce phénomène intelligence explosion, “l’explosion intelligente”, Vernor Vinge lui a donné un autre nom hard take off, le “décollage difficile”. En un court laps de temps, toute super intelligence artificielle évoluerait d’un état à peine supérieur au nôtre à un état très largement supérieur – et l’équilibre des pouvoirs entre les hommes et leurs anciens outils basculerait tout aussi vite.
Et on peut tout à fait voir là une menace pour l’humanité. Sawyer a écrit un jour dans un article : “si nous fabriquons des machines plus intelligentes que nous, pourquoi accepteraient-elles d’être nos esclaves ? [...] Les ordinateurs doués de pensée sont une vraie menace pour la perpétuation de notre espèce.”


Cela dit, il semble assez simple de prévenir cette menace, par exemple en appliquant les trois règles de la Robotique, qu’Isaac Asimov a édictées en 1942 :
  • 1. Un robot ne peut blesser un être humain ni, restant passif, laisser cet être humain exposé au danger.
  • 2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
  • 3. Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première Loi ou la Seconde.
Sauf qu’appliquer ces règles pose tout un tas de problèmes qu’Asimov a lui-même relevés. Un robot peut-il nuire à un être humain si cela permet de ne pas nuire à un grand nombre d’êtres humains ? Si oui, selon quel critère doit-il l’évaluer ? Ou encore – comme Jack Williamson, un autre auteur de science-fiction l’a proposé dans sa série Les Humanoïdes – que faire si des robots programmés pour prémunir les hommes de toute destruction décidaient d’emprisonner toute l’humanité parce que nombre d’activités quotidiennes portent en elles le risque de la destruction ?
La Fondation Lifeboat divise les menaces potentielles en trois grandes catégories.
La première est une intelligence artificielle délibérément programmée pour faire le mal, sous les ordres d’un créateur malfaisant. Un danger qui est réel, mais pas très différent de tous ceux qui accompagnent beaucoup d’autres formes de technologies avancées.

La deuxième catégorie est une intelligence artificielle dévoyée qui se retournerait contre ses créateurs, un scénario courant dans la science-fiction (comme HAL 9000 dans 2001, L’Odyssée de l’espace). Mais les analyses de Lifeboat estiment cette hypothèse assez improbable, car elle supposerait qu’une intelligence artificielle serait lestée de tout le bagage psychologique propre à l’humanité. Or, l’agressivité, la jalousie, la préservation de soi sont toutes des propriétés qui se sont forgées dans le creuset de l’évolution, et ne seraient pas les caractéristiques d’une intelligence artificielle, à moins qu’on ne les ait délibérément programmées.

Mais il existe une troisième catégorie de menace, moins évidente, et plus difficile à rejeter : une super intelligence artificielle qui est bien intentionnée, mais nous balaie par inadvertance, comme un chiot trop vite grandi renverse une table d’un coup de queue enthousiaste. La Fondation Lifeboat donne un exemple simple : un ordinateur programmé pour éradiquer la malaria qui accomplit sa mission en supprimant tous les mammifères. Et on entre là dans un débat qui agite bien au-delà de Lifeboat. Car cette question est bien compliquée, nous dit Hutchinson.

D’abord, une intelligence artificielle consciente d’elle-même est qualitativement différente d’un ordinateur le plus puissant soit-il. On peut demander à Google Maps le meilleur trajet pour aller chez Grand-Maman, et nous avons des GPS qui prennent en compte le trafic et le prix des péages. Mais même si les ordinateurs parviennent de mieux en mieux à nous dire comment faire les choses, et même s’il faut les faire, ils demeurent incapables de formuler leur propre jugement sur le fait de savoir si faire ces choses est bien ou mal. Ceux qui craignent la Singularité avancent que nous sommes incapables de programmer des ordinateurs avec des valeurs humaines pour la simple raison que les valeurs humaines ne peuvent pas se réduire à un algorithme.

Tout cela est connu sous le nom de “problème de l’intelligence artificielle amicale”. Savoir s’il est insoluble, s’il est compliqué, mais soluble, s’il relève de la pure paranoïa, tout cela constitue un débat récurrent et acharné au sein de la communauté des chercheurs en intelligence artificielle. Mais ce débat sera caduc si les développeurs de la première intelligence artificielle de niveau humain ne font pas l’effort d’incorporer des règles semblables à celles d’Asimov dans leurs créations. Etant donné qu’aujourd’hui, les machines les plus avancées naissent des laboratoires privés et militaires, il n’est pas certain que ce soit le cas.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 17 avril était consacré à “Peut-on éteindre l’internet ?” c’est-à-dire à essayer de comprendre comment on peut arrêter le réseau des réseaux, avec Jérémie Zimmermann, ingénieur consultant en technologies collaboratives et responsable associatif à l’April, organisation de promotion et de défense du logiciel libre, cofondateur et porte-parole de la Quadrature du Net, organisation de défense des droits et libertés des citoyens sur Internet et Stéphane Bortzmeyer, informaticien et ingénieur au service R&D de l’Afnic.

No comments: