2010/11/08

Quand nos gadgets connaîtront nos émotions

La lecture de la semaine, il s’agit, cela faisait longtemps, du dernier édito de Clive Thompson dans la magazine américain Wired. Il est intitulé : “des gadgets qui savent ce que nous ressentons”.



Beverly Woolf, commence Thompson, est une chercheuse en informatique qui étudie l’enseignement par ordinateur. Elle crée des logiciels intelligents capables de s’adapter automatiquement à la vitesse d’apprentissage de l’élève. Ces programmes marchent plutôt bien : les enfants qui utilisent ces autotuteurs en math progressent beaucoup plus vite que les autres.
Cependant, il y a un problème : les autotuteurs n’arrivent pas à déceler si l’élève est fatigué ou déçu. Un enseignant normal le perçoit immédiatement et peut intervenir. Woolf a donc décidé de s’attaquer à ce problème en créant un ordinateur qui puisse sentir les émotions de l’élève.
Elle a donc équipé les ordinateurs de détecteurs d’expression capable de suivre le regard de l’élève. Elle a installé des capteurs sur les chaises pour détecter la posture des enfants et a fourni aux élèves des bracelets mesurant la réponse énergétique sur la peau. Si le logiciel d’enseignement identifie une perte d’intérêt chez l’élève, il donne un encouragement, change de problème ou en donne un plus facile, comme le ferait un enseignant humain.
emotiondeseleves

Images : Comprendre l’émotion des élèves avec les autotuteurs du Centre pour la connaissance de la communication de Beverly Woolf. Image extraite d’une des communications de l’auteur.

Et ça marche. Le logiciel arrive dans 80 % des cas à identifier l’émotion des élèves et à la fin d’une leçon de 15 minutes, les utilisateurs de ces autotuteurs sont trois fois plus engagés et concentrés que des enfants qui ont travaillé sur des ordinateurs qui ne sont pas équipés.
Si un élève est émotionnellement troublé ou s’il est frustré, il n’apprendra pas”, explique Woolf. “Si nous voulons donc avoir des tuteurs qui soient performants et intelligents, il faut qu’ils soient capables de percevoir ces états.”
Bonne idée. Et pourquoi s’arrêter là ? se demande Thompson. Je pense, ajoute-t-il, que tous nos logiciels et tout notre matériel informatique fonctionneraient mieux s’ils comprenaient nos émotions. Il faut une “émo-révolution” high-tech.
Aujourd’hui, les ordinateurs se comportent comme des domestiques limités et maladroits, avides de rendre service, certes, mais échouant par absence de tout sens commun émotionnel. C’est particulièrement notable dans la manière dont le logiciel vous interrompt : vous avez finalement réussi à vous concentrer sur un problème, vous êtes dans le truc et “ding”, retentit l’alerte e-mail.
Eric Horvitz, poursuit Thompson, est chercheur chez Microsoft, il a passé des années à développer une Intelligence artificielle qui puisse prévenir cet inconvénient. En observant tout, de votre agenda au bruit ambiant dans votre bureau, le logiciel décide si c’est le moment de vous interrompre. Si vous êtes occupé, il repousse l’alerte à plus tard et attend un nouvel e-mail avant de se décider à faire retentir l’alerte. En ce moment, la technique d’Horvitz fait fonctionner un assistant virtuel en 3D qui est posté à l’extérieur de son bureau et fait savoir aux visiteurs s’il est occupé ou pas.

Un logiciel sensible à l’émotion peut vous faire gagner du temps, il pourrait aussi vous sauver la vie. Clifford Nass, un expert en interaction homme-machine de l’université de Stanford, a créé un véhicule qui analyse les modèles de conduite pour reconnaître quand son conducteur devient trop nerveux au volant. Les conducteurs en colère ont un champ de vision restreint, la voiture le sachant, elle peut compenser en attirant l’attention sur des risques de collision potentielle provenant des côtés.
Des projets comme ceux-ci sont encore dans les laboratoires. Mais ils ne devraient pas y rester longtemps, parce que les gadgets d’aujourd’hui – en particulier les smartphones – sont pleins de technologies qui sont mures pour la détection des émotions : les capteurs de mouvement qui savent si vous êtes en train de courir à toutes jambes ou d’être tranquillement assis, ou le GPS qui peut dire si vous êtes dans votre bureau ou dans un bar.
Evidemment, il n’est pas toujours facile de trouver la manière de répondre aux émotions. C’est même un problème pour beaucoup d’être humains. Mais si on y parvient, je prédis, conclut Clive Thompson, que nous verrons très vite apparaître toute une moisson de nouveaux services : des lecteurs MP3 qui adaptent leur playlist à votre humeur, des téléphones qui retiennent les textos si vous êtes dans une conversation en tête à tête particulièrement intense. Nos ordinateurs sont restés des robots trop longtemps ; il est temps qu’ils s’adoucissent.”

Voilà pour le dernier édito en date de Clive Thompson dans Wired. Au départ, je me suis dit que j’allais vous le lire pour mettre fin à une série de textes assez critiques, je me suis dit qu’il fallait réinsuffler un peu d’optimisme technologique, et dans ce cas, c’est souvent dans Wired qu’on le trouve. Mais au fur et à mesure de la traduction de ce papier de Thompson, l’enthousiasme a laissé place à un léger malaise. Puis un malaise carrément lourd. Car je ne suis pas du tout certain que l’horizon imaginé par Clive Thompson soit désirable. Au fond, je n’aime pas l’idée que nos technologies soient en phase avec nos émotions. Qu’un tuteur automatique sache s’adapter à la capacité de l’attention de l’élève pourquoi pas, mais que mon lecteur MP3 établisse une playlist en fonction de ce qu’il interprète de mon état émotionnel, ou que mon téléphone croie savoir quand il peut me signaler les textos arrivant, je ne suis pas sûr que ce soit souhaitable. Et même, je trouve plus intéressant dans le rapport à la technologie les deux attitudes que sont la volonté (je peux éteindre mon téléphone si je veux être tranquille, je peux choisir moi-même d’écouter Barbara si j’ai envie de pleurer) ou le hasard (un texto arrive quand il arrive, la fonction random du lecteur MP3 choisit des musiques au hasard). Je ne vois pas comment la machine pourrait savoir mieux que moi ce qui est bon pour moi. Parce qu’il ne me semble pas y avoir de corrélation automatique entre un état émotionnel et un désir. La tristesse n’entraîne pas forcément l’envie d’écouter Barbara, ça peut être l’inverse exact. Bref, savoir ce qui est bon pour nous est l’apprentissage d’une vie, je ne vois pas comment la machine pourrait être programmée à la savoir. Sauf à devenir une sorte de parent qui décide pour son enfant en fonction de ce qu’il croit être son bien, et qui décide le plus souvent en fonction de ce qu’il considère comme devant être la norme. Mais là, c’est encore un autre problème.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 7 novembre 2010 était consacrée au thème “Vivons-nous vraiment une révolution ?” en compagnie de Dominique Cardon, auteur de La Démocratie internet, parue au Seuil, et de Christophe Deshayes, co-auteur avec Michel Berry des Vrais révolutionnaires du numérique, paru aux éditions Autrement.

2010/11/02

Programmer ou être programmé ?

Program-webLa lecture de la semaine, il s’agit du résumé d’une intervention orale (vidéo) donnée par Douglas Rushkoff (blog) lors d’une conférence qui avait lieu le 14 octobre dernier. Douglas Rushkoff est un essayiste américain, écrivain, conférencier, il est connu pour la dizaine de livres qu’il a écrits, notamment sur la question des nouveaux médias, ses idées le rapprochant des mouvements cyberpunk et de l’open source. Le titre de cette intervention “Programmer ou être programmé” est également le titre de son dernier livre (Amazon).

“Quand je regarde le monde, commence Rushkoff, quand je regarde l’économie, la religion, la politique ou les entreprises, j’ai le sentiment que nous tentons de faire fonctionner notre société sur des codes obsolètes, sur des logiciels – et je ne parle pas seulement des logiciels qui sont dans nos ordinateurs, mais aussi des logiciels sociaux – sur des logiciels que nous avons hérité de systèmes dont nous n’avons plus aucun souvenir. Ces logiciels sont parfaitement inappropriés à ce qu’il faut faire, à ce que nous voulons faire. Et si nous ne pouvons pas comprendre ces programmes, les programmes qui sont dans ordinateurs, nous n’avons aucune chance de comprendre les programmes qui sont à l’extérieur de nos ordinateurs. Si nous ne pouvons pas voir à l’intérieur de l’ordinateur, on ne se rendra jamais compte que le monde extérieur fonctionne sur des codes obsolètes.”






D’où l’énoncé de sa thèse : “Si vous n’êtes pas un programmeur, vous êtes programmé. C’est aussi simple que cela”.

A l’appui de cette thèse, Douglas Ruskhoff se lance dans une rapide histoire de l’humanité, vue à travers l’évolution des médias. “Au début étaient des gens qui vivaient dans un monde dont ils ne connaissaient pas les règles et qui essayaient de faire de vagues prédictions… Vinrent l’écriture, un alphabet et des textes, on ne dépendait donc plus de prêtres qui lisaient pour nous, nous avons pu fabriquer nos propres mots. Puis, arriva l’imprimerie, qui en théorie nous permettait de ne plus dépendre que de quelques scribes, et donnait à tous la possibilité d’écrire. Et enfin, nous avons aujourd’hui l’ordinateur qui bien sûr ouvre à tous la possibilité de programmer la réalité.”

Mais, dans les faits, explique Rushkoff, ce n’est pas ce à quoi nous assistons.
Il poursuit : “Nous avons eu des textes, l’alphabet, et quelle société en a résulté ? Des gens sont allés sur les places publiques pour faire la lecture aux autres. Nous avions la capacité de lire, nous avions la technologie pour cela, et cela ne changea rien au fonctionnement qui avait prévalu auparavant. Même chose avec l’imprimerie. Est-ce que tout le monde est devenu écrivain avec l’imprimerie ? Non. Nous avons eu une civilisation de lecteurs, où seule une élite écrivait.

Maintenant, nous avons l’ordinateur. Est-ce que cela a construit une civilisation de programmeurs ? Non. Non avons une civilisation de blogueurs. Nous avons aujourd’hui la capacité d’écrire, mais nous ne savons pas programmer. Nous nous contentons d’écrire dans la case que nous offre Google.”
Rushkoff en tire comme conclusion qu’à chaque irruption d’un nouveau média, la civilisation donne l’impression de rester un pas en arrière, d’être en retard d’une génération au moins. A chaque fois, le phénomène est le même : des possibilités énormes sont offertes par un nouveau média et seule une élite apprend vraiment à l’utiliser.

“Et aujourd’hui, c’est plus important encore que ça ne l’a jamais été. Je le dis, affirme Douglas Rushkoff, programmer est plus important que savoir utiliser l’imprimerie. Le texte nous a donné le judaïsme, l’imprimerie nous a donné le protestantisme, qu’est-ce que nous donnera l’ordinateur ?”

“Nous vivons un moment extraordinaire, poursuit Ruskhoff, où il est possible de programmer l’argent, où il est possible de programmer la société. Mais pour faire cela, nous devons comprendre à la fois les programmes que nous utilisons, et les codes et les symboles avec lesquels nous travaillons, et nous devons comprendre ensuite comment tout cela se lie. Si nous ne construisons pas une société qui sait au moins qu’il y a quelque chose qui s’appelle la programmation, nous finirons par ne pas être les programmeurs, mais les utilisateurs, ou, pire, les utilisés.”

Telle est la conclusion de ce prêche de Douglas Rushkoff. On peut sourire du ton et des raccourcis historiques, il n’empêche qu’il n’est pas le seul, ni le premier, à défendre cette idée. Il y a dix ans déjà, Lawrence Lessig disait à peu près la même chose dans son très beau texte “code is law”, “le code est la loi”. L’apprentissage de la programmation informatique comme outil d’émancipation, comme une nouvelle alphabétisation qui permettrait à chacun de comprendre, et d’intervenir dans le monde qui l’entoure, voilà un programme politique qu’il ne serait pas inintéressant de voir apparaître en 2012.
Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 31 octobre 2010 était consacrée à Wikileaks avec Olivier Tesquet et Pierre Romera d’Owni qui ont développé une application pour parcourir, évaluer, classer les milliers de documents secrets de l’armée américaine mis en ligne par le site Wikileaks, ainsi qu’à l’internet et l’imaginaire du voyage en compagnie de Stéphane Hugon, sociologue, chercheur au Centre d’Etude sur l’Actuel et le Quotidien à la Sorbonne où il enseigne la sociologie de l’imaginaire. Il est l’auteur de Circumnavigation, L’imaginaire du voyage dans l’expérience Internet, livre dans lequel il s’interroge sur les raisons pour lesquelles internet a été accueillie avec autant de facilité, aussi vite, et par un nombre aussi considérable de gens. Son hypothèse : l’expérience d’internet mobilise des imginaires présents dans notre modernité, à commencer par l’imaginaire du voyage, de la flânerie, du vagabondage… Si Internet bouleverse, s’il modifie profondément notre rapport au temps, à l’espace, au sujet, c’est parce qu’il prolonge ces imaginaires ancrés dans notre histoire culturelle.

2010/10/11

Quand la machine apprend le langage

La lecture de la semaine, il s’agit d’un article du New York Times, dernier article en date d’une série consacrée à l’intelligence artificielle et à ses impacts potentiels sur la société. Celui que j’ai choisi de traduire concerne l’apprentissage du langage par la machine, un enjeu essentiel dans le cadre de ce qu’on appelle depuis quelques années déjà le web sémantique.




L’article commence par rappeler que si l’on donne à un ordinateur une tâche qui est clairement définie – comme gagner aux échecs ou prédire le temps qu’il fera demain – la machine dépasse l’homme de manière presque systématique. Mais quand les problèmes comportent des nuances et des ambiguïtés, ou qu’ils exigent de combiner plusieurs sources d’information, les ordinateurs n’égalent pas l’intelligence humaine.
Parmi ces problèmes compliqués à résoudre pour l’ordinateur, il y a évidemment la compréhension du langage. Une des raisons de la complexité qu’il y a à comprendre le langage est que le sens des mots et des phrases ne dépend pas seulement de leur contexte, mais aussi d’une connaissance que les êtres humains acquièrent au fil de leur vie.
Or, nous apprend l’article, depuis le début de l’année, une équipe de chercheurs de l’université de Carnegie Mellon est en train d’élaborer un système informatique qui tente d’apprendre la sémantique à la manière d’un être humain, c’est-à-dire “de manière cumulative, et sur le long terme”, comme l’explique Tom Mitchell, qui dirige le projet. Cette machine – qui calcule 24 heures sur 24 et 7 jours sur 7 – est abritée dans le centre informatique de cette université de Pittsburgh. Les chercheurs l’ont doté d’une connaissance de base et, depuis 10 mois, elle est lâchée sur le web avec la mission de s’y instruire par elle-même.
Ce système s’appelle NELL, acronyme de Never ending Language Learning System. Et d’après le journaliste du New York Times, Steve Lhor, jusqu’ici, les résultats sont impressionnants. NELL scanne des millions de pages Web dont il fait des textes-modèles qu’il utilise pour apprendre des faits. En quelques mois, il a appris 390 000 faits, avec une exactitude estimée à 87 %. Ces faits sont regroupés dans différentes catégories sémantiques : villes, entreprises, équipes de sport, acteurs, universités, plantes, et 274 autres. Dans chaque catégorie, les faits appris sont des choses comme “San Francisco est une ville” ou “le tournesol est une plante”.
NELL apprend aussi des faits qui sont des relations entre les membres de deux catégories différentes. Par exemple : “Peyton Manning est un joueur de foot”. “Les Colts d’Indianapolis est une équipe de foot”. En scannant des textes-modèles, NELL peut en déduire avec un fort taux de probabilité que Peyton Manning joue pour les Colts d’Indianapolis – même s’il n’a jamais lu que Peyton Manning joue pour les Colts. “Jouer pour” est une relation, il en existe 280 autres dans le programme. Le nombre de catégories et de relations a plus que doublé depuis le début de l’année, et il est en expansion constante.
nellapprend
Image : La liste des derniers faits appris par Nell sont disponibles sur Twitter.
Les faits appris sont continuellement ajoutés dans la base de données de NELL, que les chercheurs ont appelée base de connaissance. Selon Tom Mitchell, plus le nombre de faits appris sera important, plus il sera possible d’affiner l’algorithme d’apprentissage de NELL, de sorte qu’il augmente son efficacité et la précision de ses recherches de faits sur le Web.
Les chercheurs ont commencé par construire une base de connaissance, remplissant chaque type de catégorie ou de relation avec une quinzaine d’exemples avérés. Dans la catégorie des émotions, par exemple : “la colère est une émotion”, “la félicité est une émotion”, et une douzaine d’autres faits.
Ensuite, NELL part au travail. Ses outils incluent des programmes qui extraient et classifient des phrases rencontrées sur le Web, des programmes qui cherchent des modèles et des corrélations, et des programmes qui apprennent les règles. Par exemple, quand le système lit “Mont Ventoux” (j’ai francisé), il étudie la structure : deux mots, chacun commençant par une majuscule, et le premier mot est “Mont”. Cette structure suffit à rendre probable le fait que le “Mont Ventoux” soit une montagne. Mais NELL lit aussi de plusieurs manières. Il exploitera aussi des phrases qui entourent “Mont Ventoux” et des syntagmes nominaux qui reviennent dans un contexte semblable. Par exemple “J’ai grimpé X”.
NELL, explique Tom Mitchell, est conçu pour être capable d’examiner des mots dans des contextes différents, en parcourant une échelle de règles lui servant à résoudre l’ambiguïté. Par exemple, la phrase “J’ai grimpé X”, apparaît souvent suivie du nom d’une montagne. Mais quand NELL lit “J’ai grimpé les escaliers”, il a d’abord appris avec une quasi-certitude que le mot “escaliers” appartient à la catégorie “élément de construction”. Il se corrige à mesure qu’il a plus d’information, à mesure qu’il a plus appris.
Néanmoins, explique Tom Mitchell, il y a des types d’apprentissage que NELL n’arrive pas à assimiler aujourd’hui. Prenons deux phrases “La fille a attrapé le papillon avec des taches” et “La fille a attrapé le papillon avec le filet”. Dans la deuxième phrase, un lecteur humain comprend immédiatement que la fille tient le filet, et dans la première, que c’est le papillon qui est tacheté. C’est évident pour un être humain, pas pour un ordinateur. “Une grande partie du langage humain repose sur la connaissance, explique Mitchell, une connaissance accumulée au fil du temps. C’est là où NELL est dépassé, et le défi est maintenant de lui faire obtenir cette connaissance.”
L’aide humaine peut être, à l’occasion, une partie de la réponse. Pendant les six premiers mois de son activité, NELL a fonctionné sans assistance. Mais l’équipe de chercheurs a remarqué que s’il s’en tirait bien avec la plupart des catégories et relations, dans un quart des cas, sa précision était très mauvaise. A partir de juin, les chercheurs ont commencé à scanner chaque catégorie et relation pendant cinq minutes tous les 15 jours. Quand ils trouvaient des erreurs flagrantes, ils les répertoriaient et les corrigeaient, puis remettaient le moteur d’apprentissage de NELL au travail. Quand, récemment, Tom Mitchell a scanné la catégorie “produits de boulangerie et pâtisserie”, il a identifié une de ces erreurs. Au début, NELL était dans le vrai, identifiant toutes sortes de tartes, de pains, et de gâteaux comme des “produits de boulangerie et pâtisserie”. Mais les choses se sont compliquées quand le classificateur de NELL a décidé de ranger “Internet cookies” dans cette catégorie des pâtisseries. NELL a lu la phrase : “J’ai détruit mes cookies Internet”. Donc, quand il a lu la phrase “J’ai détruit mes dossiers”, il a décidé que “dossiers” était sans doute une pâtisserie. Une avalanche d’erreurs a suivi, explique Mitchell, il a fallu corriger l’erreur des cookies Internet et recommencer l’éducation pâtissière de NELL. L’idéal de Mitchell était un système informatique capable d’apprendre en continu sans assistance humaine. “On n’y est pas encore, ajoute-t-il, mais vous et moi n’apprenons pas non plus tout seuls.”
Beaucoup de choses sont fascinantes dans cet article, mais il semble que la conclusion est la plus intéressante. Pourquoi faudrait-il qu’une intelligence, parce qu’elle est artificielle, fonctionne sans aide ? Et si nous demandions à l’intelligence artificielle plus que ce que nous demandons à notre propre intelligence ?
Xavier de la Porte

L’émission du 10 octobre 2010 était consacrée au Laboratoire de haute sécurité (LHS) informatique de l’Inria qui a ouvert ses portes en juillet, avec Jean-Yves Marion, son directeur et Redu State, professeur et membre du LHS. Xavier de la Porte accueillait également Franck Sommer qui vient de publier aux éditions La Découverte, La pensée PowerPoint : enquête sur ce logiciel qui rend stupide, un livre pour dénoncer comme un outil de présentation est devenu une manière de représenter le monde.