2010/12/20

La sérendipité est-elle un mythe ?

La lecture de la semaine, il s’agit d’un article paru le 27 novembre dernier dans TechCrunch, sous la plume de Henry Nothaft, qui est le co-fondateur d’une entreprise qui développe un assistant personnel virtuel pour les contenus Web. Ce papier s’intitule “Le mythe de la sérendipité”.



Selon l’auteur, un des concepts les plus intéressants ayant émergé ces derniers temps dans les médias et les nouvelles technologies est celui de sérendipité. Voici comment il définit le terme de sérendipité : “le fait de montrer aux gens ce qu’ils n’étaient pas conscients de chercher”. Je me permets juste une incise : cette définition de la sérendipité est assez étrange. On aurait plutôt tendance à considérer la sérendipité comme un effet du hasard : je cherche quelque chose et, par hasard, je tombe sur autre chose qui m’intéresse aussi (Wikipédia). Or pour l’auteur, la sérendipité est quelque chose de provoqué, d’organisé.
serendipity


Image : pour Google, Serendipity est un film, une romance de 2001 signée Peter Chelsom avec Kate Beckinsale et John Cusack. Encore un hasard, pas nécessairement heureux.

L’auteur remarque l’utilisation tous azimuts de cette notion de sérendipité, tout le monde s’en réclamant. Google d’abord, et Faceboook ensuite. Avec un changement de paradigme important selon Nothaft : la recherche sous égide de Google répondait à notre attente de trouver le plus précisément ce que nous cherchions. Mais les algorithmes de pertinence sociale de Facebook nous amènent à la découverte de contenus plus personnalisés, une découverte fondée sur les relations humaines (les gens que nous connaissons et ce qu’ils sont en train de lire, regarder ou faire) : “Je dirais que nous sommes en train de voir notre principale interaction avec le web passer de la recherche à la découverte.” Une formule qui n’est pas inintéressante.
Pour en revenir à la notion de sérendipité, Nothaft reprend une définition donnée par Jeff Jarvis qui la réduit à une “pertinence inattendue”. Tout le problème étant alors, pour celui qui veut organiser la sérendipité, de savoir évaluer cette pertinence.
L’auteur se propose de définir quatre constructions possible de la sérendipité – chacun ayant des pour et des contre.
  • La sérendipité éditoriale : c’est la forme la plus ancienne, le fait de combiner des articles que nous savons vouloir lire (l’actualité du jour) avec des articles inattendus (des portraits, des critiques gastronomiques…). En ce sens, tout journal ou agrégateur de contenu fonctionne ainsi. Le côté positif, c’est que le caractère humain de cette sérendipité éditoriale (le fait que ce soit quelqu’un qui décide des contenus et de leur organisation) produit, de fait, une flexibilité dans nos intérêts. Le côté négatif, c’est que cette sérendipité éditoriale est le fruit des intérêts de quelqu’un d’autre, ou au mieux, de la perception que se fait cette personne des intérêts de son public. Ce qui n’est pas toujours fiable. C’est ce qu’on voit dans les journaux.

  • La sérendipité sociale : La plus grande part des contenus que nous découvrons aujourd’hui nous provient de ce que notre réseau d’amitié virtuelle partage en ligne. Cette manière d’accéder à l’information par des voies sociales est tout à fait valable, non seulement pour rester à la page, mais parce que ce qui intéresse nos amis est censé nous intéresser. L’avantage de cette sérendipité sociale est que notre environnement social a toujours été le premier critère pour nous définir nous-mêmes et pour définir nos intérêts. L’inconvénient est que ce type de sérendipité étant par définition publique, elle est une projection de nous-mêmes vers les autres, elle est une image de la manière dont nous voudrions être perçus par les autres. Par ailleurs, le fait que ces réseaux ne regroupent que des gens dont a priori nous partageons les intérêts contredit le but de la sérendipité, qui est la surprise et le plaisir d’une découverte inattendue. Les exemples de cela, ce sont Facebook et Twitter.

  • La “sérendipité crowdsourcée” : Faisant le pont entre la sérendipité éditoriale et la sérendipité sociale, la pertinence obtenue par le crowdsourcing repose sur le plus grand dénominateur commun. Certes, elle nous permet d’être au courant de qui est le plus populaire ou ce dont on parle le plus, mais elle n’est en aucun cas personnalisée. L’aspect positif, c’est la composante virale, c’est la manière dont elle nous met en contact avec ce qui se dit dans la population. Son côté négatif, c’est son manque de précision et son utilité limitée.

  • La sérendipité algorithmique : A l’opposé de la sérendipité éditoriale, la sérendipité algorithmique est la plus dure à obtenir, mais la plus prometteuse en termes d’innovation. A partir d’une base de données, le contenu est personnalisé pour fournir l’information et le contenu qui sont recherchés, mais aussi d’autres contenus pertinents et reliés à nos intérêts, avec différents degrés de flexibilité qui sont définis par des informations données par l’utilisateur soit activement, soit passivement. Son avantage, c’est de replacer l’usager au centre de la définition de la pertinence. La livraison des contenus émane de l’usager, que ce soit consciemment ou à partir de comportements antérieurs. Son inconvénient, c’est le risque de perdre de vue l’aspect humain, quelle que soit la finesse de l’algorithme. Et pour l’instant, les algorithmes ne sont pas assez fins.
L’auteur conclut en dénonçant ce qu’il appelle le mythe du sweet spot (on pourrait traduire par le “bon endroit”). Pour lui, le défi qui est lancé à tout type de sérendipité, c’est l’idée qu’il y aurait un “bon endroit”. Bien sûr, il est possible d’affiner les intérêts des utilisateurs et trouver le point d’équilibre de la pertinence. Mais en aucun cas cet équilibre n’est stable ou définitif. Nos intérêts évoluent sans cesse, et en temps réel. Le contenu que je veux, et mieux encore, celui que je ne sais pas encore vouloir, sont une proposition en changement constant et qui dépend d’un grand nombre de facteurs. La pertinence dépendra de la prise en compte du contexte. L’impossibilité d’une compréhension complète de toutes les subtilités d’un contexte, qui en plus évolue dans le temps, rend impossible une sérendipité parfaitement pertinente. Reconnaître que la sérendipité est une cible mouvante est ce qui est le plus sûr pour espérer atteindre un instant fugace de pertinence.

Je trouve ce texte assez incroyable. Non par la taxinomie des sérendipités qu’il propose, qui est intéressante. Ce texte est incroyable, car il montre bien comment une idée, assez belle, assez poétique, peut être détournée. La sérendipité, cette idée de la trouvaille qui est le fruit du hasard, du détour, de l’erreur, la sérendipité a été réactivée par les premiers temps du web comme un élément de sa poésie et de la fascination qu’il pouvait exercer. Que cette sérendipité ne soit plus quelque chose qui échappe, mais au contraire quelque chose d’organisé, que des entreprises utilisent cette notion pour désigner, dans les faits, le résultat d’un profilage réussi est un retournement qui, je l’avoue, me déprime.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 19 décembre 2010 était consacrée à l’inconscient du web en présence de Yann Leroux, psychanalyste et blogueur.
Voir également : “A propos de la sérendipité”, par Rémi Sussan.

2010/11/29

Demain, les réseaux sociaux d’objets

La lecture de la semaine, il s’agit d’un article du New York Observer qui date de début novembre, article que l’on doit à Ben Popper et qui s’intitule “Créer le Facebook des objets”.



L’article commence très à l’américaine, le journaliste raconte être assis en face d’une jeune entrepreneure du nom de Joe Einhorn, dans son bureau. Ils discutent. Soudain, Einhron regarde l’anneau que le journaliste porte au doigt et lui demande : “Qu’est-ce que c’est que ça ?”. Le journaliste explique porter à son majeur la réplique d’une vieille chevalière gravée des initiales de son grand-père. Le grand-père qui avait perdu l’original avait donc fait faire une réplique, avant de retrouver la bague quelques années plus tard. La réplique fut offerte à Ben Popper pour l’anniversaire de ses 25 ans. A ce récit, et tout en faisant tourner l’anneau dans la paume de sa main, Joe Einhorn répond : “Vous voyez, ça dit beaucoup d’une personne”.
“Pour Einhorn, reprend Popper, chaque objet a une provenance, une histoire, qui exercent un attrait puissant sur les gens qui l’entourent. Mettre tout çà dans une base de données numérique, pense-t-il, donnerait un nouveau visage au Web.”

“Google, poursuit le journaliste, a créé le plus gros moteur de recherche du monde en trouvant la meilleure manière de classer les relations entre les milliards de pages qui constituent le Web. Facebook est devenu le plus gros réseau social au monde en construisant le système permettant de comprendre le mieux les identités et les relations des gens qui utilisent le Web. Une base de données qui permettrait aux usagers d’identifier et de chercher tous les objets du monde serait aussi élémentaire, et aussi profitable. Au lieu de seulement cataloguer leurs amis sur Facebook, les usagers pourraient commencer à construire aussi l’inventaire de leurs biens. En lien avec cela, serait inévitablement inclus le fait de pouvoir partager, échanger, vendre ou acheter.”

“Je vois les objets comme au dernier territoire vierge de l’espace numérique”, explique Joe Einhorn.
Et son projet, c’est de conquérir ce territoire. Ce projet a un nom -Thing daemon -, le démon des objets, raccourci en Thingd. Un démon est un programme informatique qui fonctionne en arrière-plan, que l’on nomme ainsi en référence au concept grec. Pour les Anciens, un démon était ce qu’on ne voyait pas, mais qui était toujours présent et toujours au travail. Le démon est une partie du plan de Einhorn pour construire la base de données mondiale des objets. Les programmes qu’il est en train de développer avec son équipe parcourent le web en continu, examinant les images, identifiant les objets en se fondant sur les textes qui l’entourent, sur les tags, mais aussi sur la forme, la taille et la couleur des images elles-mêmes. “Nous avons des centaines de millions d’objets dans notre base de données, explique Joe Einhorn, et nous en ajoutons plus de deux millions par semaine.”

thingdaemon
Image : Homepage de l’un des services de Thing Daemon.

Mais, remarque le journaliste, une base de données n’est pas très intéressante, ni même efficace, s’il n’y a pas quelque chose au-dessus d’elle, et si les gens ne se mettent pas à l’utiliser. L’interaction humaine autour de ces objets est ce qui pourra élever Thing deamon au dessus de Google et d’Amazon et aidera le logiciel à identifier de manière plus sûre les éléments et les marques.
Le but, explique Einhorn, est de suivre le modèle de Facebook. “Nous devions d’abord avoir une base de données solide. Maintenant, nous sommes prêts à commencer la construction de la plateforme.” Et Einhold a déjà développé deux plates-formes. The Fancy, un site qui s’intéresse à la mode, permet aux usagers de taguer les objets, et manifestement, le site a du succès. Un autre Plastastic, va tenter de provoquer le même enthousiasme chez les collectionneurs de jouet. Un site sur les comics va bientôt être mis en ligne. Et Einhorn pense rapidement permettre aux gens de créer des applications ou des sites autour des objets qui sont contenus dans la base de données.
Pour penser ce travail de mise en relation sociale des objets, Einhron a reçu le soutien de Jack Dorsey et Chris Hughes qui ont participé respectivement à la fondation de Twitter et de Facebook. C’est dire que ce n’est pas un petit projet.

Il faut attendre la fin du papier pour comprendre à quel type de relations sociales pense Einhorn quand il pense à des liens qui passerait par les objets : “Qui peut dire comment on devrait être relié les uns aux autres ? demande-t-il au journaliste de The Observer. Ce n’est pas aussi simple que le fait de bien aimer quelqu’un et d’en faire son ami. Le commerce est le coeur de beaucoup de ces relations et ça complique tout.”
L’anecdote finale est tout aussi ambiguë : Einhorn raconte au journaliste un article qu’il a lu récemment.
L’article raconte l’histoire d’un tableau qui est tombée derrière un canapé. Bien des années après, la famille bouge les meubles, et regarde le tableau avec un nouvel oeil. D’éminents historiens de l’art y voient un Michel-Ange, qui vaut probablement des millions. Pour Einhorn, il est évident que le vieux canapé est un acteur de l’histoire aussi intéressant que l’inestimable tableau.”

Quelques mots sur ce papier. A première vue, je trouve l’idée d’un Facebook des objets assez belle et même, une sorte d’équivalent numérique du “Parlement des choses”. Chez Bruno Latour, le “Parlement des choses” était, ou serait, le moyen de donner une représentation politique aux choses. Je trouve assez belle l’idée d’utiliser le modèle de Facebook pour donner une sorte de sociabilité aux objets, de pouvoir cartographier le réseau d’un objet, c’est-à-dire aussi une sorte d’histoire et de géographie de ces objets. Avec ce paradoxe, mais qui n’est qu’apparent, que le numérique, qui est souvent dénoncé comme lieu d’une dématérialisation, soit le lieu qui permette cela. Mais je n’ai pas l’impression que le projet soit vraiment celui-là. En fait, je ne comprends pas bien l’idée. Est-ce qu’il s’agit de faire sortir les objets du rapport strictement matérialiste que nous entretenons avec eux ? Pourquoi pas. Ou est-ce qu’il s’agit de passer par les objets pour créer un vaste réseau social (ou une multiplicité de réseaux sociaux de niche) qui dépasse Facebook parce qu’au fond, selon Einhorn, le plus fort rapport que les hommes entretiennent entre eux passe par les objets, leur échange et leur commerce ? Ce qui serait une hypothèse assez déprimante.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 28 novembre 2010 était consacrée au Net(art) avec le sociologue Jean-Paul Fourmentraux, qui vient de publier Art et internet, les nouvelles figures de la création et à “la modélisation des imaginaires”, du nom de la Chaire d’enseignement et de recherche que vient d’inaugurer Pierre Musso.

2010/11/16

Little Brothers contre Big Brother

La lecture de la semaine il s’agit d’une tribune parue dans le New York Times le 17 octobre dernier. On la doit à Walter Kirn : Walter Kirn n’est pas journaliste, c’est un romancier et critique littéraire américain. Son papier est intitulé “Little Brother is watching”, “Little Brother vous regarde”.



“Dans le 1984 de George Orwell, commence Walter Kirn, le but des technologies de la communication était brutal et direct : assurer la domination de l’Etat. Les sinistres “télécrans” placés dans les foyers, et directement contrôlés par l’Etat, vomissaient la propagande et organisaient la surveillance d’une population réduite à la passivité. Face à une surveillance de tous les instants, les gens n’avaient pour solution que d’atténuer au maximum leur comportement, dissimuler leurs pensées et être des citoyens modèles.

Il s’avère aujourd’hui, poursuit Kirn, que ce scénario était vieillot, grossièrement simpliste, et profondément mélodramatique. Comme Internet le prouve chaque jour, ce n’est pas à un Big Brother sombre et monolithique que nous avons affaire, mais à une longue cohorte de fringants Little Brothers, équipés d’outils auxquels Orwell n’aurait jamais rêvé et qui ne servent aucune autorité organisée. L’invasion de la vie privée – celle des autres, mais aussi la nôtre, quand nous tournons nous-mêmes les objectifs sur nous pour attirer l’attention par tous les moyens – s’est démocratisée.

Pour Tyler Clementi, l’étudiant de la Rutgers University qui s’est récemment suicidé après qu’une vidéo de ses ébats a été postée sur le Web (voir l’histoire racontée sur Slate), Little Brother a pris la forme d’un colocataire indiscret doté d’une webcam. Le voyeur n’avait pas d’autre agenda que la bêtise juvénile, mais son action a eu des conséquences plus violentes que l’espionnage oppressif d’une dictature. Le colocataire a, semble-t-il, agi sous l’impulsion, au moins au départ, et sa transgression ne pouvant pas être anticipée, elle a laissé sa victime sans défense. Clementi, à l’inverse du Winston Smith d’Orwell, qui se cachait des télécrans dès qu’il le pouvait et qui avait compris que le prix de son individualité était une autocensure et une vigilance continuelles, n’avait aucun moyen de savoir que les murs avaient des yeux. L’observateur invisible non plus ne pouvait anticiper la conséquence ultime de son intrusion.

Dans 1984, l’abolition de l’espace privé faisait partie d’une politique générale alors qu’aujourd’hui, elle n’est le plus souvent qu’un effet secondaire d’une bonne humeur en réseau. L’âge de la “vidéo virale”, quand les images d’une tranche de vie peuvent faire le tour du globe en une nuit, fait surgir l’anarchiste en chacun de nous. Parfois, les résultats sont opportuns, bénins, et l’intrus fait une faveur à son sujet en lui garantissant par exemple une popularité instantanée.
Il arrive aussi, bien sûr, que Little Brother rende un vrai service à la société en braquant les projecteurs sur l’Etat et en permettant de surveiller les surveillants.

Dans l’Youtube-topie post-idéologique qu’Orwell ne pouvait pas prévoir, l’information s’écoule dans toutes les directions et le fait comme il lui plaît, pour le meilleur et pour le pire, en ne servant aucun maître et n’obéissant à aucun parti. Les télécrans, petits, mobiles et ubiquitaires, semblent par moment fonctionner indépendamment, dans des buts qui leur sont propres et qui demeurent mystérieux.

accidentdanslesruesderio

Ce matin, raconte Walter Kirn, quand je me suis assis à mon bureau et que j’ai allumé mon ordinateur pour me mettre au travail, j’ai été distrait par une histoire qui racontait qu’une caméra de Google Street View montrait les images d’un corps gisant ensanglanté dans une rue du Brésil. J’ai cliqué sur le lien, incapable de faire autrement, et est apparue cette image affreuse. Pendant un instant, je me suis senti voyeur, et spirituellement sali par ce que je voyais. L’instant d’après, je regardais la météo et mes mails.

Big Brother lui-même n’était pas aussi insensible. Lui au moins avait un mobile pour espionner : maintenir l’ordre, consolider ses positions et éteindre les rebellions éventuelles. Mais moi, et les innombrables autres Little Brothers, nous n’avons aucune notion très claire de ce que nous cherchons. Une fugace sensation d’omnipotence ? Les gratifications d’une vaine curiosité ? Notre circulation constante dans les images volées, tantôt comme consommateurs, tantôt comme producteurs (mais y a-t-il encore une différence significative entre les deux ?) ajoute encore à cette histoire insensée. Est-ce tragique ? Parfois.

Notre société est fragmentée, infiniment divisée en parties hostiles et continuellement remuée de l’intérieur par ces mêmes technologies qui, dans le roman d’Orwell, assuraient une stabilité terne et sourde. D’une certaine manière, sa vision cauchemardesque de la surveillance d’Etat était cosy et rassurante en comparaison de ce que nous vivons. Big Brother étouffait la dissidence en poussant à la conformité ses sujets effrayés, mais ses offenses étaient prévisibles et l’on pouvait s’en débrouiller. Qui plus est, ses assauts contre la vie privée laissaient intact le concept même de vie privée, autorisant la possibilité qu’un renversement du pouvoir permet aux gens de retrouver leur vie privée.

Little Brother ne nous offre pas la même chance, en grande partie parce qu’il réside à l’intérieur de nous et non pas dans des quartiers généraux retirés et bien surveillés. Dans ce nouveau et chaotique régime où les objectifs et les micros sont dirigés dans toutes les directions et tenus par toutes les mains – ce qui nous permet des les pointer sur nous-mêmes aussi bien que sur un autre -, les sphères du privé et du public sont si confondues qu’il est plus facile de considérer qu’il n’existe plus qu’une seule et unique sphère. Sans lieu pour se cacher, il faut sans cesse jouer un rôle, et laisser de côté ces notions vieillottes de discrétion et de dignité. Si Tyler Clementi s’était souvenu de cela – qu’il fallait livrer sa vie personnelle à la machine et assumer, avec Shakespeare, que le monde est une scène – il aurait haussé les épaules à sa mésaventure et fait de son existence un reality show. Il aurait invité Little Brother dans sa chambre au lieu de choisir de se retirer de la seule manière qu’il croyait possible.”

Telle est la conclusion assez déprimante de cet article du New York Times. Ce que Walter Kirn appelle “Little Brother” avec, il faut le dire, un sens assez aigu de la formule, d’autres l’appellent sousveillance et il est notable que l’idée fasse son chemin. Ils sont de plus en plus nombreux (comme Jean-Gabriel Ganascia) à dénoncer cette surveillance horizontale. Et ça n’est pas sans poser problème. S’il paraît assez évident qu’une surveillance de tous par tous, avec la possibilité de rendre publique en une seconde tout acte de l’autre, est assez effrayante, je m’inquiète tout autant de la tendance qu’il y a à considérer cette menace comme plus forte, et plus présente, que la menace plus classique de la surveillance par en haut. Tendance dont cet article est reflet le plus parfait, quand Kirn explique que la surveillance d’Etat apparaît désormais comme “cosy et rassurante”. Nous vivons dans un pays, et il n’est pas le seul, où le nombre de fichiers augmente sans cesse, où l’on peut manifestement faire écouter des journalistes sans que cela ne concerne le Président de la République et dans ce pays, il faudrait plus craindre le téléphone portable de son voisin. Je ne suis pas certain. Je ne crois pas, à l’inverse de Walter Kirn, que les Little Brothers soient plus inquiétants qu’un Big Brother. Je ne crois pas qu’il faille instaurer une hiérarchie des dangers, tant les mobiles, moyens et conséquence de l’un et de l’autre sont distincts. Au risque d’oublier que la sousveillance est aussi, malgré toutes les dérives possibles, un outil de lutte contre la surveillance.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 14 novembre 2010 était consacrée au journalisme de données en compagnie de Caroline Goulard, cofondatrice d’Actuvisu.fr et de Dataveyes, start-up de visualisation interactive de données, Nicolas Kayser-Bril, responsable du data-journalisme sur Owni.fr et Jean-Christophe Féraud, chef du service high-tech et média du quotidien Les Échos et auteur du blog Sur mon écran radar.

2010/11/08

Quand nos gadgets connaîtront nos émotions

La lecture de la semaine, il s’agit, cela faisait longtemps, du dernier édito de Clive Thompson dans la magazine américain Wired. Il est intitulé : “des gadgets qui savent ce que nous ressentons”.



Beverly Woolf, commence Thompson, est une chercheuse en informatique qui étudie l’enseignement par ordinateur. Elle crée des logiciels intelligents capables de s’adapter automatiquement à la vitesse d’apprentissage de l’élève. Ces programmes marchent plutôt bien : les enfants qui utilisent ces autotuteurs en math progressent beaucoup plus vite que les autres.
Cependant, il y a un problème : les autotuteurs n’arrivent pas à déceler si l’élève est fatigué ou déçu. Un enseignant normal le perçoit immédiatement et peut intervenir. Woolf a donc décidé de s’attaquer à ce problème en créant un ordinateur qui puisse sentir les émotions de l’élève.
Elle a donc équipé les ordinateurs de détecteurs d’expression capable de suivre le regard de l’élève. Elle a installé des capteurs sur les chaises pour détecter la posture des enfants et a fourni aux élèves des bracelets mesurant la réponse énergétique sur la peau. Si le logiciel d’enseignement identifie une perte d’intérêt chez l’élève, il donne un encouragement, change de problème ou en donne un plus facile, comme le ferait un enseignant humain.
emotiondeseleves

Images : Comprendre l’émotion des élèves avec les autotuteurs du Centre pour la connaissance de la communication de Beverly Woolf. Image extraite d’une des communications de l’auteur.

Et ça marche. Le logiciel arrive dans 80 % des cas à identifier l’émotion des élèves et à la fin d’une leçon de 15 minutes, les utilisateurs de ces autotuteurs sont trois fois plus engagés et concentrés que des enfants qui ont travaillé sur des ordinateurs qui ne sont pas équipés.
Si un élève est émotionnellement troublé ou s’il est frustré, il n’apprendra pas”, explique Woolf. “Si nous voulons donc avoir des tuteurs qui soient performants et intelligents, il faut qu’ils soient capables de percevoir ces états.”
Bonne idée. Et pourquoi s’arrêter là ? se demande Thompson. Je pense, ajoute-t-il, que tous nos logiciels et tout notre matériel informatique fonctionneraient mieux s’ils comprenaient nos émotions. Il faut une “émo-révolution” high-tech.
Aujourd’hui, les ordinateurs se comportent comme des domestiques limités et maladroits, avides de rendre service, certes, mais échouant par absence de tout sens commun émotionnel. C’est particulièrement notable dans la manière dont le logiciel vous interrompt : vous avez finalement réussi à vous concentrer sur un problème, vous êtes dans le truc et “ding”, retentit l’alerte e-mail.
Eric Horvitz, poursuit Thompson, est chercheur chez Microsoft, il a passé des années à développer une Intelligence artificielle qui puisse prévenir cet inconvénient. En observant tout, de votre agenda au bruit ambiant dans votre bureau, le logiciel décide si c’est le moment de vous interrompre. Si vous êtes occupé, il repousse l’alerte à plus tard et attend un nouvel e-mail avant de se décider à faire retentir l’alerte. En ce moment, la technique d’Horvitz fait fonctionner un assistant virtuel en 3D qui est posté à l’extérieur de son bureau et fait savoir aux visiteurs s’il est occupé ou pas.

Un logiciel sensible à l’émotion peut vous faire gagner du temps, il pourrait aussi vous sauver la vie. Clifford Nass, un expert en interaction homme-machine de l’université de Stanford, a créé un véhicule qui analyse les modèles de conduite pour reconnaître quand son conducteur devient trop nerveux au volant. Les conducteurs en colère ont un champ de vision restreint, la voiture le sachant, elle peut compenser en attirant l’attention sur des risques de collision potentielle provenant des côtés.
Des projets comme ceux-ci sont encore dans les laboratoires. Mais ils ne devraient pas y rester longtemps, parce que les gadgets d’aujourd’hui – en particulier les smartphones – sont pleins de technologies qui sont mures pour la détection des émotions : les capteurs de mouvement qui savent si vous êtes en train de courir à toutes jambes ou d’être tranquillement assis, ou le GPS qui peut dire si vous êtes dans votre bureau ou dans un bar.
Evidemment, il n’est pas toujours facile de trouver la manière de répondre aux émotions. C’est même un problème pour beaucoup d’être humains. Mais si on y parvient, je prédis, conclut Clive Thompson, que nous verrons très vite apparaître toute une moisson de nouveaux services : des lecteurs MP3 qui adaptent leur playlist à votre humeur, des téléphones qui retiennent les textos si vous êtes dans une conversation en tête à tête particulièrement intense. Nos ordinateurs sont restés des robots trop longtemps ; il est temps qu’ils s’adoucissent.”

Voilà pour le dernier édito en date de Clive Thompson dans Wired. Au départ, je me suis dit que j’allais vous le lire pour mettre fin à une série de textes assez critiques, je me suis dit qu’il fallait réinsuffler un peu d’optimisme technologique, et dans ce cas, c’est souvent dans Wired qu’on le trouve. Mais au fur et à mesure de la traduction de ce papier de Thompson, l’enthousiasme a laissé place à un léger malaise. Puis un malaise carrément lourd. Car je ne suis pas du tout certain que l’horizon imaginé par Clive Thompson soit désirable. Au fond, je n’aime pas l’idée que nos technologies soient en phase avec nos émotions. Qu’un tuteur automatique sache s’adapter à la capacité de l’attention de l’élève pourquoi pas, mais que mon lecteur MP3 établisse une playlist en fonction de ce qu’il interprète de mon état émotionnel, ou que mon téléphone croie savoir quand il peut me signaler les textos arrivant, je ne suis pas sûr que ce soit souhaitable. Et même, je trouve plus intéressant dans le rapport à la technologie les deux attitudes que sont la volonté (je peux éteindre mon téléphone si je veux être tranquille, je peux choisir moi-même d’écouter Barbara si j’ai envie de pleurer) ou le hasard (un texto arrive quand il arrive, la fonction random du lecteur MP3 choisit des musiques au hasard). Je ne vois pas comment la machine pourrait savoir mieux que moi ce qui est bon pour moi. Parce qu’il ne me semble pas y avoir de corrélation automatique entre un état émotionnel et un désir. La tristesse n’entraîne pas forcément l’envie d’écouter Barbara, ça peut être l’inverse exact. Bref, savoir ce qui est bon pour nous est l’apprentissage d’une vie, je ne vois pas comment la machine pourrait être programmée à la savoir. Sauf à devenir une sorte de parent qui décide pour son enfant en fonction de ce qu’il croit être son bien, et qui décide le plus souvent en fonction de ce qu’il considère comme devant être la norme. Mais là, c’est encore un autre problème.
Xavier de la Porte
Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 7 novembre 2010 était consacrée au thème “Vivons-nous vraiment une révolution ?” en compagnie de Dominique Cardon, auteur de La Démocratie internet, parue au Seuil, et de Christophe Deshayes, co-auteur avec Michel Berry des Vrais révolutionnaires du numérique, paru aux éditions Autrement.

2010/11/02

Programmer ou être programmé ?

Program-webLa lecture de la semaine, il s’agit du résumé d’une intervention orale (vidéo) donnée par Douglas Rushkoff (blog) lors d’une conférence qui avait lieu le 14 octobre dernier. Douglas Rushkoff est un essayiste américain, écrivain, conférencier, il est connu pour la dizaine de livres qu’il a écrits, notamment sur la question des nouveaux médias, ses idées le rapprochant des mouvements cyberpunk et de l’open source. Le titre de cette intervention “Programmer ou être programmé” est également le titre de son dernier livre (Amazon).

“Quand je regarde le monde, commence Rushkoff, quand je regarde l’économie, la religion, la politique ou les entreprises, j’ai le sentiment que nous tentons de faire fonctionner notre société sur des codes obsolètes, sur des logiciels – et je ne parle pas seulement des logiciels qui sont dans nos ordinateurs, mais aussi des logiciels sociaux – sur des logiciels que nous avons hérité de systèmes dont nous n’avons plus aucun souvenir. Ces logiciels sont parfaitement inappropriés à ce qu’il faut faire, à ce que nous voulons faire. Et si nous ne pouvons pas comprendre ces programmes, les programmes qui sont dans ordinateurs, nous n’avons aucune chance de comprendre les programmes qui sont à l’extérieur de nos ordinateurs. Si nous ne pouvons pas voir à l’intérieur de l’ordinateur, on ne se rendra jamais compte que le monde extérieur fonctionne sur des codes obsolètes.”






D’où l’énoncé de sa thèse : “Si vous n’êtes pas un programmeur, vous êtes programmé. C’est aussi simple que cela”.

A l’appui de cette thèse, Douglas Ruskhoff se lance dans une rapide histoire de l’humanité, vue à travers l’évolution des médias. “Au début étaient des gens qui vivaient dans un monde dont ils ne connaissaient pas les règles et qui essayaient de faire de vagues prédictions… Vinrent l’écriture, un alphabet et des textes, on ne dépendait donc plus de prêtres qui lisaient pour nous, nous avons pu fabriquer nos propres mots. Puis, arriva l’imprimerie, qui en théorie nous permettait de ne plus dépendre que de quelques scribes, et donnait à tous la possibilité d’écrire. Et enfin, nous avons aujourd’hui l’ordinateur qui bien sûr ouvre à tous la possibilité de programmer la réalité.”

Mais, dans les faits, explique Rushkoff, ce n’est pas ce à quoi nous assistons.
Il poursuit : “Nous avons eu des textes, l’alphabet, et quelle société en a résulté ? Des gens sont allés sur les places publiques pour faire la lecture aux autres. Nous avions la capacité de lire, nous avions la technologie pour cela, et cela ne changea rien au fonctionnement qui avait prévalu auparavant. Même chose avec l’imprimerie. Est-ce que tout le monde est devenu écrivain avec l’imprimerie ? Non. Nous avons eu une civilisation de lecteurs, où seule une élite écrivait.

Maintenant, nous avons l’ordinateur. Est-ce que cela a construit une civilisation de programmeurs ? Non. Non avons une civilisation de blogueurs. Nous avons aujourd’hui la capacité d’écrire, mais nous ne savons pas programmer. Nous nous contentons d’écrire dans la case que nous offre Google.”
Rushkoff en tire comme conclusion qu’à chaque irruption d’un nouveau média, la civilisation donne l’impression de rester un pas en arrière, d’être en retard d’une génération au moins. A chaque fois, le phénomène est le même : des possibilités énormes sont offertes par un nouveau média et seule une élite apprend vraiment à l’utiliser.

“Et aujourd’hui, c’est plus important encore que ça ne l’a jamais été. Je le dis, affirme Douglas Rushkoff, programmer est plus important que savoir utiliser l’imprimerie. Le texte nous a donné le judaïsme, l’imprimerie nous a donné le protestantisme, qu’est-ce que nous donnera l’ordinateur ?”

“Nous vivons un moment extraordinaire, poursuit Ruskhoff, où il est possible de programmer l’argent, où il est possible de programmer la société. Mais pour faire cela, nous devons comprendre à la fois les programmes que nous utilisons, et les codes et les symboles avec lesquels nous travaillons, et nous devons comprendre ensuite comment tout cela se lie. Si nous ne construisons pas une société qui sait au moins qu’il y a quelque chose qui s’appelle la programmation, nous finirons par ne pas être les programmeurs, mais les utilisateurs, ou, pire, les utilisés.”

Telle est la conclusion de ce prêche de Douglas Rushkoff. On peut sourire du ton et des raccourcis historiques, il n’empêche qu’il n’est pas le seul, ni le premier, à défendre cette idée. Il y a dix ans déjà, Lawrence Lessig disait à peu près la même chose dans son très beau texte “code is law”, “le code est la loi”. L’apprentissage de la programmation informatique comme outil d’émancipation, comme une nouvelle alphabétisation qui permettrait à chacun de comprendre, et d’intervenir dans le monde qui l’entoure, voilà un programme politique qu’il ne serait pas inintéressant de voir apparaître en 2012.
Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 31 octobre 2010 était consacrée à Wikileaks avec Olivier Tesquet et Pierre Romera d’Owni qui ont développé une application pour parcourir, évaluer, classer les milliers de documents secrets de l’armée américaine mis en ligne par le site Wikileaks, ainsi qu’à l’internet et l’imaginaire du voyage en compagnie de Stéphane Hugon, sociologue, chercheur au Centre d’Etude sur l’Actuel et le Quotidien à la Sorbonne où il enseigne la sociologie de l’imaginaire. Il est l’auteur de Circumnavigation, L’imaginaire du voyage dans l’expérience Internet, livre dans lequel il s’interroge sur les raisons pour lesquelles internet a été accueillie avec autant de facilité, aussi vite, et par un nombre aussi considérable de gens. Son hypothèse : l’expérience d’internet mobilise des imginaires présents dans notre modernité, à commencer par l’imaginaire du voyage, de la flânerie, du vagabondage… Si Internet bouleverse, s’il modifie profondément notre rapport au temps, à l’espace, au sujet, c’est parce qu’il prolonge ces imaginaires ancrés dans notre histoire culturelle.

2010/10/11

Quand la machine apprend le langage

La lecture de la semaine, il s’agit d’un article du New York Times, dernier article en date d’une série consacrée à l’intelligence artificielle et à ses impacts potentiels sur la société. Celui que j’ai choisi de traduire concerne l’apprentissage du langage par la machine, un enjeu essentiel dans le cadre de ce qu’on appelle depuis quelques années déjà le web sémantique.




L’article commence par rappeler que si l’on donne à un ordinateur une tâche qui est clairement définie – comme gagner aux échecs ou prédire le temps qu’il fera demain – la machine dépasse l’homme de manière presque systématique. Mais quand les problèmes comportent des nuances et des ambiguïtés, ou qu’ils exigent de combiner plusieurs sources d’information, les ordinateurs n’égalent pas l’intelligence humaine.
Parmi ces problèmes compliqués à résoudre pour l’ordinateur, il y a évidemment la compréhension du langage. Une des raisons de la complexité qu’il y a à comprendre le langage est que le sens des mots et des phrases ne dépend pas seulement de leur contexte, mais aussi d’une connaissance que les êtres humains acquièrent au fil de leur vie.
Or, nous apprend l’article, depuis le début de l’année, une équipe de chercheurs de l’université de Carnegie Mellon est en train d’élaborer un système informatique qui tente d’apprendre la sémantique à la manière d’un être humain, c’est-à-dire “de manière cumulative, et sur le long terme”, comme l’explique Tom Mitchell, qui dirige le projet. Cette machine – qui calcule 24 heures sur 24 et 7 jours sur 7 – est abritée dans le centre informatique de cette université de Pittsburgh. Les chercheurs l’ont doté d’une connaissance de base et, depuis 10 mois, elle est lâchée sur le web avec la mission de s’y instruire par elle-même.
Ce système s’appelle NELL, acronyme de Never ending Language Learning System. Et d’après le journaliste du New York Times, Steve Lhor, jusqu’ici, les résultats sont impressionnants. NELL scanne des millions de pages Web dont il fait des textes-modèles qu’il utilise pour apprendre des faits. En quelques mois, il a appris 390 000 faits, avec une exactitude estimée à 87 %. Ces faits sont regroupés dans différentes catégories sémantiques : villes, entreprises, équipes de sport, acteurs, universités, plantes, et 274 autres. Dans chaque catégorie, les faits appris sont des choses comme “San Francisco est une ville” ou “le tournesol est une plante”.
NELL apprend aussi des faits qui sont des relations entre les membres de deux catégories différentes. Par exemple : “Peyton Manning est un joueur de foot”. “Les Colts d’Indianapolis est une équipe de foot”. En scannant des textes-modèles, NELL peut en déduire avec un fort taux de probabilité que Peyton Manning joue pour les Colts d’Indianapolis – même s’il n’a jamais lu que Peyton Manning joue pour les Colts. “Jouer pour” est une relation, il en existe 280 autres dans le programme. Le nombre de catégories et de relations a plus que doublé depuis le début de l’année, et il est en expansion constante.
nellapprend
Image : La liste des derniers faits appris par Nell sont disponibles sur Twitter.
Les faits appris sont continuellement ajoutés dans la base de données de NELL, que les chercheurs ont appelée base de connaissance. Selon Tom Mitchell, plus le nombre de faits appris sera important, plus il sera possible d’affiner l’algorithme d’apprentissage de NELL, de sorte qu’il augmente son efficacité et la précision de ses recherches de faits sur le Web.
Les chercheurs ont commencé par construire une base de connaissance, remplissant chaque type de catégorie ou de relation avec une quinzaine d’exemples avérés. Dans la catégorie des émotions, par exemple : “la colère est une émotion”, “la félicité est une émotion”, et une douzaine d’autres faits.
Ensuite, NELL part au travail. Ses outils incluent des programmes qui extraient et classifient des phrases rencontrées sur le Web, des programmes qui cherchent des modèles et des corrélations, et des programmes qui apprennent les règles. Par exemple, quand le système lit “Mont Ventoux” (j’ai francisé), il étudie la structure : deux mots, chacun commençant par une majuscule, et le premier mot est “Mont”. Cette structure suffit à rendre probable le fait que le “Mont Ventoux” soit une montagne. Mais NELL lit aussi de plusieurs manières. Il exploitera aussi des phrases qui entourent “Mont Ventoux” et des syntagmes nominaux qui reviennent dans un contexte semblable. Par exemple “J’ai grimpé X”.
NELL, explique Tom Mitchell, est conçu pour être capable d’examiner des mots dans des contextes différents, en parcourant une échelle de règles lui servant à résoudre l’ambiguïté. Par exemple, la phrase “J’ai grimpé X”, apparaît souvent suivie du nom d’une montagne. Mais quand NELL lit “J’ai grimpé les escaliers”, il a d’abord appris avec une quasi-certitude que le mot “escaliers” appartient à la catégorie “élément de construction”. Il se corrige à mesure qu’il a plus d’information, à mesure qu’il a plus appris.
Néanmoins, explique Tom Mitchell, il y a des types d’apprentissage que NELL n’arrive pas à assimiler aujourd’hui. Prenons deux phrases “La fille a attrapé le papillon avec des taches” et “La fille a attrapé le papillon avec le filet”. Dans la deuxième phrase, un lecteur humain comprend immédiatement que la fille tient le filet, et dans la première, que c’est le papillon qui est tacheté. C’est évident pour un être humain, pas pour un ordinateur. “Une grande partie du langage humain repose sur la connaissance, explique Mitchell, une connaissance accumulée au fil du temps. C’est là où NELL est dépassé, et le défi est maintenant de lui faire obtenir cette connaissance.”
L’aide humaine peut être, à l’occasion, une partie de la réponse. Pendant les six premiers mois de son activité, NELL a fonctionné sans assistance. Mais l’équipe de chercheurs a remarqué que s’il s’en tirait bien avec la plupart des catégories et relations, dans un quart des cas, sa précision était très mauvaise. A partir de juin, les chercheurs ont commencé à scanner chaque catégorie et relation pendant cinq minutes tous les 15 jours. Quand ils trouvaient des erreurs flagrantes, ils les répertoriaient et les corrigeaient, puis remettaient le moteur d’apprentissage de NELL au travail. Quand, récemment, Tom Mitchell a scanné la catégorie “produits de boulangerie et pâtisserie”, il a identifié une de ces erreurs. Au début, NELL était dans le vrai, identifiant toutes sortes de tartes, de pains, et de gâteaux comme des “produits de boulangerie et pâtisserie”. Mais les choses se sont compliquées quand le classificateur de NELL a décidé de ranger “Internet cookies” dans cette catégorie des pâtisseries. NELL a lu la phrase : “J’ai détruit mes cookies Internet”. Donc, quand il a lu la phrase “J’ai détruit mes dossiers”, il a décidé que “dossiers” était sans doute une pâtisserie. Une avalanche d’erreurs a suivi, explique Mitchell, il a fallu corriger l’erreur des cookies Internet et recommencer l’éducation pâtissière de NELL. L’idéal de Mitchell était un système informatique capable d’apprendre en continu sans assistance humaine. “On n’y est pas encore, ajoute-t-il, mais vous et moi n’apprenons pas non plus tout seuls.”
Beaucoup de choses sont fascinantes dans cet article, mais il semble que la conclusion est la plus intéressante. Pourquoi faudrait-il qu’une intelligence, parce qu’elle est artificielle, fonctionne sans aide ? Et si nous demandions à l’intelligence artificielle plus que ce que nous demandons à notre propre intelligence ?
Xavier de la Porte

L’émission du 10 octobre 2010 était consacrée au Laboratoire de haute sécurité (LHS) informatique de l’Inria qui a ouvert ses portes en juillet, avec Jean-Yves Marion, son directeur et Redu State, professeur et membre du LHS. Xavier de la Porte accueillait également Franck Sommer qui vient de publier aux éditions La Découverte, La pensée PowerPoint : enquête sur ce logiciel qui rend stupide, un livre pour dénoncer comme un outil de présentation est devenu une manière de représenter le monde.

2010/09/27

Nous sommes notre première technologie

La lecture de la semaine, il s’agit d’un article de Kevin Kelly (blog) qui s’intitule “Les cyborgs domestiqués” commandé par le site Quiet Babylon qui a demandé à différents auteurs 50 articles autour de la question du cyborg, ce mot, cette notion, fêtant cette année le cinquantième anniversaire de son apparition. Je fais là une traduction mot à mot du texte de Kelly.



“L’union profonde entre nous, êtres humains, et nos inventions n’est pas une nouveauté, annonce Kevin Kellly. Si le terme “cyborg” désigne un être en partie biologique et en partie technologique, les humains ont toujours été des cyborgs, et le sont encore. Nos ancêtres ont d’abord ébréché des pierres il y a 2,5 millions d’années pour se faire des griffes. Il y a environ 250 000 ans, ils ont mis au point des techniques assez élémentaires pour cuisiner, ou prédigérer, à l’aide du feu. La cuisine n’est rien d’autre qu’un estomac externe additionnel. Une fois affublée de cet organe artificiel, la taille de nos dents diminua, comme celle des muscles de nos mâchoires et nous pûmes diversifier notre nourriture. Notre invention nous a changés.

302273708_f4636d8757
Image : cc. Feu et nourriture par Larry Archer.

Nous ne sommes plus les mêmes hommes que ceux qui ont quitté l’Afrique. Nos gênes ont évolué avec nos inventions. Et si l’on ne considère que ces 10 000 dernières années, nos gênes ont évolué 100 fois plus vite que pendant les 6 millions d’années qui ont précédé. Ce n’est sans doute pas une surprise. En domestiquant le chien qui descendait des loups, en sélectionnant le bétail et en cultivant le maïs, nous aussi avons été domestiqués.

Nous nous sommes domestiqués, poursuit Kelly. La taille de nos dents continue de diminuer (à cause de la cuisine, notre estomac externe), nos muscles s’amincissent, nos poils disparaissent. A mesure que nous renouvelons nos outils, nous nous renouvelons aussi. Nous évoluons conjointement à nos technologies et nous sommes devenus par là même très dépendants d’elle. Si toute technologie – chaque couteau, chaque lance – devait être retirée de cette planète, notre espèce ne survivrait pas plus de quelques mois. Nous sommes en totale symbiose avec la technologie, avance l’auteur de What Technology Wants.

Nous nous sommes très vite, et de manière significative, modifié, mais dans le même temps, nous avons modifié le monde. Depuis l’instant où nous sommes partis d’Afrique pour coloniser tout point d’eau habitable de cette planète, nos inventions ont modifié notre environnement. Les instruments et techniques de chasse des Homo Sapiens ont eu des effets d’une portée considérable : cette technologie leur a donné la possibilité de tuer en masse des herbivores (comme les mammouths ou les élans géants) dont l’extinction a modifié pour toujours l’écologie de territoires entiers. Une fois éliminés ces ruminants dominants, l’écosystème fut modifié à tous les échelons, en permettant la croissance de nouveaux prédateurs, de nouvelles espèces de plantes, jusqu’à l’apparition d’un écosystème modifié. Ainsi quelques clans d’hominidés ont-ils changé le destin de milliers d’autres espèces. Quand l’Homo Sapiens sut contrôler le feu, cette technologie particulièrement puissante modifia sur une plus grande échelle encore le terrain naturel. Une aptitude aussi minime que mettre le feu à des étendues d’herbe, le contrôler avec des feux arrière et se servir du feu pour faire cuir des graines a perturbé des régions gigantesques sur tous les continents. Et bien sûr, une fois que nous avons modifié la savane et les prairies, elles nous ont modifiés à leur tour.

Chaque espèce des 6 royaumes, ce qui revient à dire tout organisme vivant sur Terre aujourd’hui, des algues au zèbre, est également évoluée. Malgré les différences dans leur sophistication et dans le développement de leur forme, toutes les espèces vivantes ont évolué pendant le même laps de temps : 4 milliards d’années. Toutes ont été mises au défi de manière quotidienne et se sont débrouillées pour s’adapter sur des centaines de millions de générations le long d’une chaîne ininterrompue.

826342371_10cee630c1
Image : cc. Une termitière par Oliver Frank.

Beaucoup de ces organismes ont appris à construire des structures et ces structures ont permis à ces créatures de s’étendre au-delà des limites de leurs tissus. Les termitières de deux mètres de haut fonctionnent comme des organes externes de ces insectes : la température du monticule est régulée et il est réparé après chaque destruction. La boue séchée elle-même donne l’impression d’être en vie. Quant aux coraux – ces structures pierreuses qui ont l’apparence de branches d’arbre -, ils sont comme les appartements d’animaux, les coraux, presque invisibles. La structure corail et les coraux animaux ne font qu’un. Ca grandit, ça respire. L’intérieur cireux d’une ruche ou l’architecture d’un nid d’oiseaux fonctionnent de la même manière. Il est par conséquent plus juste de considérer un nid ou une ruche comme un corps construit que comme un corps qui a poussé. Un abri est une technologie animale, il est une extension de l’animal.

L’extension de l’homme, c’est le technium. Marshall McLuhan, parmi d’autres, a considéré les vêtements comme une extension de la peau humaine, les roues comme une extension des pieds, les appareils photo et les télescopes comme une extension des yeux. Nos créations technologiques sont une bonne extrapolation des corps que nos gênes façonnent. Si on suit McLuhan, on peut voir la technologie comme une extension de notre corps. Pendant l’âge industriel, il était facile de voir le monde de cette façon. Les locomotives à vapeur, la télévision, les leviers et les moteurs fabriqués par les ingénieurs furent un fabuleux exosquelette qui fit de l’homme un superman.

Mais si on y regarde de près, ajoute Kelly, il y a un défaut dans cette analogie : ces extensions, dans le règne animal, sont le résultat d’une évolution génétique. Les animaux héritent leur programmation génétique de ce qu’ils fabriquent. Pas les hommes. Les programmations de nos carapaces naissent de nos esprits qui nous amènent à créer de manière spontanée des choses que nos ancêtres n’avaient jamais fabriquées, ni même imaginées. Si la technologie est une extension de l’être humain, ce n’est pas une extension de nos gènes, mais de nos esprits. La technologie est donc une extension matérielle de nos idées.

3630753722_227775247b
Image : cc. Maelström par Seth Lassman.

Nos avons domestiqué notre humanité de la même manière que nous avons domestiqué nos chevaux. Notre nature humaine elle-même est la moisson évolutive d’une plantation effectuée il y a 50 000 ans et qui continue de pousser encore aujourd’hui. Le champ de notre nature n’a jamais été statique. Nous savons que génétiquement, nos corps changent aujourd’hui plus vite qu’ils ne l’ont jamais fait dans les millions d’années qui ont précédé. Nos esprits sont reformatés par notre culture. Sans exagération et sans employer de métaphores, nous ne sommes plus les mêmes que ceux qui ont commencé à labourer la terre il y a 10 000 ans.

Le paisible attelage d’un cheval et d’une charrue, la cuisine au feu de bois, le compost et une industrie minimale conviennent sans doute parfaitement à une nature humaine – mais à celle d’une époque agraire reculée. La dévotion contemporaine à une manière d’être aussi ancienne révèle une ignorance de la manière dont notre nature – nos volontés, nos désirs, nos peurs, nos instincts primaires, et nos aspirations les plus hautes – est remaniée par nous-mêmes et nos inventions, et elle exclut de fait les besoins de notre nature. Nous avons besoin de nouvelles taches parce qu’au plus profond de nous-mêmes, nous ne sommes plus les mêmes.

Physiquement, nous sommes différents de nos ancêtres. Nous pensons différemment. Nos cerveaux, sur le plan de la formation et des savoirs, fonctionnent différemment. Le fait de savoir lire et écrire a changé la manière dont nos cerveaux fonctionnent. Plus que nos ancêtres chasseurs-cueilleurs, nous sommes faits de l’accumulation de la sagesse, des pratiques, des traditions, de la culture de ceux qui ont vécu avant nous et de ceux qui vivent avec nous. Nous remplissons nos vies de messages qui proviennent de partout, de savoir, de loisirs envahissants, de voyage, de surplus de nourriture, d’une nutrition abondante et de nouvelles possibilités. Dans le même temps, nos gènes se pressent pour rester en contact avec la culture. Et nous augmentons encore l’accélération de ces gènes de plusieurs manières, notamment les interventions médicales comme la thérapie génique. Et même, toute tendance du technium – en particulier son aptitude croissante à évoluer – laisse préfigurer à l’avenir des changements encore plus profonds de la nature humaine. Curieusement, beaucoup des conservateurs qui refusent de voir que nous sommes en train de changer défendent aussi l’idée qu’il aurait été préférable que nous ne nous changions pas.

Pour être tout à fait clairs, nous nous sommes faits nous-mêmes. Nous sommes notre première technologie. Nous sommes à la fois l’inventeur et l’invention. Nous avons utilisé nos esprits pour nous fabriquer nous-mêmes et donc, nous, les humains d’aujourd’hui, nous sommes les premiers cyborgs. Nous nous sommes inventés. Et nous n’avons pas fini.”

Xavier de la Porte

L’émission du 26 septembre 2010 était consacrée aux liaisons numériques, en présence du sociologue Antonio Casilli (blog) à l’occasion de la parution de son livre (voir notre récente interview).

2010/09/20

L’attention, une valeur culturelle et sociale

La lecture de la semaine, il s’agit de notes prises à partir d’une intervention Tiziana Terranova, qui enseigne les media studies à l’Université de East London. Cette intervention avait lieu dans le cadre de la conférence Paying Attention qui a eu lieu en Suède début septembre organisé par l’European Science Foundation pour laquelle un blog a été mis en place pour rendre compte des différentes interventions… Je remercie Laurence Allard, qui vient régulièrement dans Place de la toile, d’avoir attiré mon attention, sur ce texte.


L’attention, note Terranova, est devenue un motif récurrent des débats sur l’économie numérique, c’est même devenu un sujet central. Un argument revient selon elle : grâce à sa capacité à produire – et reproduire – sans travail supplémentaire et à faire circuler sans coût, le numérique est à l’origine d’une abondance d’informations qui est à la base d’une nouvelle économie. Mais cela ne va pas sans nouveaux problèmes. Si l’information est abondante, elle risque de perdre toute valeur.
payingattention_banner
Et Terranova de citer un texte de l’économiste Herbert Simon (Wikipédia) datant de 1971 : “Ce que l’information consomme est assez évident : l’information consomme l’attention de ceux qui la reçoivent. Du même coup, une grande quantité d’information créée une pauvreté de l’attention et le besoin de répartir efficacement cette attention entre des sources très nombreuses au milieu desquelles elle pourrait se dissoudre.”
Selon Terranova, ce raisonnement est devenu un “régime de vérité”. L’attention est désormais une antithèse à la force de travail. Car si la force de travail est pléthorique et donc peu chère – Terranova cite Michael Goldhaber (blog) qui pense que la somme totale de l’attention humaine est intrinsèquement limitée – donc rare. Si l’on suit ce raisonnement, l’économie de l’attention est un système qui fonctionne en recherchant et en achetant ce qui est intrinsèquement limité et irremplaçable : à savoir l’attention d’autres êtres humains.
L’économie de l’attention joue comme une force économique dans la mesure où elle affecte la motivation de l’être humain, conçu alors comme un être qui par essence calcule et évalue sans cesse le coût et la valeur de l’information. Le corollaire de cela est le développement de tout un champ de recherche qui relie les neurosciences et l’économie.
Avant les années 60, l’attention était mesurée à travers des sens comme l’audition et la vision faciles à évaluer. Or aujourd’hui, la recherche scientifique sur le cerveau a développé des techniques de mesure de l’activité cérébrale pour comprendre comment fonctionne cette attention.
Beaucoup de commentateurs se sont emparés de tout cela. Nicholas Carr, le bien connu contempteur d’Internet (qui selon lui nous rendrait stupide) mêle des arguments provenant des neurosciences aux discours sur la valeur de l’attention (voir notre récente lecture sur le dernier livre de Carr, The Shallows). Selon Carr, l’usage des nouveaux médias reformate les parcours neurologiques du cerveau, de la même manière que le mutlitasking (le fait de faire plusieurs choses en même temps) et le fait d’utiliser des moteurs de recherche produisent une modification de l’activité cérébrale. L’exposition aux nouveaux médias implique selon Carr un remodelage de l’activité cérébrale. Elle rend les cerveaux des individus plus rapides, capables d’effectuer plusieurs tâches en même temps, mais elle les rend moins capables d’attention profonde. Pour Carr, les nouveaux médias ont un coût pour le cerveau. Si l’on suit cet argument, chaque fois que notre attention change d’objet, il y a un coût biologique pour notre cerveau. Selon l’argument de Carr, d’une certaine manière, l’industrie consomme le consommateur.
Dans cette vision, l’attention est considérée comme une rareté qui peut être échangée et comme une aptitude biologique. Elle est abordée sous le double angle de l’économie et des neurosciences. Or, selon Tiziania Terranova, il s’agit d’une conception restrictive de l’attention, car elle ne peut pas être séparée de sa source subjective. Elle fait un détour par Marx et Gabriel Tarde pour montrer que s’il est important de s’intéresser à la vie du cerveau, ce doit être pour redonner de la force aux valeurs de culture et de social, ces deux valeurs n’étant pas à la périphérie, mais au coeur, de ce que l’on doit considérer pour comprendre l’économie de l’attention.
L’attention est une ouverture vers l’extérieur. Il s’agit d’une rencontre qui s’effectue dans la relation : l’attention est construite conjointement par le sujet, en corrélation avec le cerveau, le corps et la myriade de connexions dans lesquelles nous sommes pris.
En conclusion, Tiziana Terranova pose que l’attention n’est pas seulement le résultat du fonctionnement d’un cerveau individuel, comme les neurosciences semblent le dire, elle ne peut pas non plus être réduite à un bien échangeable. L’attention, selon elle, est un processus dans lequel la production de valeur est inséparable de la production de subjectivité. Elle est le produit de l’invention et de la diffusion de désirs, de croyances, et d’affects qui nous sont communs.
J’avoue que le raisonnement de Tizinia Terranova est abstrait, d’ailleurs je ne suis pas certain d’en avoir saisi tous les détails. Néanmoins, je trouve intéressant que sa tentative d’interroger ce lieu commun de l’attention, fondement de cette nouvelle économie de l’attention dont on nous bassine partout, et il faut avouer que sa volonté de sortir cette question des deux champs qui l’ont accaparée, à savoir les neurosciences et l’économie, pour en faire une valeur culturelle et sociale, cette volonté, même si on n’en perçoit pas encore tous les aboutissants, est assez stimulante.

Xavier de la Porte

L’émission du 19 septembre 2010 était consacrée à la manière dont le numérique reconfigure notre intimité, dans un long et passionnant entretien avec Stefana Broadbent, ethnographe numérique que nous avions vu à Lift, responsable HCI chez IconMedialab et qui tient l’excellent Usage Watch.

2010/09/13

L’internet divise-t-il ou rassemble-t-il?

La lecture de la semaine, il s’agit de la traduction presque mot à mot d’un article de l’hebdomadaire britannique The Economist, daté du 2 septembre dernier et intitulé “a cyber-house divided” soit “la grande maison virtuelle est divisée”. Il a pour mérite d’apporter quelques réponses à la grande question de savoir si l’internet rassemble ou divise, s’il permet d’effacer les différences sociales et raciales ou, au contraire, s’il les prolonge.



“En 2007, danah boyd, l’ethnographe américaine bien connue, a entendu un adolescent américain décrire MySpace comme “une sorte de ghetto”. A cette époque, Facebook volait des membres à MySpace, mais beaucoup pensaient qu’il ne s’agissait là que d’un effet de mode : une théorie naquit expliquant que les adolescents se lassaient d’un réseau social comme d’une paire de chaussures.
Mais après avoir entendu ce jeune homme, danah boyd a senti qu’il y avait là plus intéressant qu’une simple lubie. En américain, le mot ghetto connote la pauvreté, le côté brut, la noirceur de peau. Elle en tira une conclusion : dans la vie en ligne, les adolescents américains recréaient ce qu’ils connaissaient dans le monde physique à savoir la séparation en classe et en race.
Une génération d’activistes du numérique avait espéré que le web pourrait mettre en relation des groupes que le monde réel séparait. L’internet était censé transcender la couleur de peau, l’identité sociale et les frontières nationales. Mais les recherches ont tendance à montrer que l’internet n’est pas aussi efficace sur ce point. Les gens sont en ligne ce qu’ils sont dans la vie réelle : divisés, et peu enclins à créer des passerelles.
Cet été, danah boyd a entendu parler d’un étudiant brésilien qui, après avoir lu ses travaux, a établi un parallèle. Près de 80% des internautes brésiliens utilisent Orkut, un réseau social possédé par Google. A mesure que l’internet se répand au Brésil et est fréquenté par de nouveaux groupes sociaux, les Brésiliens les plus aisés quittent Orkut pour Facebook. En partie parce qu’ils ont plus d’amis à l’étranger (avec lesquels ils restent en contact via Facebook), en partie par snobisme. Les Brésiliens chics ont créé un nouveau mot orkutificação, qui signifie “être orkutisé”. Un lieu “orkutisé” est un lieu rempli d’étrangers, et ouvert à tous. Les Brésiliens sont aujourd’hui les deuxièmes utilisateurs au monde de Twitter, et certains se demandent si ce terrible mot de “orkutisé” finira un jour par définir Twitter.
L’architecture de Facebook facilite la clôture des groupes. Le site utilise par exemple pour suggérer des amis un algorithme qui prend en compte les amis existants. Mais des réseaux plus simples, plus ouverts, permettent aussi une forme d’auto-ségrégation. Sur Twitter, les membres peuvent choisir de suivre qui ils veulent et peuvent former des groupes en intégrant dans leurs messages des mots et des phrases raccourcies qu’on appelle des hashtags. En mai dernier, Martin Wattenberg et Fernanda Viégas, qui font des recherches sur la diffusion de l’information, ont examiné les dix hashtags les plus populaires sur Twitter et ils ont découvert que certains étaient utilisés par des auteurs presque exclusivement noirs, d’autres par des auteurs presque exclusivement blancs. Le hashtag #cookout (barbecue) était presque entièrement noir ; le hashtag “oilspill (marée noire) était presque entièrement blanc.
Sur le plan des opinions politiques, les trouvailles des deux chercheurs furent moins désespérantes. Les libéraux et les conservateurs communiquent au moins les uns avec les autres en s’envoyant des vannes. Ils le font en trouvant des hashtags qui leur permettent de s’introduire dans les fils des adversaires. Aujourd’hui, un seul mot dans le discours politique américain n’est pas affecté par ce combat de tag, #npr soit National Public Radio, le tag de la radio publique américaine, qui n’est utilisé que par des libéraux.
Tout ceci plaide pour une réponse prudente à ceux qui clament que les relations numériques abolissent les conflits en rassemblant des gens d’ordinaire méfiants les uns envers les autres. Facebook a ouvert un site du nom de Peace on Facebook (Paix sur Facebook), où il est expliqué comment Facebook peut “participer à la réduction des conflits dans le monde” en faisant se connecter des gens d’origines différentes (l’optimisme est manifestement contagieux : au printemps dernier, un fondateur de Twitter a décrit son service comme “une victoire de l’humanité”).
peaceonfacebook
Image : La une du site Peace on Facebook qui présente un diagramme montrant les connexions entre membres de Facebook provenant de communautés en conflits et ayant tissés des liens entre eux.
Le site Peace on Facebook tient un compte des amitiés en ligne qui se nouent chaque jour entre des gens théoriquement rivaux. Le 25 juillet, dernier jour pour lequel on peut consulter les données, il revendiquait la création de 15 000 connexions entre Israéliens et Palestiniens. Mais il faudrait replacer tout cela dans un contexte plus global. Or Facebook ne rend pas public le nombre total d’amitiés dans chaque pays. L’activiste et blogueur Ethan Zuckerman a utilisé des données indépendantes pour estimer que ces liens représentent au maximum entre 1 et 2 % du nombre total des amitiés existantes sur l’ensemble des comptes israéliens et palestiniens. En utilisant la même méthode pour la Grèce et la Turquie, il arrive au chiffre de 0,1 %. Voilà qui relativise le rôle des groupes d’amitiés gréco-turques et les groupes dédiés à des musiques ou des films appréciés dans les deux pays… Cependant, ajoute Zuckerman, le partage de liens entre les deux rives de la mer Egée serait beaucoup plus élevé parmi les gens de chacun de ces pays qui font des études à l’étranger (et ont donc les plus grandes chances de devenir les dirigeants de demain). Leur simple existence est un signal fort.
Mais Zuckerman s’inquiète du fait que l’internet serve plus à augmenter les liens à l’intérieur des pays que les liens entre les pays. En utilisant des données provenant de Google, il a regardé la liste des 50 sites d’information les plus visités dans 30 pays. Dans quasiment chaque pays, 95% des informations lues proviennent de sources nationales. Zuckerman pense qu’aujourd’hui encore, les biens et les services voyagent plus loin que les idées, et que l’internet nous permet d’être des “cosmopolites imaginaires” (voir notamment les propos qu’il tenait à ce sujet lors du dernier TED Global, en juillet dernier – vidéo – NDE).



Peace on Facebook livre aussi des données pour l’Inde et le Pakistan. C’est encore plus compliqué de les mettre en contexte. Le Pakistan a pendant un temps interdit Facebook et compte trop peu d’utilisateurs pour que des chiffres, même provenant de sources indépendantes, soient utilisables. John Kelly, le fondateur de Morningside Analytics, une entreprise qui analyse les réseaux sociaux, s’est penché sur les liens entre les blogs et les comptes Twitter en Inde et au Pakistan et a découvert deux noeuds qui relient les deux pays. Les expatriés d’Asie du Sud à Londres qui s’identifient eux-mêmes comme des Desis – des gens du sous-continent – entrent en relation les uns avec les autres et avec leur pays d’origine. Et les fans de cricket des deux pays se lient entre eux de manière spontanée.
Kelly pense que les noeuds de l’activité on-line, quand ils traversent les frontières, naissent d’identités préexistantes. La plupart des blogueurs de l’ethnie Baloch, éparpillés dans plusieurs pays (Afghanistan, Turkménistan, Oman…), entrent en relation les uns avec les autres. Les blogs afghans ont des liens avec des ONGs et avec les membres d’institutions américaines, mais sont beaucoup plus nombreux à être en relation avec des sites d’information et de blogs de poésie iraniens. Tout cela n’est en rien une découverte et reflète une réalité ancienne. Mais il y a aussi quelque espoir dans l’examen des données fournies par Morningside. 4 sites rendent compte régulièrement de liens entre les pays : Youtube, Wikipedia, la BBC et, loin derrière, Global Voices Online. Ce dernier site, créé à Harvard en 2005 en grande partie via des fondations américaines, travaille à la création de liens entre des blogueurs de pays différents et à l’identification de ce qu’il appelle des “blogueurs passerelle” : des expatriés et transmetteurs de culture, comme les Desis de Londres, qui aident à expliquer leurs pays les uns aux autres.
Onnik Krikorian, qui est éditeur de Global Voice en Asie centrale, est citoyen britannique, mais porte un nom arménien. Il ne pouvait pas se rendre en Azerbaïdjan et avait du mal à établir des contacts en ligne avec ce pays, avant de se rendre en 2008 à une conférence à Tbilissi et de rencontrer 4 blogueurs Azéris. Ils lui ont donné leurs cartes et il les a retrouvés sur Facebook. A sa surprise, ils ont accepté de devenir son ami. Onnik Krikorian considère désormais Facebook comme la plateforme idéale pour créer des liens. Ces quatre premiers contacts ont permis à d’autres Azéris d’entrer en relation avec lui.
Mais l’internet n’est pas magique, c’est un outil. Quiconque veut s’en servir pour rapprocher les nations doit faire preuve d’initiative et être prêt à voyager physiquement aussi bien que virtuellement. Comme ce fut le cas auparavant avec le télégraphe également salué comme un outil de paix, l’Internet ne fait rien par lui-même.”


L’émission du 12 septembre 2010 était consacrée à Wikileaks – en compagnie d’Eric Scherer, journaliste à l’AFP, d’Olivier Cimeliere, responsable de la Communication chez Ericsson France et Yves Eudes, reporter au Monde – ainsi qu’au Jeu sérieux avec Florent Maurin, chef de rubrique chez BayardKids et chef de projet R&D pour lemonde.fr, et auteur d’une série sur le sujet (première partie).

2010/09/06

Faire face à une civilisation qui vit dans le présent

La lecture de la semaine n’est pas une lecture à proprement parler, mais quelques éléments d’un entretien donné par Nova Spivak à Om Malik, qui interroge régulièrement des acteurs du net.
Nova Spivak est cofondateur de Live Matrix, mais il a créé auparavant d’autres start-ups et investi dans d’autres encore. Il se prononce régulièrement sur les questions technologiques. Là, son intervention concerne la manière dont les nouveaux médias nous obligent à redéfinir le présent.


“Avec le web en temps réel, explique Spivak, avec l’augmentation du nombre d’informations auxquelles nous devons être attentifs par unité de temps – par heure, par minute, par seconde -, c’est la nature même du présent qui se trouve changée. Le présent est plus dense, nous avons accès à beaucoup plus d’informations par unité de temps présent qu’auparavant. Par certains aspects, le présent se raccourcit. Nous devons le penser à une autre échelle. Le présent se comptait en jour – en heure peut-être -, il se compte aujourd’hui en secondes.”
A la question de Om Malik : “Les inventeurs d’aujourd’hui sont-ils trop pris dans le présent pour créer le futur ?”, voici la réponse de Spivak :
“La plupart des entreprises passent plus de temps à regarder vers le passé, ou le présent, que vers le futur. Mais, c’est intéressant, car on peut élargir le point de vue. Avant le 20e siècle, notre civilisation était focalisée sur le passé. L’obsession pour les classiques en est un exemple. L’enseignement reposait sur l’Histoire, sur les penseurs du passé, le présent n’y avait que peu de part, personne ne parlait vraiment de ce qui se passait sur le moment, on se référait par exemple à ce que faisaient les Grecs. Quand nous sommes entrés dans le 20e siècle, nous sommes devenus des futuristes. Nous étions obsédés par l’avenir, l’industrie s’est passionnée pour l’innovation, le progrès. La science-fiction, c’est notable, est devenue un genre important. Je pense qu’au le 21e siècle, c’est le présent qui est important. On est aujourd’hui dans une civilisation qui vit dans le présent. On ne vit pas dans le passé, on ne pense pas à l’avenir, on pense au présent. Car le présent est tellement écrasant que si on n’y pense pas, c’est dur d’y faire face. Tout va plus vite, tout est plus dense. Aux yeux de certains, le passé est presque inopérant. Quelle pertinence de s’en référer au mode de pensée des Grecs ? Quelles réponses pourrions-nous y trouver ? Il y a sûrement de bonnes réponses, mais très éloignées de ce qui fait notre culture. De la même manière, je ne pense pas que beaucoup de gens dans le monde de l’internet pensent à l’avenir. Le passé et le futur sont donc oubliés, c’est le présent qui compte. Le web en temps réel, c’est le présent, littéralement. Tout le monde se demande comment faire face au présent, à la situation dans laquelle nous sommes en ce moment… Et je pense que ça affecte la manière dont on invente.”
Quand Om Malik demande à Spivak si dans tout ce qui nous arrive par ce web en temps réel, ce présent densifié, il n’y a pas une tension entre ce qui relève de l’information et ce qui est de la simple donnée, Nova Spivak lance quelques pistes :
“Oui, je crois qu’il existe une tension entre données, informations, et au-delà encore, la connaissance. Prenez Twitter. Au début, chaque twitte pouvait être considéré comme une information, ou même, pourquoi pas, comme de la connaissance. Maintenant, beaucoup de twittes relèvent de la donnée simple. Les gens qui donnent leurs coordonnées spatiales à chaque fois qu’ils se déplacent par exemple. On ne peut pas dire que ce soit de l’information utile. C’est juste de la donnée brute. De plus en plus d’applications ne vont consister qu’à faire passer des données dans Twitter. Et ça va s’incorporer dans le bruit. Il y a aussi de l’information dans tout ça. Mais extraire ce qui relève de l’information dans tout ce bruit devient de plus en dur. C’est l’occasion pour créer des services qui soient capables de transformer toutes ces données en informations – en fabriquant par exemple une carte montrant les déplacements de quelqu’un plutôt que d’accumuler les mises à jour de coordonnées géographiques – ou alors, qui extrairont, filtreront l’information, ou ce qui importe vraiment dans tout ce bruit. C’est une des promesses offertes par Twitter aujourd’hui, même si rien n’est effectif pour le moment.”


Ce ne sont là que quelques extraits de ce que raconte Nova Spivak à Om Malik. Ce qui me semble intéressant ici, c’est comment les préoccupations d’un entrepreneur du Net rejoignent celles des philosophes et des sociologues. Les propos de Spivak font étrangement échos à ceux exprimés par Paul Virilio depuis longtemps (au sujet de la vitesse), mais aussi au livre du sociologue allemand Hartmut Rosa qui vient de paraître aux éditions de La Découverte, Accélération, une critique sociale du temps.
Accélération, densification du présent, les mêmes expressions traversent les champs. Ce qui me semble notable chez Spivak, c’est que s’il concède implicitement que la technologie est un des facteurs de cette accélération et de cette densification, ce qui est accrédité par Hartmut Rosa, il y voit aussi une chance. Celle d’inventer des outils qui fassent le tri, des outils qui nous permettent de transformer les données brutes en informations, de sélectionner ce qui est vraiment important, des outils qui nous permettent au final de dilater un peu le présent. Ca n’est qu’une piste, et résoudre le problème du nombre incalculable d’informations qui nous arrivent à chaque instant par Twitter ne ralentira pas le monde. Mais l’injonction qu’il lance à faire face à cette question du présent me semble assez fertile, en tout cas moins déprimante que celle consistant à faire le constat de tous les dommages de cette densification nouvelle des instants de notre vie.
Xavier de la Porte

L’émission du 5 septembre 2010 était consacrée à “La fin du web” , avec avec Antoine Bayet, responsable éditorial du magazine Regard sur le numérique et Benoit Raphael, cofondateur du projet Revsquare ; ainsi qu’à La révolution dans la poche avec Véronique Pittolo, écrivain et critique d’art auteur d’un récent livre sur le sujet. Une émission à réécouter en différé ou en podcast sur le site de Place de la Toile.