2012/10/28

CVMD #2.5 - L’explosion des échelons administratifs ruine la France



Ca va mieux en le disant revient sur un tres court article d'opinion paru sur Contrepoints
Opinion de l'homme de lettre et entrepreneur Marc-Antoine Charguéraud
Qui defend qu'avec la création de nouveaux échelons administratifs comme les régions devrait egalement correspondre la suppression des échelons devenus inutiles mais egalement proceder a un regroupement des communes.

L'article s'intitule: L’explosion des échelons administratifs ruine la France

Et commence ainsi:

Au lendemain de la guerre, comme la plupart des démocraties occidentales, la France était essentiellement administrée à trois niveaux, le gouvernement, les départements et les communes.  S’y sont ajoutées depuis, l’Europe, les régions et les communautés de communes : un doublement des instances

La coûteuse mise en place de ces nouvelles organisations n’a en aucune façon diminué les frais et les effectifs des anciennes. Pire, pour ces dernières, les frais ont continué d’augmenter. La charge totale de l’administration s’est alors accrue dans des proportions insupportables. Les citoyens ont pu s’en rendre compte avec l’envolée et la multiplication des taxes et impôts locaux.

Une mauvaise définition de l’attribution des tâches, car chaque entité administrative défendant son « pré carré », a exaspéré les citoyens et les entreprises dans leurs rapports avec l’administration. Recherches de la bonne filière, doublons dans les démarches, délais d’attente de décisions souvent opaques, chacun peut apporter son propre témoignage.

La création de nouvelles instances administratives adaptées à l’évolution de la société n’a malheureusement pas été suivie d’une réadaptation de ce qui existait. On a l’impression que dans le domaine politique, les « droits acquis » règnent en maitre.
La création des régions par exemple, reflète le doublement de la population en un  siècle, les transferts des populations rurales vers les villes, l’amélioration radicale des transports, la concentration des moyens économiques. Les départements auraient dû fusionner avec les régions.

Et que dire des 36 700 communes qui, pour leur majorité, reconnaissent ne pas être à même du fait de leur taille d’assumer toutes leurs responsabilités. Elles se regroupent en communautés de communes afin de faire face à des tâches essentielles telles que la distribution de l’eau, le ramassage et le traitement des déchets…
Leur importance est telle qu’elles ont été élevées au statut d’unités territoriales.

Pour une relation avec les citoyens sur le terrain les maires de communes de quelques centaines d’habitants sont-ils nécessaires, alors que l’on trouve suffisant une seul maire pour une ville de 50 000 habitants ? Ne peut-on suivre l’exemple de l’Italie qui a eu récemment le courage de regrouper un grand nombre de ses communes.

Un consensus existe parmi les Français pour mettre un terme à cette pléthore administrative.
Mais les 600 000 élus ne voteront pas une mesure qui, quels qu’en soient les mérites, en éliminerait un grand nombre de la scène politique. L’intérêt national dont ils se réclament les serviteurs, passe après leurs intérêts politiques personnels, convaincus qu’ils sont d’être un rouage essentiel de la République.

On se contentera donc de mieux définir les responsabilités de chaque administration. Le déficit du pays est accablant, tant pis, c'est le citoyen paiera.

Article paru initialement sur Le Cercle Les Échos (Reprise autorisée avec mention de la source)

2012/10/27

Une tribune de Mario Vargas Llosa



La lecture de la semaine nous vient de la presse hispanophone. Il s’agit d’une tribune du Prix Nobel de Littérature péruvien Mario Vargas Llosa, tribune publiée dans le quotidien espagnol El Pais. 2 précisions : Dans sa tribune, Vargas Llosa commence par quelques anecdotes récentes. L’une concerne Philip Roth dont on sait, l’histoire a été suffisamment relayée, qu’il a demandé à Wikipédia de modifier une information qui apparaissait sur sa page, et qui n’était pas exacte. Requête à laquelle Wikipédia a répondu que la parole de l’auteur était une source non suffisante à la modification de cette information.

2012/10/26

CVMD #2.4 - Revelations sur la Télévision Connectée



Ca va mieux en le disant, revient encore une fois sur la chronique de Laurent Chemla sur le site d'OWNI
Il s'agit de la chronique 3 octobre qui s'intitule: RÉVÉLATIONS SUR LA TÉLÉVISION CONNECTÉE
Elle commence ainsi:

C'est l'argument-choc du moment, le serpent de mer de la “télévision connectée” est ressorti du marais saumâtre des idées-bateaux, idées imposées par un marketing tout-puissant mais sans imagination.

La “télévision connectée” c'est l'idee d'une television avec Internet.
Même dans les termes, c’est imbuvable: car si on “regarde” bien la television, on “utilise” Internet.

Et d'ailleurs on y participe autant qu’on le consomme, bien au-delà de la simple “interactivité” que nos chers diffuseurs cherchent vainement à développer depuis des lustres. La télévision aura beau être reliée à Internet, si elle est une télé-”vision”, elle ne sera pas plus “connectée” qu’elle ne l’est déjà par ondes hertziennes. Tout au plus, elle utilisera pour se diffuser une bande-passante déjà bien trop rare.

Le principe même de la “diffusion”, d’ailleurs, se prête mal au jeu du réseau.

Les plus grands diffuseurs d’Internet ont besoin d’une infrastructure lourde, mal adaptée, chère, et qui ne va pas sans poser des problèmes de centralisation et de partage des coûts entre opérateurs. Quoi qu’on en dise, on n’a — à ce jour — rien trouvé de plus efficace pour broadcaster du contenu que la bonne vieille antenne de toit.

Commencons par rappeler, que nos futurs écrans 4k nécessiteront au moins un débit de 500 Mbps pour afficher les détails de l’image.
Même la fibre optique ne permet pas ça, sans même parler du dimensionnement des équipements en amont. Si c’est sur ce futur mort-né que veut se baser notre gouvernement pour justifier la fusion du CSA et de l’ARCEP, c’est dire qu'on est bien mal barrés.

Bref. Pour savoir ce qu’était supposé faire cette chose dont on parle beaucoup mais sans savoir pourquoi, j’ai fait comme n’importe qui et j’ai été lire Wikipedia.
Ce dernier propose trois types de service : la navigation, la VOD et les applications permettant l’interactivité.

La Navigation:
Il suffit d’avoir joué une fois dans sa vie avec une Wii pour savoir à quel point un pointeur embarqué dans une télécommande – même intelligente – est peu précis. Même les pointeurs laser utilisés pendant les présentations commerciales sont sujets aux tremblements d’une main très peu adaptée à cet usage. Et puis franchement, même avec des lunettes on a déjà tous du mal à lire une page web quand on a pas le nez collé à l’écran, alors naviguer sur une télé de salon depuis son canapé situé à deux mètres de distance, ca ne peut pas fonctionner.

Les applications, donc. 
Imaginons une émission “interactive” : un diffuseur, des millions de spectateurs, et chacun d’entre eux peut interagir.
Pour faire quoi ? Donner son avis ?
Vous les imaginez, les millions de tweets qui défilent en bas de l’image pendant un débat televise?
Le seul usage un tant soit peu crédible sera de faire voter le public pour tel ou tel Staracadémiste. Quant à réagir en direct : on imagine un clavier et le public qui tape à son rythme de public : le temps qu’il pose sa question, qu’elle soit filtrée par la production puis enfin affichée, bah on en sera à la pub.

La VOD alors?
Ok, mais laquelle? Quel service? Il n'y a rien a l'heure actuelle.
Ce serai donc ca la grande innovation qui fait peur à toute une industrie: le remplacement du loueur de DVD? C'est tempete dans un verre d'eau

Et pourtant la télé connectée existe déjà, mais quoi qu’en pensent les imbéciles qui prédisent la convergence, elle ne passe ni par les “players” de nos “box” ni par la Google TV ni par je ne sais quel boîtier designé par Apple. Elle est arrivée depuis longtemps dans nos salons, et nos bureaux, dans une fenêtre comme n’importe quelle autre.

C’est celle que je regarde, de temps en temps, tout en tapant ce texte, et en twittant, et en dialoguant avec mes amis en parallèle. Elle passe par une antenne, puis via mon réseau local elle arrive sur mon écran d’ordinateur. Et lui il a déjà une souris, un clavier, un écran assez proche de mes yeux. Son système d’exploitation c’est moi qui l’ai choisi.

Quand la fenêtre “télévision” balance de la pub, j'lui coupe le sifflet et je passe à autre chose. Quand je veux réagir, je prends le temps de réfléchir et j’en fais un billet de blog. Quand je veux jouer, j’ai un microprocesseur assez puissant pour que ce soit agréable. Et quand le CSA essaiera de contrôler ce que je veux publier, et bien j’utiliserai un VPN pour le contourner.

La télévision connectée existe déjà. Mais ca s’appelle un ordinateur.

Voila pour cette courte chronique, qui n'aborde pas la question du second ecrans. Mais le debat est toujours en cours dans les commentaires de l'article.

2012/10/25

CVMD #2.3 - La Course en Solitaire


Ca va mieux en le disant, revient sur la première chronique du 27 septembre de Laurent Chemla sur le site OWNI.fr
Une chronique qui interroge le présent sur son avenir, sur ses enjeux, et notre place dans le monde. Oui, Rien que ça.

La chronique s'intitule: LA COURSE EN SOLITAIRE
et ouvre sur une citation de Nietzsche
“Où cesse la solitude, commence la place publique ; et où commence la place publique, commence aussi le bruit des grands comédiens et le bourdonnement des mouches venimeuses.” – Friedrich Nietzsche, “Ainsi parlait Zarathoustra”.
Il a toujours été difficile de sortir la tête du quotidien pour essayer de retrouver une vue d’ensemble de l’évolution de nos vies. Et quand cette évolution devient une révolution en accélération permanente, comme dans nos sociétés numériques, ça devient une gageure.

Pourtant, quoi de plus nécessaire que de prendre du recul, au moins un peu ? Comment, sans ce recul, juger de notre trajectoire (de ses débuts à ses fins, à moyen terme), des obstacles qui sont devant nous, de ceux que nous avons su éviter sans vraiment nous en apercevoir tant notre vitesse est grande ?
Difficile de voir la totalité du chemin qu’on emprunte – sauf à s’en éloigner – mais c’est ce que je veux tenter ici de faire, avec votre aide si vous voulez bien participer à ces “tables rondes” virtuelles auxquelles je souhaite vous convier chaque semaine. Réagissez à cette chronique et discutons-en ensemble.

Une réflexion expérimentale

Pour inaugurer ce projet, en cette période de rentrée et de sortie d’un nouvel iPhone, je vous invite à revenir sur l’évolution de notre rapport au monde. Rien que ça, oui. Pas besoin pour ça de remonter très loin en arrière: 30 ans à peine, j’ose croire qu’une majorité d’entre nous s’en souvient. Sony a sorti son tout premier Walkman voilà peu, nos rendez-vous avec le monde (en dehors de notre petit cercle familial et de nos collègues de travail) se résument pour les plus curieux d’entre nous à un journal (en papier, jeune lecteur) le matin, les ragots autour de la machine à café au bureau, et le journal de 20h à la télé le soir. Un coup de téléphone (fixe) à sa mère, une fois par semaine au mieux.

Et c’est tout. Difficile de voir une évolution depuis l’époque lointaine où les seules interactions sociales se concentraient à la sortie de la messe du dimanche et à quelques fêtes de village. 30 ans. Un saut de puce, même à l’échelle d’une vie humaine, et pourtant… Tout était déjà là, pourtant. Le PC est né en 1981, ouvrant la voie pour le pire ou le meilleur à la standardisation logicielle. Le Minitel est arrivé en masse dans nos foyers en 1982, et nous avons entamé sans nous en apercevoir notre rapide mutation numérique à partir de ce boitier. Qui aurait pu prédire notre présent hyperconnecté à cette époque ?

Nous sommes passés, sans vraiment savoir comment, d’un rapport au reste du monde ponctuel, à heure fixe, fortement standardisé, à un rapport permanent, intime, spécifique de plus en plus souvent à chaque utilisateur. Un rapport à ce point devenu la norme que c’est désormais la déconnexion qui fait l’actualité, lorsque tel ou tel choisit à son tour de médiatiser son retour à la préhistoire.

La fin du temps lent

On peut voir les années 80 comme un tournant dans bien des domaines. Le PS au pouvoir. Les années-fric. Margaret Thatcher. La chute du mur. Le sida. D’un point de vue économique et social, certainement, ces années ont modelé notre époque actuelle. Mais technologiquement ? Le Macintosh d’Apple, le Windows de Microsoft, le CD, la NES : de grands progrès (quoique), mais toutes ces inventions manquaient singulièrement d’ouverture sur le reste du monde. Chacune semble même, avec le recul, destinée à une utilisation nombriliste, individualiste. L’utilisateur de Windows est réduit à l’utilisation de son compte personnel, nominatif, fermé. Le CD s’écoute à domicile. La NES est accusée de fabriquer une génération d’autistes.

Je ne sais pas ce que l’histoire en retiendra, mais pour moi les années 80 resteront surtout la dernière décennie de l’humanité déconnectée. Celle dont on dira un jour “voici comment vivaient nos ancêtres avant le monde moderne”. Les dernières années d’isolement, les dernières années de vie privée, l’époque du temps lent.

À partir des années 90 tout s’accélère brutalement, et avant même l’arrivée d’Internet dans le grand-public. Peut-être grâce à l’influence des jeux de rôle (de plateau, jeune lecteur) qui ont fait sortir de chez elle toute une génération dont les parents vivent encore en cellule familiale nucléaire, retranchée du monde, les interactions sociales prennent une ampleur nouvelle dans notre histoire.

Le plan informatique pour tous a aussi apporté son écot en faisant entrer l’informatique dans l’école, et les micro-informaticiens remplacent de plus en plus dans l’entreprise une génération d’informaticiens mainframe formée au COBOL et à la carte perforée. Forcément jeunes (le PC d’IBM n’a qu’une dizaine d’année), leur culture est différente, plus ouverte au monde, et ils amènent avec eux les premiers réseaux locaux et l’habitude de partager l’information – héritée sans doute de leur découverte en commun de la micro informatique. La publication de listings dans l’Ordinateur Individuel puis dans des magazines comme Hebdogiciel sont, en France, largement précurseurs, sinon du logiciel libre, au moins de l’Open Source.

Et puis, Internet, bien sûr. On n’envisage plus, aujourd’hui, un ordinateur non-connecté. Nos téléphones sont de plus en plus dépendants du réseau global. Nos télés -le symbole même du repli sur soi – seront bientôt elles aussi mises en réseau. Internet est dans nos foyers, nos écoles, nos boulots et même dans nos poches. D’ici très peu de temps nous seront connectés partout, et en permanence. Le déconnecté, ermite des temps modernes, deviendra lui-même (s’il ne l’est pas déjà) le phénomène médiatique qu’il tentait de rejeter.

Tout est réseau et inversement

Alors quoi ? Je ne crois pas que les réseaux sociaux sont arrivés avec le Web 2.0. Dès qu’un outil met des humains en relation, dès qu’une liaison informatique (ou pas) est établie entre deux points distants, elle ne relie pas seulement des équipements mais aussi (et surtout) les humains qui les utilisent. Si les premiers réseaux informatiques étaient destinés à partager des ressources matérielles rares (imprimantes, puissance de calcul, stockage) ils ont dès le début été hackés pour servir aussi (surtout) de messagerie et de support de discussions publiques.

Tout réseau informatique est un réseau social. Et un réseau informatique mondial permet des interactions humaines à une échelle sans précédent dans l’histoire de l’espèce. C’est une évidence qu’il est toujours bon de rappeler. Alors imaginons, si nous le pouvons, ce que sera demain quand ce réseau global nous accompagnera partout. Un monde envahi par une publicité omniprésente, forcément : comment imaginer que nos “iPhone 9″ (ou nos Google Glass) se contenteront de nous informer gentiment de l’historique de tel ou tel bâtiment devant lequel on passe ?
Elle en profiteront pour nous proposer d’entrer dans la boutique d’à côté pour profiter des articles en solde, à grand renfort d’outils de marketing visuels. Et quoi de plus normal puisque nos appareils mobiles auront été, comme c’est déjà presque toujours le cas, en partie financés par des régies publicitaires ?

En dehors des plus riches d’entre nous, personne ne pourra se payer les dernières avancées technologiques sans accepter en même temps de subir une pollution publicitaire permanente. C’est un fait quasiment acquis. Et personne, personne, ne pourra échapper à l’enregistrement permanent de chacun de ses actes, de chacune de ses recherches, ses lectures, presque ses pensées. C’est déjà là.
Mais, au-delà de l’aspect économique, au-delà de la vie privée, que deviendra la condition humaine quand à tout instant, partout, nous aurons à notre disposition non seulement une information complète sur notre environnement mais aussi, et surtout, la possibilité de partager avec le reste de l’humanité nos émerveillements, nos découvertes, nos colères et nos passions ?
Et si nous en avions terminé pour toujours avec la solitude ?

Voila pour ce premier article d'introduction de Laurent Chemla. Vous pouvez retrouverez les prochains episodes de ce feuillton sur le site d'OWNI.
A bientot,

2012/10/22

A quoi sert la pagination sur le web ?



La lecture de la semaine provient de la rubrique “technologies” du site d’information américain Slate (@slate), on la doit à Farhad Manjoo (@fmanjoo), qui tient cette rubrique, le texte s’intitule : “arrêtez tout de suite la pagination”.

“La pagination”, écrit Farahad Manjoo, “est, en termes de design et d’usage, le pire pêcher sur le Web. Elle est la preuve d’un mépris constant et silencieux pour ceux qui devraient être la cible privilégiée des sites d’informations : à savoir les gens qui veulent les articles jusqu’au bout. La pagination persiste parce que diviser un article en deux pages peut, en théorie, doubler la place pour les publicités. Alors qu’en pratique, la plupart des lecteurs ne cliquent jamais sur la deuxième page. La pratique de la pagination est devenue tellement courante qu’on a l’impression qu’elle a toujours été la norme sur le Web.”

Or c’est faux, rappelle Manjoo. “Les premiers sites d’information ne paginaient pas, et cette pratique est vieille d’à peine dix ans, répondant à la pression de l’industrie publicitaire. Et il pourrait en être autrement, et d’ailleurs, quelques-unes des publications les plus intéressantes et les plus lues, comme BuzzFeed ou the Verge, s’en passent très bien.” De toute façon, selon Farahd Manjoo, le comptage des pages vues est une stratégie à court terme. Car sur le long terme, un design peu accueillant n’aide pas les sites à gagner de nouveaux adhérents, or le fait de gagner de nouveaux lecteurs est le but de tout site. Je suis certain, ajoute Manjoo, que si tous les sites d’informations passaient en page unique, ils récupéreraient vite ce qu’ils croient perdre. Leurs articles seraient plus partagés, et trouveraient plus de lecteurs fidèles.


Image : le tourneur de page d’Andy Brandon.

“Chaque jour, comme des dizaines de millions d’autres lecteurs innocents, je clique sur des articles qui se révèlent être des morceaux d’articles. Des papiers qui pourraient se lire sur une page exigent un, deux, trois, quatre, cinq, ou dix autres clics pour passer à la page suivante. Nous avons tous nos petites habitudes pour affronter cette prolifération des pages. Les timides font ce qu’on leur dit, cliquent et recliquent, perdant du temps et utilisent de la bande passante pour que les publicités puissent d’afficher. Les plus malins savent comment contourner le problème et cliquent immédiatement sur le bouton “single page”. Pour ma part, j’ai développé ce réflexe au pont que sur les sites que je visite souvent, mon doigt glisse presque automatiquement vers ce bouton. Quand il n’y a pas de bouton “single page”, j’ai immédiatement envie de casser la gueule du web designer.

Certains avancent qu’ils aiment que les articles soient divisés en plusieurs pages. Ils sont évidemment dingues, et leur opinion mérite à peine d’être discutée, mais faisons-le quand même. En général, leur argument est le suivant les longs articles sans coupure sont comme écrasés sur une page web. En gros, les paginer est un moyen de les rendre plus accueillants. C’est l’argument du journal qui m’emploie, Slate : un long article sur une seule page peut décourager le lecteur, la pagination le rend plus digeste. Et même, la pagination donne au lecteur une idée de la longueur de l’article. Si vous voyez que l’article compte dix pages, vous savez à peu près le temps qu’il vous faudra pour le lire.

Je ne suis pas en complet désaccord avec l’idée que ce sont là des bénéfices de la pagination. Mais je pense qu’un design intelligent peut améliorer l’apparence de longs articles sur le web. Un site comme The Verge, qui publie chaque jour de longs articles, y parvient très bien. Les longs articles y sont découpés en blocs séparés par des photos ou des éléments graphiques et chaque article possède sa propre navigation interne qui permet d’aller directement d’une partie à l’autre du texte.

Et manifestement, leurs commerciaux ont été tout de suite convaincus que ça ne poserait pas de problème aux régies publicitaires. Et c’est ce qui s’est passé. La fréquentation de The Verge est toujours en hausse et les régies ont compris que des lecteurs attentifs valaient mieux que des pages vues. Même chose avec BuzzFeed qui publie à la fois longs reportages et longues galeries photo, sans jamais les scinder. Ils peuvent se le permettre parce que leur modèle publicitaire est différent et ne repose pas sur les pages vues. Pour eux, ce qui importe c’est le nombre de clics sur la page et le partage par les lecteurs. Donner envie aux gens de partager ce qu’ils ont lu, pour attirer de nouveaux lecteurs.

“J’y crois”, dit Farhad Majoo. “En tout cas, ça vaut le coup d’essayer.”

Xavier de la Porte

“Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 21 octobre 2012 était consacrée aux relations entre cinéma et jeux vidéo en compagnie d’Alexis Blanchet (@alexisblanchet) maître de conférences à l’Université Paris 3 et auteur des Jeux vidéo au cinéma.

2012/10/14

CVMD #2.2 - L’inverse du piratage, c’est le copyfraud, et on n’en parle pas



Ca va mieux en le disant, provient cette fois des blogs de Rue89: Hotel Wikipedia.
un blog qui racontes les coulisses de wikipedia mais aussi d'autres projets libre de partage de la connaissance. Le blog est alimente par un wikipedien Pierre-Carl Langlais

Le billet s'intitule: L’inverse du piratage, c’est le copyfraud, et on n’en parle pas

Il commence ainsi:

Le piratage ne cesse de défrayer la chronique, mais curieusement, on parle beaucoup moins du phénomène inverse : le « copyfraud » ou fraude de copyright. Il ne s’agit pas de diffuser indéfiniment une œuvre protégée, mais au contraire d’effectuer une fausse déclaration de droit d’auteur entraînant la protection frauduleuse d’un contenu librement accessible.

Le copyfraud est sans doute aussi répandu que le piratage. Cependant, les contrevenants sont rarement, voire jamais condamnés.

Le copyfraud a été défini il y a quelques années par un juriste américain dans le New York University Law Review. Le copyfraud regroupe quatre infractions définies, plus ou moins explicitement:

  •  Par exemple - la fausse déclaration de possession d’un contenu tombé dans le domaine public
  •  ou encore - la prétention à imposer des restrictions d’utilisation non prévues par la loi

Le code de la propriété intellectuelle français se contente ainsi d’une définition négative : le domaine public commence lorsque les droits d’auteur expirent.
Une definition tres proche de la maxime populaire « La liberté des uns s'arrête là où commence celle des autres »

Or, si le délit de contre-façon est sévèrement condamné, le délit de copyfraud ou d'attribution frauduleuse de droit d’auteur ne donne lieu à aucune pénalité explicite.

Pourtant, d’un point de vue éthique, le copyfraud est aussi grave que le piratage. Privatiser le domaine public n’implique pas un préjudice pour un particulier ou une entreprise, mais pour tout le monde. On porte atteinte ici au patrimoine commun d’une collectivité, voire meme le patrimoine de l’humanité.

Par exemple, depuis sa fondation, le service Gallica distribue ses documents sous une licence erronée. (Gallica ce n'est rien d'autre que l'extension numérique de la Bibliothèque nationale de France )
Chaque fois qu’un internaute télécharge un contenu depuis Gallica, il doit obligatoirement cocher la case portant l’inscription suivante :

« Je reconnais avoir pris connaissance des conditions d’utilisation non commerciale et je les accepte. »

Or, ces conditions d’utilisation n’ont aucune valeur car on peut très bien revendre un livre imprimé depuis Gallica, ne serait-ce que pour tenir compte des frais d’encre et de papier.

Autre exemple: la Réunion des musées nationaux pousse le vice encore plus loin. Cette institution ne tente pas seulement de limiter la diffusion, mais bel et bien de privatiser le domaine public.

Sur une photo-reproduction de « La Joconde » on trouve ainsi la mention « © RMN-Grand Palais (Musée du Louvre) Michel Urtado ». Le principe invoqué est celui des droits d’auteur du photographe. Dans la mesure où il s’agit d’une simple reproduction sans aucun apport esthétique, cette prétention n’a aucune valeur – et a d’ailleurs toujours été niée par la jurisprudence française.

Derniere Exemple: un article de Sud-ouest révèle un copyfraud carrément ubuesque. Le département de la Dordogne a tenté d’empêcher la diffusion d’un fac-similé de la grotte de Lascaux, au motif qu’il « constitue une contrefaçon qui porte gravement atteinte à l’intégrité du patrimoine national ». Concrètement, on suggère qu’une œuvre vieille de 17 000 ans serait encore protégée par un droit d'auteur.

Toutes ces infractions sont dérisoires par rapport à ce qui se prépare.
Dans un contexte de restriction budgétaire, les bibliothèques publiques sont contraintes de négocier des partenariats avec des entreprises privées. Et, pour les intéresser, elles proposent de plus en plus souvent des privatisations temporaires de contenus placés dans le domaine publique.

Concrètement, pendant une durée de cinq à dix ans, l’investisseur dispose d’une sorte de privilège de commercialisation. Les numérisations sont inaccessibles au public et cédées, moyennant finance, à des institutions ou des particuliers.

La France tend, en somme, à s’aligner sur un modèle britannique où les privatisations du domaine public sont deja monnaie courante. La quasi-totalité des archives de la presse anglaise sont ainsi monétisées sur Internet. Les archives du Times depuis 1785 ne sont accessibles que sur abonnement.

En outre, chaque exemplaire est toujours orné de la mention « © Times Newspapers Limited ». Cette attribution est d’autant moins recevable que la loi anglaise sur le copyright n’est pas très généreuse avec les journaux et les éditions collectives : la protection disparaît apparemment 25 ans après la première publication. Sur 220 ans d’archives numérisées, deux siecles d'archives sont privatisées illégalement.

Plutôt que de mettre fin au copyfraud, les Etats pourraient être tentés de lui conférer une validité légale. Le traité de diffusion actuellement discuté par l’OMPI , l'Organisation de la propriété intellectuelle va dans le sens de cette évolution : chaque contenu diffusé pourrait être protégé par l’agence émettrice, même s’il est tombé dans le domaine public ou distribué originellement sous licence libre.

Voila pour ce tres long billet de blog, bien sur il y a beaucoup plus d'informations et de details sur le billet original que je vous invite a lire. Vous pouvez meme essayer de participer au debat d'expert qui c'est constitue dans les commentaires sur le site de rue89.
Vous retrouvez tous les liens et references dans les notes l'emissions.

A bientot

L'encre perdue



La lecture de la semaine consiste en des extraits d’un livre qui ont été publié par le quotidien britannique The Guardian (@guardian). Le livre en question s’intitule The Missing Ink : The Lost Art of Handwriting, and Why it Still Matters (L’encre perdue : l’art oublié de l’écriture manuscrite, et pourquoi elle importe encore). L’auteur est un romancier et critique du nom de Philip Hensher (Wikipédia).

“Il y a quelques mois “, raconte Hensher, “j’ai réalisé que je n’avais aucune idée de ce à quoi ressemblait l’écriture manuscrite d’un de mes meilleurs amis. Je le connais depuis 10 ans, mais nous n’avons jamais utilisé l’écriture manuscrite pour communiquer, ni une lettre, ni une carte postale, ni un petit mot. Je ne sais pas si son écriture est droite ou inclinée, italique ou arrondi, élégante ou bâclée. M’a frappé l’évidence que nous étions à un moment de l’Histoire où l’écriture manuscrite semble sur le point de disparaître de nos vies. Elle n’est aujourd’hui qu’une option communicationnelle parmi d’autres, et pas la plus attirante.

Pour chacun d’entre nous, l’acte de tracer à l’encre des formes sur un papier remonte aussi loin que nos souvenirs. Et je crois même n’avoir aucun souvenir de la première fois où je me suis essayé à l’art d’écrire une lettre sur une feuille de papier. Notre écriture, comme nous-mêmes, semble avoir toujours été là. Mais, si nous n’avons aucun souvenir du premier apprentissage de l’écriture, nous avons la mémoire claire de ce qui a suivi : les instructions pour l’améliorer, les suggestions pour en purifier la forme, notre perception de l’écriture des adultes (que je trouvais illisible, mais sans doute à dessein, car je voyais dans les boucles et les tirets impatients de l’écriture adulte une manière secrète et douteuse de communiquer que je maîtriserais un jour). Et puis, il y eut l’envie d’avoir une écriture ressemblant à celle des autres. En général, ça commençait avec une lettre ou un chiffre (faire le 7 à la manière du professeur qu’on admire…). Puis copier l’italique d’un ami élégant, ou rectifier l’apostrophe qui ressemble à celle du voisin détesté.

Ces tentatives de nous modifier en modifiant notre écriture font partie de notre personnalité. De la même manière que les rituels et autres petites conséquences liés à l’écriture avec un stylo. Ainsi la petite bosse calleuse sur le côté de l’index. Ou le mâchonnage du stylo (et même tout ce qu’on pouvait faire avec le morceau de plastique au bout d’un bic). Nos rituels et l’engagement sensoriel avec le stylo nous relient à lui. Ce qui n’est pas le cas avec les manières d’écrire d’aujourd’hui. Comme tout le monde, depuis une vingtaine d’années, j’écris beaucoup sur ordinateur. Et je peux identifier très précisément quand je suis passé du stylo au clavier. C’était en 1987, pour écrire mon PhD à Cambridge. Mais depuis tout ce temps, je n’ai pas identifié de vraies sensations pour cet objet, ne pouvant pas le sucer ou le regarder comme une extension directe de mon être, comme je le fais avec un stylo. Le stylo est avec nous depuis si longtemps qu’il semble presque en vie, comme un doigt supplémentaire. Les autres outils contemporains d’écritures, comme les téléphones, occupent un espace psychologique qui est plus proche du stylo. Il y a dix ans, les gens gardaient leurs téléphones dans leur poche. Aujourd’hui, ils l’ont continuellement à la main, comme un petit animal colérique, qui nous scrute d’un air maussade, et exprime le besoin d’être constamment apaisé. Très clairement, les gens regardent leurs téléphones comme, jusqu’à un certain point, une extension d’eux-mêmes. Et pourtant, nous n’avons pas développé avec eux tous ces petits et plaisants gestes qui sont l’ordinaire de notre rapport au stylo. Si vous aperceviez quelqu’un en train de sucer son téléphone pendant qu’il réfléchit à la prochaine phrase de son texto, vous penseriez qu’il est complètement fou.

Nous avons abandonné l’écriture manuscrite pour quelque chose de plus mécanique, moins distinctement humain, quelque chose qui dit moins sur nous, qui est moins présent dans nos instants de grande joie ou d’émotion profonde. La formation des pensées et du langage écrit avec un stylo, dirigé par une main, pour laisser des marques d’encre sur du papier, a été considéré pendant des siècles, voire des millénaires, comme une expérience fondatrice de l’humanité. Dans le passé, l’écriture manuscrite était considérée comme le signe le plus fort de l’individualité. En 1847, dans un procès, un témoin a certifié sans hésitation qu’une signature était authentique alors qu’il n’avait pas vu cette écriture depuis 63 ans : la cour a accepté son témoignage.

Notre écriture nous ancre dans une culture, elle est témoignage de notre âme et de notre nature profonde, de notre intelligence, de notre grâce, de notre fantaisie. Et pourtant, les plaisirs ordinaires et la dignité de l’écriture manuscrite vont être remplacés pour toujours.”

“Alors que l’écriture manuscrite est bonne pour nous”, selon Hensher. “Elle implique une relation avec le mot qui est de l’ordre du sensuel, de l’immédiat, de l’individuel. Elle ouvre notre personnalité au monde, nous donne les moyens de lire les autres. Par ailleurs, nous gagnons à l’effort qu’elle nécessite et la lenteur qu’elle recèle. De la même manière qu’on ne glisse pas toujours des plats préparés dans notre four à micro-ondes, et qu’il nous arrive, par amour pour ceux que l’on nourrit, de prendre le temps d’éplucher des légumes, de suivre une recette pas à pas. De la même manière qu’on ne prend pas toujours notre voiture, mais qu’on se plaît parfois à marcher vers le lieu où l’on se rend.”

Et Philip Hensher imagine même que c’est par cette voie que l’écriture manuscrite reviendra dans nos vies, comme un plaisir, comme quelque chose qui nous fait du bien, qui est plus humain que d’autres moyens de communication. Elle ne retrouvera jamais la place qu’elle avait en 1850, mais comme la cuisine, comme la promenade, elle trouvera dans nos vies une place dont il sera difficile de la déloger.

Xavier de la Porte

“Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 13 octobre 2012 était consacrée au numérique à Radio France en compagnie de Joël Ronez, directeur des nouveaux médias (@ronez) et à la surabondance de l’information en compagne d’Anaïs Saint-Jude (@anaissaintjude) directrice du programme BiblioTech de l’Université de Stanford (que nous avions déjà croisé à Lift).

2012/10/07

CVMD #2.1 - Droits d'auteur sur les Zombies


Les zombies sont partout en ce moment!
Alors qu’une série de faits étranges ont eu lieu cet été qui ont pu faire penser qu’une attaque de cadavres titubants était proche, on leur consacre en cette rentrée un ouvrage de philosophie, Petite philosophie du zombie, qui s’interroge sur les significations du phénomène. Et des hordes d’aficionados trépignent d’impatience en attendant la diffusion de la troisième saison de Walking Dead, programmée pour la mi-octobre, sur laquelle ils se jetteront comme des rôdeurs sur de la cervelle fraîche !

Comme le rappelait un excellent reportage d’Arte consacré à ces monstres revenus d’outre tombe, la manière dont les zombies ont envahi peu à peu la culture populaire tient à leur incroyable capacité à se réinventer sans cesse, depuis que les films fondateurs de George Romero ont introduit l’archétype du zombie moderne.

Après avoir colonisé le cinéma d’horreur, ils se sont répandus dans tous les domaines avec une facilité étonnante : dans la musique avec le clip Thriller de Michael Jackson, dans la littérature avec le Guide de survie en territoire zombie de Max Brook ou la parodie du roman de Jane Austen Pride and Prejudice and Zombie, ou dans le jeu vidéo depuis Resident Evil jusqu’au récent titre délirant Lollypop Chainsaw.

Des colloques entiers sont à présent organisés pour essayer d’analyser les causes de cette zombie-mania. Dans sa Petite Philosophie du Zombie, Maxime Coulombe explique que ces créatures sont l’écho des interrogations actuelles de nos sociétés sur la mort, la conscience ou la civilisation. C’est certainement vrai, mais il existe également une raison juridique fondamentale qui explique l’aisance avec laquelle les zombies ont pu infester à vitesse grand V tous les champs de la création.

Le premier film de George Romero, Night of the Living Dead, n’a en effet jamais été protégé par le droit d’auteur, à cause d’une incroyable boulette commise par son distributeur… Paru en 1968, le film est donc directement entré dans le domaine public, alors qu’il devrait toujours être protégé aujourd’hui, puisque Romero, “The Godfather of all Zombies”, est toujours en vie.

Cette destinée juridique singulière explique sans doute que la Zombie Movie Data Base comporte… 4 913 entrées à ce jour, dont beaucoup s’inspirent directement du premier film fondateur de Romero, sans risquer de procès, ni avoir à payer de licence. Cette particularité du Zombie (qu’il ne partage pas du tout avec le Vampire, comme on va le voir plus loin) dit quelque chose d’important à propos du droit d’auteur et de la création : la protection n’est pas toujours la meilleure façon pour une œuvre d’assurer sa diffusion.

Right of the Living Dead

Si vous allez sur Internet Archive, vous pourrez trouver Night Of The Living Dead , disponible librement et gratuitement en streaming ou en téléchargement, avec une mention de droit indiquant “Public Domain : No Right Reserved“. Pourtant, la plupart des films sortis à la fin des années soixante n’entreront dans le domaine public que dans la seconde moitié du 21ème siècle !

La raison de cette incongruité, c’est un véritable micmac juridique qui s’est produit à la sortie du film en 1968. A cette époque aux Etats-Unis, une oeuvre ne pouvait être protégée par le droit d’auteur que si une Copyright Notice était incluse dans les crédits, pour indiquer l’identité des détenteurs des droits de propriété intellectuelle. Or juste avant la sortie du film, le distributeur décida de changer le titre initialement prévu Night of The Flesh Eaters en Night of The Living Dead. Cette décision n’était sans doute pas mauvaise, sauf que pour opérer la modification, le distributeur retoucha les crédits dans le générique du film et supprima par inadvertance la fameuse Copyright Notice.

Le film n’a donc jamais été protégé par le copyright, ce qui ne l’empêcha pas de rencontrer un beau succès en salle. Mais l’erreur commise sur les mentions permit plus tard à de nombreux distributeurs de vidéocassettes de distribuer le film, sans avoir à reverser de droits aux créateurs. Cet aspect est certainement fâcheux, mais il a contribué encore davantage à asseoir la popularité du film et à faciliter la propagation de la figure du Zombie.

Walking Public Domain

Le zombie au cinéma a une existence bien plus ancienne que le film de Romero. On le trouve dès les années 30 aux Etats-Unis, dans des films comme White Zombie, inspiré de la tradition haïtienne et de la religion vaudou. Mais Romero a développé dans Night of The Living Dead de nombreux traits caractéristiques qui réinventent ce monstre (la démarche titubante des zombies, leur goût pour la chair humaine, la façon dont ils évoluent en horde, leur vulnérabilité aux blessures à la tête, leur peur du feu, le caractère épidémique de la propagation de l’invasion, la dimension post-apocalyptique de l’histoire, etc). Ces éléments constituent incontestablement des apports originaux qui auraient pu être protégés comme tels par le droit d’auteur.

Mais à cause de l’appartenance immédiate du film au domaine public, ces caractéristiques du zombie ont pu être reprises par d’autres et se disséminer largement. Romero a d’ailleurs été lui-même l’un des premiers à pouvoir bénéficier de cette liberté créative.

Liens et references:
Article original repris sur OWNI.fr (egalement disponible sur le blog de l'auteur)
Le toujours tres interessant Blog de Calimaq: S.I.Lex

Les smartphones ont-ils tué l’ennui ?


---------------------------------------------

La lecture de la semaine provient du site de CNN (@cnntech), on la doit à Doug Gross (@goud_gross), et elle s’intitule “Les smartphones ont-ils tué l’ennui ? Et est-ce là une bonne chose ?”

“Regardez les gens autour de vous dans la queue d’un cinéma ou sur le quai d’une gare”, commence Doug Gross. “Il y a de bonnes chances pour qu’une grande partie d’entre eux aient le regard baissé sur l’écran de leur téléphone ou autre tablette, en train de regarder leurs mails ou leurs textos, ou de jouer à un jeu vidéo qui aurait nécessité il y a quelques années un ordinateur fixe ou une console.


Vidéo : le reportage vidéo associé de CNN : un microtrottoir sur les quais du métro de New York.

Grâce aux évolutions récentes de la technologie, la manière dont les gens passent le temps a radicalement changé. Les magazines posés dans les salles d’attente des médecins ne sont guère plus ouverts. Vous n’avez plus un regard pour vos voisins dans une file d’attente. Entre les smartphones, les tablettes et les liseuses, notre société tue chaque seconde d’ennui en un effleurement d’écran. La part de propriétaires de smartphone est en pleine croissance, et près de la moitié d’entre eux disent utiliser leur téléphone pour se distraire quand ils s’ennuient (moitié à laquelle il faudrait ajouter ceux qui, quand ils s’ennuient, se livrent à des activités moins divertissantes comme écrire des textos ou consulter des mails).

Tout cela fait sens, selon les chercheurs. Caresser son téléphone du doigt répond, disent-ils, à un besoin fondamental de l’être humain : tuer l’ennui par tous les moyens possibles. Christophe Lynn (blog, @chris_ly), professeur d’anthropologie à l’Université d’Alabama, compare ce geste au fait de fumer une cigarette. Les deux peuvent être selon lui des “pivots”, “des choses qui nous transportent très vite de la monotonie de la vie quotidienne vers un monde de jeu non programmé”. Avec la possibilité qu’ils offrent de jouer, d’écouter de la musique, de regarder des vidéos, d’aller sur les réseaux sociaux et d’envoyer des textos, les smartphones sur-stimulent le désir qu’ont les êtres humains de jouer, dès que leur environnement se ternit, ajoute l’anthropologue. Et il pense que la société contemporaine pourrait encore renforcer ce désir. “Quand vous êtes habitués à une stimulation constante, dès qu’elle vous manque, vous ne savez plus quoi faire de vous-mêmes, ajoute le chercheur. Quand vous êtes habitués à ne plus avoir aucun temps mort, tout vide produit de l’angoisse. Et là, nous avons le smartphone, il est le perpétuel soulagement à nos angoisses.”"

Si nos téléphones sont si efficaces pour répondre à un désir ancestral, est-ce forcément une bonne chose ? se demande le journaliste de CNN.

A Oxford, au Centre de recherche sur les questions sociales (@socialissues), des chercheurs craignent que cela ne le soit pas. Selon eux, remplir toutes les secondes de notre temps en fixant notre téléphone risque de nous priver de la créativité et autres fruits qui, jusqu’ici, ont caractérisé notre confrontation à l’ennui, expliquent-ils dans “Le désir des désirs” :

“La surcharge informationnelle restreint considérablement le temps alloué à la réflexion personnelle, à la pensée, ou simplement à la digression mentale, écrivent les chercheurs anglais. Avec un téléphone portable continuellement allumé et une pléthore de distractions possibles pour l’œil, il est compréhensible que certains trouvent difficile de s’ennuyer de manière introspective.”

Sur cette question, les avis des personnes interrogées par le journaliste de CNN varient. Je vous en livre un plus intéressant que les autres. Une mère de famille admet qu’utiliser son téléphone la distrait parfois de son travail, ou même du visionnage d’un film. Mais, en comparaison des autres moyens de tuer le temps, elle voit là une bonne option. “Je me sens plus productive en lisant des trucs en ligne ou sur les réseaux sociaux comme Twitter ou Facebook qu’en restant assise à regarder la télé, explique-t-elle.”

Je me permets une remarque. Il me semble que c’est accorder beaucoup de crédit aux technos que de penser qu’elles tuent l’ennui, ou avoir une définition restreinte de ce que c’est que l’ennui. Je ne suis pas certain que l’ennui soit éliminé par l’activité. De même qu’on peut s’ennuyer en fumant une cigarette, les recherches menées par Mathieu Triclot (@Mathieu Triclot) sur les gamers tendent à montrer qu’on peut s’ennuyer en jouant (voir notamment Philosophie du jeu vidéo). Il serait même intéressant d’étudier l’ennui dans les réseaux. S’ennuyer sur Twitter, Facebook, ou dans une navigation hasardeuse peut être plus abyssale que rêvasser sur un banc la joue caressée par le soleil d’automne.

Xavier de la Porte

“Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 6 octobre 2012, préparée en partenariat avec rue89, était consacrée aux rapports du journalisme avec les algorithmes à l’occasion des Assises du journalisme en compagnie d’Eric Scherer (@ericscherer), directeur de la prospective et des nouveaux médias à France Télévision et d’Olivier Lecompte (@olivier_ternes), responsable des projets numériques du groupe Sud-Ouest. Enfin, en compagnie de Benoît Thieulin (@thieulin) de la Netscouade, l’émission s’est également intéressée aux pigeons, ces entrepreneurs qui ont fait campagne contre la réforme fiscale proposée par le gouvernement.”

2012/10/04

Energie, pollution et internet


--------------------------------------------------------
La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre “Energie, pollution et Internet”, ce début d’article fait un résumé de la longue enquête du quotidien américain.
“Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne.” Et tout cela, nous montre le NYTimes, fait que ce fonctionnement structurel de l’industrie de l’information est à l’opposé de l’image écologique qu’on en a. La plupart des data center, de par la manière dont ils ont été conçus, consomment des quantités gigantesques d’énergie qu’ils gâchent de manière incroyable. Par exemple, certaines entreprises font tourner leur matériel au maximum de ses capacités jour et nuit, quelle que soit la demande. Du coup, certains data center peuvent gaspiller jusqu’à 90 % de l’électricité consommée. Pour se protéger d’une panne d’électricité, les data center s’en remettent à des groupes électrogènes qui fonctionnent au diesel, avec les émissions conséquentes. La pollution causée par les data center inquiète les autorités américaines, au point que dans la Silicon Valley, de nombreux centres de données sont répertoriés dans la liste des plus gros pollueurs au diesel.
Cloudcomputing
Image : L’informatique dans les nuages au National Energy Research Scientific Computing Center photographié par Roy Kaltschmidt pour le Lawrence Berkeley National Lab.
Si on élargit au monde, les infrastructures numériques consomment à peu près 30 milliards de watts, l’équivalent de la production de 30 centrales nucléaires. Et on estime que les data center situés sur le sol américain représentent entre un quart et un tiers de cette consommation. Un seul data center peut consommer plus d’énergie qu’une ville moyenne.
L’efficacité énergétique varie beaucoup d’une entreprise à l’autre. Mais selon une étude commandée par le journal, on estime qu’en moyenne, entre 6 et 12 % de l’énergie consommée est utilisée comme puissance de calcul. Le reste sert à garder les serveurs au ralenti, prêts à fonctionner à plein régime si survenait une activité qui pourrait ralentir ou anéantir leurs opérations.
L’inefficacité énergétique est en grande partie due à une relation de symbiose entre les utilisateurs, qui exigent une réponse instantanée à leur clic, et des entreprises qui prendraient un risque en ne répondant pas à cette attente. Des entreprises qui préfèrent donc violer les mesures de régulation de la qualité de l’air, comme Amazon, qui a été cité 24 fois en 3 ans en Virginie du Nord. Quelques entreprises utilisent des logiciels entièrement repensés et des systèmes de refroidissement ad hoc pour économiser de l’énergie, comme Google et Facebook qui ont repensé leur hardware. Beaucoup de solutions sont disponibles, mais la plupart des entreprises ne veulent pas prendre le risque d’un gros changement. Par ailleurs, tout cela est compliqué par le secret qui entoure ces infrastructures (paradoxe pour une industrie qui est largement édifié sur le fait de rendre accessibles les données personnelles des gens). Pour des raisons de sécurité, les entreprises ne révèlent pas la localisation de leurs data center, qui sont abrités dans des bâtiments anonymes et bien protégés. Et le secret s’étend à la consommation énergétique. Le gouvernement américain a récemment confessé être incapable de déterminer précisément la consommation énergétique des data centers.
Certains analystes préviennent que les quantités de données et la consommation énergétique continuant à croître, les entreprises qui ne changeront pas leurs pratiques pourraient exploser en vol, comme cela est déjà arrivé dans le secteur du numérique. “Ce n’est pas soutenable, explique un ancien dirigeant du secteur, ils vont dans le mur”.
Voici pour cette introduction très générale à cette série d’articles que publie le NYTimes, et que je vous invite à prendre le temps de lire, tant elle est éclairante sur une question qui émerge à peine, mais qui risque de devenir majeure dans les années à venir : le coût écologique des nouvelles technologies.
Xavier de la Porte
“Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.
L’émission du 29 septembre 2012 était consacrée à l’internet society (Wikipédia), l’association qui promeut et coordonne le développement des réseaux informatique dans le monde, en compagnie de Frédéric Donck, directeur du bureau Europe de l’Internet Society ; ainsi qu’à la conférence TED en compagnie de Michel Lévy-Provençal, l’un des organisateurs de l’édition parisienne qui se tiendra le 6 octobre 2012.