• Shortcuts : 'n' next unread feed - 'p' previous unread feed • Styles : 1 2

» Publishers, Monetize your RSS feeds with FeedShow:  More infos  (Show/Hide Ads)


Date: Tuesday, 08 Apr 2014 05:07

Nous avons à plusieurs reprises parlé de la Fondation du long maintenant (@longnow) dans les colonnes d’InternetActu.net (par exemple ici) et de l’un de ses projets phare, l’horloge du long maintenant. Rappelons que ce projet de Stewart Brand et Brian Eno consiste essentiellement à construire une horloge susceptible de sonner tous les millénaires, et ce afin de favoriser la réflexion sur le long terme. Le livre de Stewart Brand sur le sujet a été récemment traduit en français.
Mais l’horloge elle même est surtout un dispositif symbolique. Autour de celle-ci doit se construire une bibliothèque regroupant toutes les connaissances humaines. Et au sein de cette bibliothèque, un livre bien particulier, le “manuel de la civilisation”.

L’idée est née en même temps que celle de l’horloge, puisque Stewart Brand en parle déjà dans son livre qui date de 1999. L’impulsion originale a été donnée par James Lovelock, le père de l’hypothèse Gaïa qui essayait d’imaginer un ouvrage contenant tout ce qui est nécessaire pour bâtir une civilisation, partant de la domestication du feu, continuant avec l’agriculture, et se poursuivant jusqu’aux technologies les plus modernes.

L’idée de Lovelock retrouve une autre thèse, celle émise par Kevin Kelly (blog, @kevin2kelly) en 2011 (pardon en 02011) sur la création d’une “bibliothèque de l’utilité”. Ici encore, il est question de créer un ensemble de textes susceptible de “rebooter la civilisation” en cas de catastrophe majeure ou de déclin irréversible. Cette bibliothèque, affirme Kelly, ne contiendrait “ni la grande littérature mondiale, ni des témoignages historiques, ni des connaissance profondes sur des merveilles ethniques, ni des spéculations sur le futur. Elle ne posséderait pas de journaux du passé, pas de livres pour enfants, pas de volumes de philosophie. Elle ne contiendrait que des graines”.

Ces graines consisteraient essentiellement en informations pratiques. On pourrait avec leur aide réapprendre “l’art de l’impression, de la forge, de la fabrication du plastique, du contre-plaqué, ou des disques laser”. De telles informations, note Kelly, se trouvent rarement réunies sous la forme de livres. Même sur le web, il est difficile de les trouver en format texte. La plupart de ces instructions se retrouvent sur YouTube en vidéo, regrette-t-il, mais ce qui est gagné par l’image animée en facilité de compréhension est souvent perdu en richesse et complétude de l’information.

Quels livres pour relancer la civilisation ?

Aujourd’hui, le manuel et la bibliothèque ont fusionné : plus question d’un seul ouvrage, mais plutôt d’une liste de livres indispensables. En revanche, La bibliothèque d’aujourd’hui est plus inclusive que celle envisagée par Kevin Kelly : elle ne contient pas que des spécifications techniques, mais également des considérations historiques et culturelles sur la nature de la civilisation, et donc de la grande littérature, des spéculations futuristes et des témoignages historiques. Les ouvrages se divisent en gros en 4 grandes catégories :

  • Le canon culturel : les grands livres de l’histoire de l’humanité ;
  • Les mécaniques de la civilisation : l’ensemble des connaissance techniques et des méthodes de fabrication ;
  • La science fiction rigoureuse, qui nous informe sur le futur ;
  • La pensée au long terme, le futurisme, et les livres historiques.

CategBreakdown1-14

De nombreux auteurs connus ont participé à la mise en place du “manuel”, en proposant une série de livres à inclure. Pour l’instant, sont déjà parues les propositions de Brian Eno, Stewart Brand, Kevin Kelly, Violet Blue (dont la liste traite d’un des principaux raffinements de la civilisation : le sexe), Megan et Rick Prelinger, un couple d’”archivistes guerrilleros” de San Francisco (ne me demandez pas ce que cela signifie). D’autres auteurs vont bientôt voir leurs contribution publiées : au premier rang desquels les auteurs de science-fiction Neal Stephenson et Neil Gaiman, ou Daniel Hillis, le concepteur de l’horloge. Les lecteurs du blog peuvent également envoyer leur suggestions, à condition toutefois de devenir donateurs !

C’est Stewart Brand qui conseille le plus de livres historiques et de réflexions sur la civilisation en tant que telle. C’est également celui qui inclut le plus de classiques, notamment gréco-romains, concernant l’histoire et la politique. Figurent dans sa liste, entre autres les oeuvres de Thucydide, d’Hérodote, Le Prince de Machiavel ou les Méditations de Marc Aurèle.

La liste de Kevin Kelly est la plus proche de la “bibliothèque de l’utilité” qu’il avait envisagé. Au sommet de sa liste de 200 ouvrages, il place ainsi Practical bamboos, un traité sur les 50 meilleures variétés de ce bois propice à toutes les constructions ; également au menu Caveman Chemistry : 28 Projects, from the Creation of Fire to the Production of Plastics (la “chimie pour homme des cavernes”) ainsi que Backyard Blacksmith (“forgeron dans son jardin”) et même un manuel nous expliquant comment élever des lapins… Bref, la liste de Kelly est une encyclopédie du DIY, mais pas seulement. On y trouve aussi des ouvrages très futuristes (qui devaient être bannis de la “bibliothèque de l’utilité”), comme l’étrange et fascinant ouvrage de 1994 de Marshall Savage, The Millennial Project: Colonizing the Galaxy in Eight Easy Steps (“Le projet millénium : coloniser la galaxie en 8 étapes faciles”). Rick et Megan Prelinger conseillent aussi beaucoup de livres pratiques, mais aussi des traités concernant des fabrications plus industrielles, comme les transports ferroviaires ou des bulletins de la NASA.

Intéressant de noter aussi les livres “champions”, qui sont appréciés par plusieurs des bibliothécaires. Ainsi, le livre de Christopher Alexander, A pattern language est recommandé tant par Brand que par Kelly. Alexander est un architecte qui s’est rebellé contre les dogmes de l’architecture moderniste et postmoderniste. Il affirme qu’il existe une structure profonde à notre perception de la beauté, liée à la nature même de l’espace, reconnue par la plupart des architectures traditionnelles et oubliée depuis. A noter que ces structures architecturales, ces design patterns ont depuis quitté le domaine de l’architecture pour devenir une méthode de programmation logicielle. En revanche, les oeuvres de Buckminster Fuller brillent par leur absence, ce qui est étonnant vu l’influence que cet architecte a exercé tant sur Kevin Kelly que sur Stewart Brand. Est ce le signe que l’inventeur des “dômes géodésiques” est définitivement passé de mode ? Du moins en architecture, car en nanotechnologie, sa géométrie “synergétique” reste un sujet d’actualité comme le montrent les fullerènes.

Le livre de John Allen Biosphere II a human experiment est également mentionné tant par Kelly que le couple Prelinger. Il est vrai que cette expérience qui fut poursuivie de 1993 à 1994, a tout pour séduire l’équipe du Long Now, mélangeant comme elle écologie et haute technologie, voire projet de colonisation spatiale. Intéressant toutefois de noter que le livre d’Allen continue de susciter l’intérêt, malgré l’échec de l’expérience Biosphère 2 et les problèmes apparemment causés par le caractère d’Allen, qui seraient selon certains plutôt dictatorial.

Pour les français, Fernand Braudel est cité par Eno et Brand. Il aurait été très injuste que le père de la “nouvelle histoire” ne figure pas au panthéon d’une bibliothèque consacrée à la pensée à long terme ! En revanche pas trace de Victor Hugo ou d’autres grands écrivains classiques de langue française, à l’exception de La Fontaine, conseillé par les Prelinger… Mais la bibliothèque est loin d’être terminée !

Question “science-fiction rigoureuse”, Brand semble avoir une tendresse particulière pour le cycle de la Culture de Iain M. Banks. Cette série d’ouvrages se singularise par l’originalité de la civilisation future qu’elle décrit ; un monde où coexistent pacifiquement IA superintelligentes, humains et aliens sans que se pose la question tant rebattue du remplacement de l’être humain par une création artificielle. C’est également une société anarchiste et probablement communiste, puisque la propriété semble y être inexistante, la richesse étant telle qu’il n’existe aucune raison de ne pas partager équitablement les ressources. Un “anarchisme technologique” qui ne peut que plaire à celui qui est passé de la contre-culture à la cyberculture ! Et qui laisse à penser qu’il ne s’est peut être pas autant converti qu’on le dit à la pensée libérale-capitaliste…

Brand conseille aussi la série des Fondations d’Asimov, qui est bien en phase avec les réflexions sur le long terme. il recommande également le Créateur d’étoiles d’Olaf Stapledon. Ce texte de science fiction philosophique, qui date de 1937, est l’un des premiers grands livres explorant une forme de spiritualité de l’âge spatial, qui influencera grandement des auteurs comme Arthur C. Clarke.

Les Prelinger, eux, conseillent la Trilogie Martienne de Kim Stanley Robinson, qui raconte avec moult détails la terraformation de la planète Mars. Pas étonnant lorsqu’on apprécie aussi le livre d’Allen sur Biosphere 2 ! La liste des ouvrages de SF s’épaissira certainement bientôt, lorsqu’on connaîtra les suggestions de Neal Stephenson et Neil Gaiman.

Le long terme, entre passé et futur

A la lecture des livres conseillés, on voit se dégager une forme de pensée particulière, qui était d’ailleurs déjà celle de Stewart Brand à l’époque du Whole Earth Catalog : un mélange de néoprimitivisme et de technologie très sophistiquée. Les livres sur la colonisation de l’espace sont voisins des manuels de bricolage aux limites du “survivalisme”. L’intérêt pour Biosphere 2 est d’ailleurs très représentatif de ce courant. Ce mélange de passé et de futur est d’ailleurs au coeur même du projet du Long Maintenant, puisque la fameuse horloge conçue par Daniel Hillis n’est constituée que de pièces mécaniques. En effet, un appareillage électronique ne saurait rester intact pendant des millénaires, surtout en cas de disparition de la civilisation… Et il va sans dire que la bibliothèque sera avant tout constituée de livres papier : le seul support à la pérennité garantie. Les concepteurs du Long Now envisagent cependant d’en créer une version digitale sur Archive.org. Ce qui devrait d’ailleurs poser des questions intéressantes au plan du copyright !

On peut bien sûr s’interroger sur le côté “catastrophiste” sous-jacent à un tel projet. Mais cependant, l’intérêt du manuel de la civilisation tient moins à sa valeur en cas de destruction massive qu’à la réflexion demandée par l’exercice. Qu’est-ce qui, dans l’ensemble de la culture mondiale, compte réellement ? Et quel est le poids de toutes nos philosophies face à une encyclopédie… du bricolage ?

Et vous, quelle serait votre liste ?
Rémi Sussan

économie de l'attention, biens communs, culture libre, do it yourself, imaginaire, littérature, prospective, Science-fiction
Author: "Rémi Sussan" Tags: "Archivage/stockage, Articles, Débats, E..."
Comments Send by mail Print  Save  Delicious 
Date: Tuesday, 08 Apr 2014 05:00

Nous avons à plusieurs reprises parlé de la Fondation du long maintenant (@longnow) dans les colonnes d’InternetActu.net (par exemple ici) et de l’un de ses projets phare, l’horloge du long maintenant. Rappelons que ce projet de Stewart Brand et Brian Eno consiste essentiellement à construire une horloge susceptible de sonner tous les millénaires, et ce afin de favoriser la réflexion sur le long terme. Le livre de Stewart Brand sur le sujet a été récemment traduit en français.

Mais l’horloge elle même est surtout un dispositif symbolique. Autour de celle-ci doit se construire une bibliothèque regroupant toutes les connaissances humaines. Et au sein de cette bibliothèque, un livre bien particulier, le “manuel de la civilisation”.

L’idée est née en même temps que celle de l’horloge, puisque Stewart Brand en parle déjà dans son livre qui date de 1999. L’impulsion originale a été donnée par James Lovelock, le père de l’hypothèse Gaïa qui essayait d’imaginer un ouvrage contenant tout ce qui est nécessaire pour bâtir une civilisation, partant de la domestication du feu, continuant avec l’agriculture, et se poursuivant jusqu’aux technologies les plus modernes.

L’idée de Lovelock retrouve une autre thèse, celle émise par Kevin Kelly (blog, @kevin2kelly) en 2011 (pardon en 02011) sur la création d’une “bibliothèque de l’utilité”. Ici encore, il est question de créer un ensemble de textes susceptible de “rebooter la civilisation” en cas de catastrophe majeure ou de déclin irréversible. Cette bibliothèque, affirme Kelly, ne contiendrait “ni la grande littérature mondiale, ni des témoignages historiques, ni des connaissance profondes sur des merveilles ethniques, ni des spéculations sur le futur. Elle ne posséderait pas de journaux du passé, pas de livres pour enfants, pas de volumes de philosophie. Elle ne contiendrait que des graines”.

Ces graines consisteraient essentiellement en informations pratiques. On pourrait avec leur aide réapprendre “l’art de l’impression, de la forge, de la fabrication du plastique, du contre-plaqué, ou des disques laser”. De telles informations, note Kelly, se trouvent rarement réunies sous la forme de livres. Même sur le web, il est difficile de les trouver en format texte. La plupart de ces instructions se retrouvent sur YouTube en vidéo, regrette-t-il, mais ce qui est gagné par l’image animée en facilité de compréhension est souvent perdu en richesse et complétude de l’information.

Quels livres pour relancer la civilisation ?

Aujourd’hui, le manuel et la bibliothèque ont fusionné : plus question d’un seul ouvrage, mais plutôt d’une liste de livres indispensables. En revanche, La bibliothèque d’aujourd’hui est plus inclusive que celle envisagée par Kevin Kelly : elle ne contient pas que des spécifications techniques, mais également des considérations historiques et culturelles sur la nature de la civilisation, et donc de la grande littérature, des spéculations futuristes et des témoignages historiques. Les ouvrages se divisent en gros en 4 grandes catégories :

  • Le canon culturel : les grands livres de l’histoire de l’humanité ;
  • Les mécaniques de la civilisation : l’ensemble des connaissance techniques et des méthodes de fabrication ;
  • La science fiction rigoureuse, qui nous informe sur le futur ;
  • La pensée au long terme, le futurisme, et les livres historiques.

De nombreux auteurs connus ont participé à la mise en place du “manuel”, en proposant une série de livres à inclure. Pour l’instant, sont déjà parues les propositions de Brian Eno, Stewart Brand, Kevin Kelly, Violet Blue (dont la liste traite d’un des principaux raffinements de la civilisation : le sexe), Megan et Rick Prelinger, un couple d’”archivistes guerrilleros” de San Francisco (ne me demandez pas ce que cela signifie). D’autres auteurs vont bientôt voir leurs contribution publiées : au premier rang desquels les auteurs de science-fiction Neal Stephenson et Neil Gaiman, ou Daniel Hillis, le concepteur de l’horloge. Les lecteurs du blog peuvent également envoyer leur suggestions, à condition toutefois de devenir donateurs !

C’est Stewart Brand qui conseille le plus de livres historiques et de réflexions sur la civilisation en tant que telle. C’est également celui qui inclut le plus de classiques, notamment gréco-romains, concernant l’histoire et la politique. Figurent dans sa liste, entre autres les oeuvres de Thucydide, d’Hérodote, Le Prince de Machiavel ou les Méditations de Marc Aurèle.

La liste de Kevin Kelly est la plus proche de la “bibliothèque de l’utilité” qu’il avait envisagé. Au sommet de sa liste de 200 ouvrages, il place ainsi Practical bamboos, un traité sur les 50 meilleures variétés de ce bois propice à toutes les constructions ; également au menu Caveman Chemistry : 28 Projects, from the Creation of Fire to the Production of Plastics (la “chimie pour homme des cavernes”) ainsi que Backyard Blacksmith (“forgeron dans son jardin”) et même un manuel nous expliquant comment élever des lapins… Bref, la liste de Kelly est une encyclopédie du DIY, mais pas seulement. On y trouve aussi des ouvrages très futuristes (qui devaient être bannis de la “bibliothèque de l’utilité”), comme l’étrange et fascinant ouvrage de 1994 de Marshall Savage, The Millennial Project: Colonizing the Galaxy in Eight Easy Steps (“Le projet millénium : coloniser la galaxie en 8 étapes faciles”). Rick et Megan Prelinger conseillent aussi beaucoup de livres pratiques, mais aussi des traités concernant des fabrications plus industrielles, comme les transports ferroviaires ou des bulletins de la NASA.

Intéressant de noter aussi les livres “champions”, qui sont appréciés par plusieurs des bibliothécaires. Ainsi, le livre de Christopher Alexander, A pattern language est recommandé tant par Brand que par Kelly. Alexander est un architecte qui s’est rebellé contre les dogmes de l’architecture moderniste et postmoderniste. Il affirme qu’il existe une structure profonde à notre perception de la beauté, liée à la nature même de l’espace, reconnue par la plupart des architectures traditionnelles et oubliée depuis. A noter que ces structures architecturales, ces design patterns ont depuis quitté le domaine de l’architecture pour devenir une méthode de programmation logicielle. En revanche, les oeuvres de Buckminster Fuller brillent par leur absence, ce qui est étonnant vu l’influence que cet architecte a exercé tant sur Kevin Kelly que sur Stewart Brand. Est ce le signe que l’inventeur des “dômes géodésiques” est définitivement passé de mode ? Du moins en architecture, car en nanotechnologie, sa géométrie “synergétique” reste un sujet d’actualité comme le montrent les fullerènes.

Le livre de John Allen, Biosphere II a human experiment, est également mentionné tant par Kelly que le couple Prelinger. Il est vrai que cette expérience qui fut poursuivie de 1993 à 1994, a tout pour séduire l’équipe du Long Now, mélangeant comme elle écologie et haute technologie, voire projet de colonisation spatiale. Intéressant toutefois de noter que le livre d’Allen continue de susciter l’intérêt, malgré l’échec de l’expérience Biosphère 2 et les problèmes apparemment causés par le caractère d’Allen, qui seraient selon certains plutôt dictatorial.

Pour les français, Fernand Braudel est cité par Eno et Brand. Il aurait été très injuste que le père de la “nouvelle histoire” ne figure pas au panthéon d’une bibliothèque consacrée à la pensée à long terme ! En revanche pas trace de Victor Hugo ou d’autres grands écrivains classiques de langue française, à l’exception de La Fontaine, conseillé par les Prelinger… Mais la bibliothèque est loin d’être terminée !

Question “science-fiction rigoureuse”, Brand semble avoir une tendresse particulière pour le cycle de la Culture de Iain M. Banks. Cette série d’ouvrages se singularise par l’originalité de la civilisation future qu’elle décrit ; un monde où coexistent pacifiquement IA superintelligentes, humains et aliens sans que se pose la question tant rebattue du remplacement de l’être humain par une création artificielle. C’est également une société anarchiste et probablement communiste, puisque la propriété semble y être inexistante, la richesse étant telle qu’il n’existe aucune raison de ne pas partager équitablement les ressources. Un “anarchisme technologique” qui ne peut que plaire à celui qui est passé de la contre-culture à la cyberculture ! Et qui laisse à penser qu’il ne s’est peut être pas autant converti qu’on le dit à la pensée libérale-capitaliste…

Brand conseille aussi la série des Fondations d’Asimov, qui est bien en phase avec les réflexions sur le long terme. il recommande également le Créateur d’étoiles d’Olaf Stapledon. Ce texte de science fiction philosophique, qui date de 1937, est l’un des premiers grands livres explorant une forme de spiritualité de l’âge spatial, qui influencera grandement des auteurs comme Arthur C. Clarke.

Les Prelinger, eux, conseillent la Trilogie Martienne de Kim Stanley Robinson, qui raconte avec moult détails la terraformation de la planète Mars. Pas étonnant lorsqu’on apprécie aussi le livre d’Allen sur Biosphere 2 ! La liste des ouvrages de SF s’épaissira certainement bientôt, lorsqu’on connaîtra les suggestions de Neal Stephenson et Neil Gaiman.

Le long terme, entre passé et futur

A la lecture des livres conseillés, on voit se dégager une forme de pensée particulière, qui était d’ailleurs déjà celle de Stewart Brand à l’époque du Whole Earth Catalog : un mélange de néoprimitivisme et de technologie très sophistiquée. Les livres sur la colonisation de l’espace sont voisins des manuels de bricolage aux limites du “survivalisme”. L’intérêt pour Biosphere 2 est d’ailleurs très représentatif de ce courant. Ce mélange de passé et de futur est d’ailleurs au coeur même du projet du Long Maintenant, puisque la fameuse horloge conçue par Daniel Hillis n’est constituée que de pièces mécaniques. En effet, un appareillage électronique ne s! aurait rester intact pendant des millénaires, surtout en cas de disparition de la civilisation… Et il va sans dire que la bibliothèque sera avant tout constituée de livres papier : le seul support à la pérennité garantie. Les concepteurs du Long Now envisagent cependant d’en créer une version digitale sur Archive.org. Ce qui devrait d’ailleurs poser des questions intéressantes au plan du copyright !

On peut bien sûr s’interroger sur le côté “catastrophiste” sous-jacent à un tel projet. Mais cependant, l’intérêt du manuel de la civilisation tient moins à sa valeur en cas de destruction massive qu’à la réflexion demandée par l’exercice. Qu’est-ce qui, dans l’ensemble de la culture mondiale, compte réellement ? Et quel est le poids de toutes nos philosophies face à une encyclopédie… du bricolage ?

Et vous, quelle serait votre liste ?

Rémi Sussan

économie de l'attention, biens communs, culture libre, do it yourself, imaginaire, littérature, prospective, Science-fiction
Author: "Rémi Sussan" Tags: "Archivage/stockage, Articles, Débats, E..."
Comments Send by mail Print  Save  Delicious 
Date: Wednesday, 15 Jan 2014 05:01

Raphaël Troncy (@rtroncy) est enseignant chercheur à Eurecom à Sofia Antipolis et est surtout membre du W3C, l’organisme de standardisation du web (nous l’avions déjà entendu lors de la seconde édition de la semaine européenne de l’open data). Nos machines ne voient pas les pages web comme nous les voyons, explique-t-il sur la scène des Entretiens du Nouveau Monde industriel en introduction à sa présentation. C’est pourquoi il faut leur expliquer ce que sont les différents signes d’une page. C’est pourquoi on a créé le balisage HTML, à la fois pour structurer les documents et expliciter aux machines ce dont il s’agissait. Mais pour les machines, cela ressemble toujours à du russe. Le nom des balises ne porte aucun sens. D’où l’idée d’ajouter des données avec de la sémantique pour que la machine comprenne mieux ce dont il est question.


La présentation de Raphaël Troncy.

Indexer les documents multimédia est encore plus compliqué pour les machines, c’est pourquoi il est encore compliqué de retrouver des documents multimédia pertinents… Aujourd’hui, pour indexer des documents multimédias, les moteurs regardent le nom des fichiers et ce qu’il y a autour. Contrairement au texte, les documents multimédias n’ont pas d’alphabets permettant d’en déduire du sens. Il faut apprendre alors aux machines à reconnaître des formes… C’est ce que l’on fait par exemple en leur donnant plein d’images d’un même objet pour qu’elles deviennent capables de reconnaître les formes, les textures de ce qui s’affiche à l’image. Mais c’est un apprentissage compliqué. Il faut en moyenne 3 ans pour qu’une machine apprenne à classifier un objet sans trop d’erreurs. Alors, comment faire mieux ?

Depuis 2007, le W3C a beaucoup travaillé sur ces questions d’indexation vidéo et a proposé de mieux les adresser, d’améliorer leur description, leurs métadonnées et codecs. A cette époque, il existait des choses, mais qui n’étaient pas standardisées. Flickr par exemple permettait à ses utilisateurs de décrire des parties d’images en permettant d’ajouter des notes aux photos. YouTube proposait déjà un système pour lire une vidéo à partir d’un segment particulier en définissant le temps (#t=1m43s, une syntaxe qui, ajoutée à l’URL d’une vidéo permet de la faire démarrer à 1 minute et 43 secondes dans ce cas précis). Le groupe de travail du W3C a standardisé ces expériences et le code, permettant ainsi de mieux partager les médias et notamment des extraits… Désormais, on peut nommer des chapitres dans une vidéo, on peut définir des fragments temporels ou spatiaux sur une vidéo…, c’est-à-dire faire plusieurs types d’annotation en vidéo. Annoter ou taguer une partie d’image, mais également introduire des annotations sémantiques pour décrire via des identifiants normalisés une image. Ainsi, on peut identifier la présence d’une personne dans une vidéo, comme un personnage historique, indiquer que c’est une personne, lier son nom à sa biographie Wikipédia… On ne décrit plus avec des chaines de caractères, mais avec des choses, identifiées par des URI qui font donc appel à des bases de connaissances qui utilisent des vocabulaires communs en suivant le principe des données liées permettant de les interrelier entre elles. Le W3C travaille sur le projet Open Annotation, permettant de lier une image à des explications… Pour comprendre comment cela fonctionne, le mieux est de se référer à des systèmes qui utilisent déjà ce type de fonctionnalité comme MapHub, qui permet d’annoter des cartes historiques par exemple ou l’Open Video annotation Project et LinkedTV qui permettent de générer des annotations automatiques enrichissant des informations au format vidéo et permettant d’augmenter les vidéos de demains d’information contextuelle. A terme, ces enrichissements vont permettre aussi de réutiliser et mixer plus facilement des morceaux de média, comme commence à y travailler le projet européen community.mediamixer.eu.

Contrôler le temps

C’est à une tout autre forme d’indexation du monde que s’intéressait Frédéric Kaplan (@frederickaplan), qui a initié en juillet 2012 le Laboratoire des humanités numériques de l’Ecole polytechnique fédérale de Lausanne (voir sa présentation)… en nous invitant à visiter les archives de l’Etat de Venise. Ce bâtiment qui rassemble sur 80 km de rayonnages les 1000 ans d’histoire de la ville de Venise, conserve la mémoire de la ville, à la manière d’un Google du Moyen-âge, bâti pour en tracer les changements en assemblant toutes les informations disponibles : testaments, impôts, lois de la cité, délibérations du Sénat de Venise, évolution du trafic maritime… “Se promener dans ce lieu procure un sentiment physique d’appréhender les Big Data du passé…” Mais comment transformer cette archive en système d’information ?


La présentation de Frédéric Kaplan : L’historien et l’algorithme.

Les archives de Venise sont trop volumineuses pour être étudiées par des équipes isolées de chercheur, rappelle Frédéric Kaplan… “Partout désormais, pour l’analyse du génome, pour l’analyse des systèmes planétaires, pour celle du système cérébral, nous avons besoin d’une coordination mondiale… En histoire également, nous allons avoir besoin d’actions coordonnées dans lesquelles les algorithmes vont jouer un rôle central.”
Pourtant, si l’historien Emmanuel Le Roy Ladurie avait prédit que l’historien de demain serait un programmeur, force est de constater que la relation entre histoire et informatique est restée plutôt houleuse. Les méthodes quantitatives ont montré leurs forces dans certains domaines et leurs faiblesses dans d’autres. Les débats critiques sur l’apport de la numérisation ne cessent d’être relancés.

Si les nouvelles interfaces d’exploration du passé n’existent pas encore, peut-être peut-on regarder les nouvelles interfaces d’exploration de l’espace pour s’en inspirer, propose Frédéric Kaplan en nous invitant à observer les qualités de Google Maps. Comment pourrait-on le transposer à l’analyse historique ? Dans Google Maps, pour l’instant, le temps n’existe pas, mais les enregistrements de données satellitaires de Google Maps et celles des rues de Google Streeet ne sont pas coordonnées et montrent souvent deux images différentes d’une même réalité, dans laquelle toute référence temporelle semble avoir disparu au profit d’un “grand maintenant”, d’un présent indéfini. “Comment construire les Google Maps du passé ? Comment proposer de voir des versions anciennes d’une même réalité ? Pourra-t-on demain voir la densité sociale et son évolution avec la même granularité ?”

L’information numérique est très disparate. Si la quantité de données disponibles sur les 10 dernières années est très forte, elle se raréfie à mesure que l’on recule dans le temps. Pour représenter le passé, il faut donc parvenir à en reconstruire la densité, ce que tentent de faire les archives par le biais de la numérisation. Mais à mesure que l’on remonte dans le temps, les logiques informationnelles changent et ne se superposent pas nécessairement : le nombre de documents disponibles se raréfie… Cela signifie que pour leur redonner de la densité, il va falloir combler les données existantes, les extrapoler en partie, “les simuler”. Et pour cela, informaticiens et historiens vont devoir s’entendre pour coordonner leurs hypothèses de travail et leurs pratiques.

C’est tout l’enjeu du projet Venice Time Machine, la machine à remonter le temps de Venise, sur laquelle travaillent Frédéric Kaplan et ses équipes. L’enjeu : construire une base de données pour faire de la modélisation de Venise à travers le temps un bien commun. Le projet est à la fois un programme de cours et de recherche, qui interroge son objet à mesure qu’il le construit. Comment numériser efficacement des archives anciennes ? Comment transcrire des documents numérisés avec des systèmes de reconnaissance de caractères qui fonctionnent mal, avec des dialectes ou des styles d’écritures multiples ? Comment utiliser les techniques du web sémantique quand les questions conceptuelles évoluent dans le temps ? Comment définir un peintre à Venise, quand dans le temps cette fonction évolue et demeure très variée ?…

Par la pratique, les étudiants sont invités à adapter les techniques générales de l’internet à des cas particuliers. Questionner le monde ancien permet aussi de se poser des questions sur le monde de demain : les systèmes sémantiques que nous développons actuellement ne seront-ils pas obsolètes dans 50 ans ? Comment créer de grands graphes de notions, de personnes ? Comment évolue le salaire moyen d’un apprenti ? Combien de fils de peintres sont-ils devenus eux-mêmes peintres ? Comment superposer des cartes de Venise dans le temps, alors que leur niveau de détail n’est pas superposable ?

“Reconstruire Venise, c’est comme résoudre un énorme Sudoku !” concède Frédéric Kaplan. Pour le résoudre, la recherche doit s’appuyer sur les algorithmes, ces nouveaux médiateurs des sciences historiques… “Il faut transformer les hypothèses en algorithmes, mais également apprendre à représenter les incertitudes et les inconsistances avec une certaine éthique de la représentation… afin de donner vie non pas à une Venise, mais à des Venise”, c’est-à-dire à une multitude d’images et de représentation de Venise interreliée entre elles.

… pour expliciter l’implicite

“Pour que le monde devienne indexable, il faut expliciter l’implicite à la machine. Par exemple, dans le cadre du jeu d’échec, il a fallu faire comprendre à la machine qu’on ne pouvait pas placer plusieurs pièces sur une même case. Dans le monde des ordinateurs, expliciter devient exécuter”, rappelle Christian Fauré (@ChristianFaure) d’Ars industrialis. “La puissance opérante de l’explicitation numérique du monde se paye d’une contrepartie : il n’y a plus la moindre interprétation possible”. Or, il faut des défauts pour qu’il y ait des processus, il faut une possibilité d’interprétation, il faut des bugs pour créer des fonctionnalités, rappelle l’ingénieur philosophe.

L’explicitation des manières d’opérer nécessite donc d’expliciter les données, comme l’expliquait Raphaël Troncy en évoquant le besoin de normalisation des formats et modèles de données. Expliciter les données, le dataware, mais également les opérations, le software, rappelle Christian Fauré, car les deux sont intimement liés.

Les enjeux de l’explicitation du monde pour les machines se doublent d’un phénomène de récursivité et de mise en abîme à mesure que les données sont réutilisées par d’autres services. Nous sommes enfermés dans un cycle des données, une logique de profilage qui nous renvoie à nous-mêmes jusqu’à la nausée… Dans ce cycle des données, où est la part d’invention, d’autonomie qui nous reste ? Jusqu’à présent, nous nous accommodions de l’implicite, qui était même une condition de bon fonctionnement. L’affordance, cette faculté de l’objet à induire sa propre utilisation a toujours été un enjeu important de l’adoption des technologies : il n’y a pas de mode d’emploi à une poignée ou à un jeu vidéo… Or la transformation de l’implicite en explicite n’est pas sans générer de nouvelles tensions.

Contrairement à ce que semble vouloir nous faire croire le passage de la causalité aux corrélations, il n’y a jamais d’explicite sans implicite et inversement. Un monde complètement explicité n’aurait plus beaucoup d’intérêt, rappelle le philosophe.

Les algorithmes ne sont pas la solution au problème pas plus qu’ils ne sont le problème. Le risque est de laisser les outils des Big Data à l’industrie, au marketing, au risque de cautionner que l’État est le problème plus que la solution au problème, estime le philosophe. La question des Big Data n’a pas pénétré le monde académique notamment parce que les scientifiques n’ont pas les données à leur disposition : ce sont les industriels qui les ont. D’ailleurs, le développement de la science des données se fait aujourd’hui bien plus dans les industries du numérique que dans les universités. Dans l’industrie, elle est le fait d’équipes pluridisciplinaires, comme le montre la composition de l’équipe d’analyse des données de Facebook. Avec pour but de faire émerger un nouvel objet, un nouvel outil d’action sur le monde.

Faut-il utiliser les automates pour s’armer contre les automates ? Les solutions aux dérives de l’automatisation du monde résident-elles dans l’automatisation elle-même ?

Et le philosophe d’esquisser deux pistes pour répondre au défi de l’indexation et du contrôle du monde par les algorithmes. La technique des cartographies de controverses initiées par Bruno Latour ne cherche pas tant à regarder les polémiques qu’à armer la critique dans ses modes d’action. C’est la même approche “pharmacologique” que l’on retrouve dans l’open source logiciel qui fait la part belle au dissenssus, comme le montrent des outils critiques d’écritures tels que GitHub, qui permet d’accéder à toutes les versions d’un code. Mais peut-on, saura-t-on demain appliquer ces méthodes, ces démarches, ces outils aux manières dont on pense ? Pourra-t-on demain dresser la cartographie des algorithmes ? En créer des versions critiques ?

Lev Manovich (Wikipedia, @manovich), pour le Chronicle of Higher Education, ne disait pas autre chose récemment en nous invitant à nous intéresser aux logiciels. L’étude des logiciels demande de nouvelles méthodologies pour analyser des expériences interactives, pour représenter leurs performances, leurs fonctionnalités et leurs intrications… estime le chercheur. L’étude du code ne suffira pas, d’autant qu’elle est devenue compliquée. Or, nous avons besoin de comprendre les logiciels pour comprendre et discuter de leurs fonctions et de leurs actions sur le monde. Manovich et ses collègues ont récemment tenté de visualiser les modèles dans l’utilisation d’Instagram (voir le projet Phototrails) en analysant 2,3 millions de photos provenant de 13 villes du monde. Si l’utilisation d’Instagram est toujours cohérente, massive, quelque soit l’endroit sur la planète d’où on l’utilise, les chercheurs ont trouvé des différences significatives selon les villes et les cultures, notamment dans l’utilisation des lumières, des couleurs et des filtres. Pour Manovich comme pour Fauré pourrait-on dire, la question est de savoir comment le logiciel ou les algorithmes que nous utilisons influencent la manière dont on s’exprime, dont on imagine ? Que signifie être citoyen d’une société logicielle ?

Hubert Guillaud

algorithmie, écriture, big data, enmi, humanités numériques, vidéo, web sémantique
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Image, Int..."
Comments Send by mail Print  Save  Delicious 
Date: Wednesday, 13 Nov 2013 05:00

Pour obtenir ce que vous voulez d’un service client par téléphone, il vaut mieux montrer son émotion que la retenir, explique Noreen Seebacher (@writenoreen) pour All Analytics (@allanalytics). La colère, l’indignation et les larmes fonctionnent mieux que la raison.

On se demande souvent à quoi sert l’enregistrement des conversations que l’on est contraint d’accepter lorsqu’on appelle un service client… Et bien certains centres d’appels les utilisent pour étudier les interactions vocales entre clients et téléopérateurs. Nice Systems développe ainsi un programme d’analyse automatique de la voix pour traiter plus efficacement les réclamations des utilisateurs. Des logiciels de ce type aident à mesurer l’humeur du client en temps réel afin de proposer des options au téléopérateur pour restaurer la relation. Nice Systems par exemple réagit à des mots clefs pour déclencher des contre-mesures : dire des obscénités, se mettre en colère ou faire référence à des concurrents déclenche ainsi des alertes (notamment l’intervention d’un superviseur) pour désamorcer la colère du client et éviter de le perdre. Selon une étude du SQM Group, lorsque les problèmes des clients sont résolus au premier appel, seulement 1% des clients sont susceptibles d’essayer la concurrence, contre 15% lorsque leur problème n’est pas suffisamment pris en compte. L’analyse automatique de la parole est devenue un investissement ordinaire dans les Centres d’appels, rapporte une autre étude.

Après la commande vocale

siriAlors que les systèmes de reconnaissance vocale commencent à envahir notre quotidien, notamment avec Siri ou Voice Search intégré au navigateur Chrome de Google (et demain à tous les produits Google, des lunettes à la voiture), la prochaine frontière de l’analyse de la voix n’est plus dans la reconnaissance vocale ou la commande vocale, mais s’est déjà déplacée à la compréhension de l’humeur.

Beyond Verbal a ainsi développé une technologie qui cherche à reconnaître votre humeur juste en écoutant le son de votre voix, rapporte la Technology Review. L’idée est d’analyser le ton de la voix pour en déduire l’état émotionnel de votre interlocuteur afin de permettre aux interfaces de demain de s’y adapter (voir la vidéo promotionnelle explicative). Beyond Verbal estime être capable d’analyser la modulation de la voix et se dit capable de détecter l’émotion d’un interlocuteur avec 80% de précision.

Pour Clifford Nass, le spécialiste de l’interaction homme-machine, auteur de Câblés pour le langage : comment la voix active et augmente la relation homme-machine et de L’homme qui mentait à son ordinateur : ce que les ordinateurs nous apprennent des relations humaines, s’il est possible d’utiliser des machines pour détecter certaines formes d’émotions dans la voix, aucune technologie pour l’instant n’est aussi aboutie que l’esprit humain, d’autant que la tonalité est parfois très difficile à interpréter, notamment selon la langue et la culture employée. L’informatique affective n’est pas si accessible. Pour James Lester, responsable du groupe IntelliMedia à l’université de Caroline du Nord, spécialiste de l’informatique affective, visiblement si Beyond Verbal parvient à peu près correctement à identifier certaines émotions, le logiciel a plus de mal à dire si ces émotions sont positives ou négatives.

Pour progresser, ces systèmes utilisent l’enregistrement de discours et dialogues disponibles en ligne, notamment pour en comprendre les intonations, les pauses, les interjections, rapporte le New York Times. Ron Kaplan de Nuance Communications, l’éditeur des suites logicielles de reconnaissance vocale Dragon, travaille depuis longtemps à rendre la compréhension de nos propos plus fluides, mais selon lui, là encore, l’analyse de sentiment va apporter une nouvelle forme de connaissance, augmenter notre intelligence émotionnelle, nous permettant par exemple de mieux entendre quand quelqu’un nous nous ment. Neville Chamberlain croyait-il à son accord avec Hitler quand il fait son discours suite à la signature des accords de Munich en 1938 ? Est-ce que l’analyse temps réel des discours politiques (comme Beyond Verbal le propose en analysant une des séquences du débat entre Obama et Romney) ou des propos de vos collègues ou de vos supérieurs nous apporterons une nouvelle connaissance ? “Qu’est-ce qui est préférable pour nos coeurs et nos esprits, le théâtre de la politique ou la déférence à l’algorithme ?”

Mais la voix ne servira pas qu’à cela… Elle servira également à vous identifier. Nuance a ainsi lancé un produit capable d’identifier quelqu’un en une quinzaine de secondes juste en discutant de la pluie et du beau temps avec lui.

Mais la voix “est appelée à se déplacer dans des utilisations où elle n’avait jamais servi jusqu’à présent”. Des applications pour poster des conversations sur Facebook, pour créer des retranscriptions d’appels comme le propose Tropo… Les constructions sociales pour l’enregistrement audio omniprésent sont à inventer, estime Jason Goecke de Tropo, qui évoque le concept d’Hypervoix pour évoquer les nouveaux enjeux de la voix. Récemment, le Consortium Hypervoice a été lancé pour créer des normes et des pratiques pour gérer la façon dont nous allons passer de la voix éphémère à la voix permanente.

hypervoice

Comme l’exprime leur manifeste, “les conversations vocales de demain ne doivent pas seulement porter nos voix à distance, mais être capables d’amplifier nos pensées, nos actions et intentions dans l’espace et le temps”. Pour cela elles doivent permettre d’accéder au contexte, d’être reliées entre elles, d’être accessibles… Pour Martin Geddes, le responsable du consortium, la voix est l’interface de demain. Selon lui, les cinq caractéristiques de l’hypervoix sont :

  • l’intégration du flux d’activité, c’est-à-dire le fait de “relier ce que nous disons avec ce que nous faisons”, comme par exemple renouer notre journal d’appel à leur enregistrement ;
  • pour cela, il faut que nos activités audio soient enregistrables… Mais cet enregistrement n’est pas seulement un contenu, il doit également être augmenté de données pour savoir qui parle, où, de quoi… ;
  • les conversations doivent devenir partageables ;
  • les conversations doivent s’intégrer au flux de travail ;
  • enfin, elles doivent être cherchables que ce soit par la transcription ou l’étiquetage des contenus ou de leurs métadonnées.

Pour comprendre le principe, le mieux est pour l’instant de regarder certains des projets des partenaires du consortium, comme le Symposia de la société Harquen, une solution de téléconférence qui permet d’étiqueter le contenu audio d’une conférence téléphonique pour en souligner les moments importants et pouvoir s’y référer si besoin (vidéo), ou VoiceBase, qui permet de chercher et partager des contenus audios ou vidéos, tout comme CallTrunk. Mais l’exemple le plus étonnant vient peut-être de MindMeld, une application de messagerie instantanée dotée d’un assistant intelligent qui “comprend” ce que vous dites et augmente vos conversations d’images ou de liens… relatifs à vos propos (voir la vidéo).

Effectivement, ce dernier exemple ouvre quelques nouvelles perspectives quant à l’utilisation de la voix. Faire apparaître à vos interlocuteurs le site web, la vidéo ou l’image dont vous parlez au moment où vous en parlez… plutôt que de devoir prendre le temps de les chercher cela change les choses. Encore faut-il que le système soit relativement fiable. Mais on peut légitimement penser qu’avec un peu de contexte et d’entrainement, il ne peut que progresser…

Hubert Guillaud

corps, design, informatique affective, intelligence artificielle, langage, réalité augmentée
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Communicat..."
Comments Send by mail Print  Save  Delicious 
Date: Wednesday, 03 Apr 2013 05:00

Le champ de l’informatique quantique est-il véritablement en train de démarrer ? C’est certainement vrai dans le domaine scientifique, puisqu’il ne se passe pas une semaine sans que la presse spécialisée ne relate une avancée, mais la question se pose aujourd’hui également en termes commerciaux. En effet, pour la première fois, des applications “pratiques” vont être développées à l’aide de l’ordinateur de D-Wave, dont nous avons parlé il y a maintenant quelques années.

A l’époque, l’annonce de D-Wave avait été accueillie avec un certain scepticisme. Il est vrai que la startup n’avait alors pas jugé utile de partager ses travaux avec ses pairs. Les choses ont changé avec la publication d’un papier dans Nature en 2011. Cela n’a pas pour autant fait taire toutes les critiques, et, aujourd’hui encore, on le verra, certains mettent en doute le caractère proprement quantique du système D-Wave.

La polémique n’a pas empêché les affaires de continuer.

En 2011, Lokheed Martin annonçait l’achat d’un ordinateur quantique D-Wave. Lokheed Martin, ce n’est pas n’importe quoi. Il s’agit d’une très grosse entreprise américaine liée à la défense (la plus grosse d’après la Wikipedia). Ces jours-ci, le New York Times nous annonce que pour la première fois, l’entreprise va mettre à profit les calculs quantiques de D-Wave dans ses projets. L’auteur de l’article connait bien son sujet, puisqu’il s’agit de John Markoff, journaliste bien connu dans ce domaine.

On y apprend que, selon l’entreprise de défense, on pourrait utiliser la computation quantique pour créer de nouveaux systèmes de contrôle des radars, et gérer aussi de complexes problèmes liés à l’aéronautique et à l’espace. “Il pourrait être possible, par exemple, de savoir instantanément comment les millions de lignes d’un logiciel pilotant un réseau de satellites pourraient réagir à une éruption solaire ou au souffle d’une explosion nucléaire – des calculs qui demanderaient aujourd’hui des semaines.”

Toujours selon Markoff, d’autres applications peuvent être envisagées, notamment dans le domaine de la biologie : par exemple, le comportement très complexe des protéines pourrait être bien plus facilement étudié, ce qui ferait de D-Wave un sérieux concurrent pour la communauté Foldit !

Markoff nous apprend aussi, qu’en dehors de Lokheed Martin, des chercheurs de chez Google travailleraient actuellement avec D-Wave sur la reconnaissance de voitures et d’autres éléments du paysage, ce qui faciliterait le fonctionnement des “Google cars”, les voitures autonomes de Google. En fait, l’expérience date de 2009. Les chercheurs de Google ont commencé par “éduquer le système” en lui montrant des photos intégrant des voitures entourées de boites virtuelles pour faciliter l’apprentissage. Ensuite, ils lui ont présenté 20 000 photographies, dont la moitié avec des véhicules. Le système “quantique” aurait repéré les bonnes images beaucoup plus rapidement que les algorithmes conventionnels utilisés habituellement par Google.

La loi de Rose

Les aficionados de D-Wave imaginent volontiers pour leur technologie un futur ahurissant. Ils commencent même à parler de la “loi de Rose” d’après Michael Rose, le fondateur de la société.

Pour Steve Jurvetson, l’un des investisseurs de D-Wave et inventeur de cette expression, le nombre de qubits disponibles doublerait tous les ans, ce qui est supérieur à la vitesse estimée de la fameuse “loi de Moore”. A la différence près rappelle-t-il, que contrairement à la loi de Moore, le doublement des qubits entraîne également une multiplication du pouvoir computationnel des machines. Une vidéo, publiée par D-Wave, nous montre qu’effectivement, les ordinateurs D-Wave ont doublé leur capacité en qubits au cours de ces dernières années.

Un autre schéma de la loi de Rose nous explique ce que signifierait, en terme puissance de calcul, une telle accélération technologique. D-Wave propose aujourd’hui le Vesuvius armé de 512 qubits. Dans le courant de l’année prochaine devrait apparaître une machine capable de l’emporter sur n’importe quel ordinateur classique, du moins dans les problèmes d’optimisation (c’est donc admettre qu’il ne le fait pas encore aujourd’hui!). Un an après, l’ordinateur quantique de D-Wave pourrait surpasser en puissance tous les ordinateurs classiques de la terre combinés. Et enfin, encore après un doublement, il pourrait afficher une puissance supérieure à celle de l’univers entier, ce qui signifie, selon Jurvetson, qu’il serait supérieur à un ordinateur classique employant toute la masse et l’énergie de l’univers…

Mais Jurvetson nous prévient néanmoins que l’ordinateur quantique de D-Wave reste une machine spécialisée : il ne remplacera pas l’informatique traditionnelle.

“D-Wave n’a pas construit un ordinateur généraliste. Il est préférable d’imaginer sa création comme un processeur destiné à une application spécifique, conçu pour exécuter une tâche, résoudre des problèmes d’optimisation combinatoire (autrement dit, trouver la meilleure solution parmi un ensemble de possibilités – NDT). Mais cela peut se monter utile dans de nombreuses applications pratiques, de la finance à la modélisation moléculaire ou à l’apprentissage automatique. Car cela ne va changer grand-chose à notre informatique personnelle. Dans le futur proche, on peut penser qu’on y aura recours pour des applications de supercalcul, dans des tâches commerciales d’optimisation où une simple heuristique peut suffire aujourd’hui, et peut-être oeuvrera-t-il dans l’ombre d’un gigantesque Centre de données internet, aidant à la reconnaissance des images et à d’autres formes de magie de l’intelligence artificielle (IA). Dans la plupart des cas, l’ordinateur quantique jouera le rôle d’un coprocesseur au sein d’un cluster d’ordinateurs classiques.”

Mais Steve Jurvetson reconnaît aussi la possibilité qu’un “mur” imposé par les lois physiques en vienne tôt ou tard à bloquer cette progression et mette fin à la “loi de Rose”.


Image : La loi de Rose, par Steve Jurvetson.

Une machine de rêve pour l’IA ?

Chercheuse chez D-Wave, Suzanne Dilbert se penche, elle, sur les possibles applications des machines quantiques à l’intelligence artificielle. A la fois physicienne et informaticienne, elle s’est intéressée aux modèles quantiques du cerveau. Avant de rejoindre D-Wave, elle avait remarqué une similarité entre la manière dont les neurones se connectent et le comportement des qubits.

Pour elle le cerveau est constitué de larges structures opérant de manière massivement parallèle, ce qui pourrait être reproduit aisément à l’aide d’une machine D-Wave. Elle cherche ainsi à créer un modèle d’intelligence artificielle directement inspiré par la biologie. A noter que faire usage de la mécanique quantique pour simuler le cerveau ne signifie pas pour autant valider la théorie de Roger Penrose et Stuart Hameroff selon laquelle l’organe de la pensée serait lui-même basé sur un fonctionnement quantique, théorie actuellement rejetée par plupart des scientifiques.

Les critiques n’ont pas désarmé pour autant. Certains mettent en doute la valeur de la technologie de D-Wave. Comme le rappelle John Markoff, “Les chercheurs de la société n’ont pas encore publié de données scientifiques établissant que le système calcule plus rapidement que des ordinateurs binaires conventionnels actuels. (…) Les critiques de la méthode de D-Wave objectent qu’il ne s’agit pas de calcul quantique du tout, mais d’une forme de comportement thermique standard.”

La conclusion qu’on peut en tirer est qu’apparemment, D-Wave est bel est bien sur une piste intéressante. Mais on s’interroge toujours sur la nature des processus effectués, si on a réellement affaire à de l’informatique quantique. Sur le plan pratique, il lui reste à prouver que sa technologie est véritablement plus rapide et efficace que les méthodes conventionnelles.

Rémi Sussan

Via Next Big Future.

futur, intelligence artificielle, NBIC, prospective
Author: "Rémi Sussan" Tags: "Archivage/stockage, Articles, Technologi..."
Comments Send by mail Print  Save  Delicious 
Date: Tuesday, 02 Apr 2013 08:06

La lecture de la semaine est un très beau texte publié dans The Atlantic par mon nouveau héros Alexis Madrigal. Il s’intitule “quand les journaux étaient nouveaux ou comment les Londoniens parlèrent de la peste”.

“Certains disent que la peste a été d’apportée d’Italie, d’autres du Levant, parmi d’autres choses importées chez nous par la flotte turque ; d’autres encore disent qu’elle vient de Chypre”, écrit Daniel Defoe en ouverture de son récit historique Journal de l’année de la Peste (1722). Le livre, que beaucoup ont lu comme un roman, portait un sous-titre évocateur pour nous, écrit Alexis Madrigal : “observations et souvenir des faits les plus remarquables, aussi bien publics que privés qui se sont déroulés à Londres en 1665″. Un texte présenté comme l’œuvre d’un citoyen “demeuré pendant ce temps à Londres” et révélant une intrigue, “jamais rendue publique jusqu’ici”.


Image : Une histoire de la peste et du feu, estampe provenant de la bibliothèque du collège d’Harvard.

Commentaire de Madrigal : “En tant que journaliste à l’ère numérique, je me suis tout de suite dit que Defoe aurait su engranger les pages vues”. Pour le dire autrement, Defoe aurait été un sacré blogueur. Il a atteint une reconnaissance nationale en tant que journaliste, au début du 18e siècle, au moment où naissaient les journaux imprimés. Une partie de son succès, il l’a dû à sa capacité à cracher de la copie. Un de ses biographes parle de lui comme d’une “véritable machine à écrire” qui donnait son point de vue au jour le jour, d’une manière qui n’avait pas, et n’a toujours pas, son égal dans l’histoire de l’écriture politique anglaise. Il avait sa propre publication, the Review, qu’il a rédigée et publiée trois fois par semaine pendant neuf ans d’affilée. Elle ressemble à ce point à un blog qu’un chercheur la recréée sur un site sous WordPresse defoereview.org. Et après la publication de Robison Crusoe en 1719, il a publié le Journal en 1722, un étrange petit livre basé sur presque une décennie de collections de faits, d’histoires, d’anecdotes autour de la peste qui a frappé Londres quand Defoe était enfant. Et ce livre n’est pas seulement une réflexion sur la peste en elle-même, mais sur la manière dont l’information se diffuse. Defoe est fasciné par ce qui fait autorité en matière d’information, par la manière dont les gens donnent du sens à l’information et on peut dire qu’il en conclut avant l’heure que le message, c’est le médium.

Au tout début du livre, reprend Madrigal, Defoe signale que l’écologie de l’information sera un sous-texte essentiel : “A l’époque, nous n’avions pas les journaux imprimés pour répandre les rumeurs et le compte-rendu des faits, et pour les améliorer par l’invention des hommes, comme je l’ai vu pratiqué depuis.”

Madrigal voit là une observation très contemporaine, dans la tonalité générale et l’ironie, dans l’impossibilité de distinguer précisément si Defoe approuvait ou non ces journaux imprimés. Defoe était le créateur du journalisme imprimé et pour autant, ne savait pas bien quoi penser de son impact sur le monde. Une profonde ambivalence que Madrigal dit ressentir aujourd’hui face aux médias numériques.

Mais Madrigal insiste sur la phrase de Defoe ” répandre les rumeurs et le compte-rendu des faits, et les améliorer par l’invention des hommes”. “C’est brillant, dit Madrigal. Des mots positifs (améliorer, invention) qui sont accolés à d’autres (rumeurs, compte-rendu) et deviennent par là même très ambivalents. Des rumeurs améliorées, des comptes-rendus inventés. Ou des rumeurs inventées et des comptes-rendus améliorés. Les journaux, alors, ne pervertissent pas seulement les faits, mais aussi les rumeurs et le compte-rendu des faits, les nouvelles apportées par les commerçants, les lettres, les choses imprimées par les pamphlétaires, rêvées dans les cafés, les décrets des gouvernements, les divinations déduites de la course des étoiles, les choses vues. Les journaux, semble-t-il, pervertissaient le mélange en quoi consistait l’information à la fin du 17e siècle, avant la prolifération et la formalisation des journaux. Pourtant, le secret délibéré qui entoure le gouvernement et l’asymétrie de l’accès à l’information sont décrits par Defoe comme le mal. Le mauvais traitement de l’information dans les réseaux du bouche-à-oreille a entraîné des morts pendant l’épidémie de peste. Les soi-disant prophètes et les charlatans ont proliféré parce que les gens manquaient d’information pour faire la différence entre la réalité et le reste. En ce sens, les journaux ont aidé ce que l’information “se répande instantanément dans le pays tout entier”, ce qui les rachète. La vie pouvait être pervertie, car convertie en une information transmise par ce nouveau médium, mais ça n’était pas forcément une mauvaise chose. Le passé était-il parfait ? Non. L’avenir le serait-il ? Non. Mais il pouvait être un peu mieux.

Madrigal explique avoir voulu en savoir plus sur Defoe. Et notamment sur l’afflux nouveau d’information qui a caractérisé cette époque de l’histoire. Car Defoe n’a pas été le seul à devoir affronter cet état, c’était un trait d’époque. Les historiens, notamment Katherine Ellison (éditrice de Digital Defoe), montrent que les gens de cette époque ont développé des stratégies pour faire face à cette “surcharge informationnelle”, qui existait bel et bien en ce début de 18e siècle. Les auteurs de cette époque, dans lesquels il faut compter aussi Jonathan Swift, sont très conscients de cet état, pas seulement pour l’accepter ou y résister. Chaque œuvre ouvre au lecteur des pistes d’adaptation possible à ce qui est perçu comme une prolifération des textes. “Chaque œuvre démontre son propre processus de résolution du problème technologique”, écrit Katherine Ellison. Et cela, sans adopter une réponse de l’ordre de l’enthousiasme débridé ou de l’horreur.

Dans la suite de son passionnant article, Madrigal montre comment le livre de Defoe est une réponse, comment le livre s’interroge sur la production de statistique de mortalité pendant l’épidémie ou sur le processus d’interprétation d’un fait par la foule. Il montre comment se mettre à distance d’une information qui s’est répandue partout dans la ville, comment, quelle que soit sa provenance – l’Etat, la rumeur, la nature elle-même – l’information doit être regardée avec scepticisme. En même temps, Defoe montre que les contenus oraux, les textes imprimés ou manuscrits ne peuvent pas être vus comme des médias séparés, ces formes de communications étant proches et ayant tendance à franchir les barrières. Un trait significatif, qui peut paraître exotique aujourd’hui, est néanmoins la place que Defoe accorde à la religion et à la volonté de Dieu dans une information. Quand une information lui arrivait, Defoe passait son temps à se demander “Que Dieu veut-il me dire par là ?”

Or, pour Madrigal, c’est exactement ce qui se passe dans notre rapport à la technologie. Quand on regarde Facebook, Twitter, BuzzFeed, une visualisation de données ou un drone, on a tendance à se demander : “Qu’est-ce que la technologie essaie de me dire ?” Et en passant notre temps à essayer de voir si la technologie change le monde, si c’est bien elle qui est la cause de tel ou tel comportement, on l’investit d’une sorte de puissance supérieure, on se retrouve engagé dans un processus de divination pas très intéressant.

D’où la conclusion de Madrigal : “Peut-être pouvons-nous nous inspirer de Defoe, de son ironie et de son scepticisme et ne pas voir dans le monde des choses qui n’y sont pas. Il n’y a pas forcément une téléologie à l’oeuvre. Personne n’a le bon modèle pour prédire les impacts des changements induits par la technologie. Et même, certains ont de très bonnes raisons de faire passer pour inévitables certains avenirs.” Et, dans internet, ce médium que nous créons pour “répandre les rumeurs et le compte-rendu des faits”, il ne faut pas, selon Madrigal, oublier le double sens que Defoe donne aux mots “améliorer” et “invention”. Ce ne sont pas des choses simples. Elles ont un coût qui diffère, mais pas en nature, des solutions qui ont été imaginées auparavant. Alors que nous nous efforçons de construire quelque chose de nouveau et de meilleur, je recommande, dit Madrigal, une dose d’humilité, car, comme le Katherine Ellison “chaque âge a été un âge de l’information”.

Xavier de la Porte

Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 30 mars 2013 s’intéressait à l’atlas e-Diaspora, un programme de recherche qui vise à cartographier les diasporas telles qu’elles apparaissent dans les réseaux en compagnie de la conceptrice et coordinatrice du projet, la chercheuse Dana Diminescu, directrice scientifique du programme TIC migrations de la Fondation Maison des sciences de l’homme, d’Emmanuel Ma-Mung et William Berthomière, géographes et tous deux membres du laboratoire de recherche Migrinter.

humanités numériques
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Médias, U..."
Comments Send by mail Print  Save  Delicious 
Date: Tuesday, 12 Feb 2013 05:00

Le lifelogging, c’est-à-dire le fait d’enregistrer et d’archiver toutes les informations de sa vie, comme le propose le Quantified Self, peut-il influencer notre comportement et nous donner de nouveaux réflexes de santé ? C’est la question que s’est posé le Journal américain de médecine préventive, relayé par le New Scientist.

Un bon nombre d’articles du dossier reposent sur la SenseCam de Microsoft. Il s’agit d’un appareil photo porté autour du cou, qui prend des clichés automatiquement tout au long de la journée. A noter que ce produit risque d’être aujourd’hui difficile à trouver. Il était commercialisé sous licence Microsoft par Vicon Revue qui a annoncé l’arrêt de sa distribution fin 2012.

L’intérêt pour l’impact cognitif de la SenseCam n’est pas nouveau. Il existe déjà de multiples recherches sur l’aide qu’un tel outil peut apporter aux personnes souffrant de pertes de mémoire ou d’amnésie. Mais comme l’indique le nom du journal qui s’est récemment penché sur l’appareil, il ne s’agit plus de réfléchir aux applications thérapeutiques de la SenseCam, mais à son rôle en prévention.

Une première étude (.pdf) concerne les habitudes de sédentarité. Combien de temps par jour passons-nous assis ou immobiles ? Beaucoup de travaux ont été conduits sur le sujet, mais ils manquent le plus souvent de fiabilité et de certitudes. Par exemple, si on cherche à connaître un comportement via un questionnaire, le sujet peut oublier les détails, mal calculer son emploi du temps, etc. Une technique, plus objective consiste à utiliser un accéléromètre pour mesurer ses déplacements. Mais cet outil ne donne pas de réelle indication de contexte et ne permet pas de bien appréhender les habitudes de vie du sujet. D’où l’idée d’y adjoindre une SenseCam.

Après examen des photos, il devient possible de faire une analyse plus fine des comportements. Par exemple, on peut distinguer les images “debout” de celles “assise” ou “couché” (seules positions qualifiées de “sédentaires”) par différents indices visuels : situation par rapport aux objets, aux autres personnes, absence des genoux sur l’image… Si deux vues prises l’une après l’autre montrent de fortes similitudes, on peut en déduire que le sujet était dans la même position.

De la même manière, grâce aux images, il devient plus simple de classifier l’ensemble des activités, comme “faire la vaisselle”, “laver son linge”, etc. On peut également voir à quelle activité est liée la position assise : l’usage de transport en commun ou regarder la télévision. Autant de détails qu’il est difficile d’obtenir avec un seul accéléromètre.

La SenseCam, outil d’augmentation cognitive ?

Un autre article (.pdf) concerne l’amélioration de la mémoire chez les sujets sains. Dans cette étude, les participants devaient porter leur SenseCam pendant plusieurs jours, tout en tenant un journal relatant les évènements de la journée. Premier résultat : la SenseCam était plus efficace, selon les questionnaires, pour se rappeler les évènements récents et les revivre que la pratique du journal. La seconde conclusion était plus étonnante. Après avoir porté la SenseCam, les sujets réussissaient mieux à des tests de mémoire sans rapport avec leur expérience du lifelogging, comme se rappeler une liste de 15 mots. Comment expliquer ce résultat ?

Les auteurs suggèrent que la SenseCam a peut-être agi comme un stimulant cognitif. Ils rappellent que des travaux en imagerie cérébrale ont montré que l’emploi de la SenseCam tendait à provoquer une augmentation de l’activité de l’hippocampe, zone fortement liée à la mémoire.

Les auteurs supposent également que l’usage de la SenseCam aurait donné aux utilisateurs une sensation de plus grande vivacité d’esprit, liée également au plaisir de recourir à un nouvel appareil. En effet, rappellent-ils, il a été montré que l’emploi de techniques d’augmentation cognitive tendaient à augmenter la motivation, la sensation de se sentir efficace et améliorerait l’humeur.

Une autre expérience (.pdf) combine également tenue d’un journal et SenseCam, cette fois pour évaluer la quantité de calories ingérée dans une journée. La consignation par écrit des comportements alimentaires est en effet très largement sujette à caution, les participants tendant à minimiser leur prise de calories. L’étude a montré que la combinaison journal et SenseCam tendait à augmenter le nombre de calories de 10% chez les étudiants d’université et jusqu’à 17% pour un groupe de footballers inclus dans l’expérience.

Le smartphone à la rescousse

Par ailleurs, un article se penche sur le remplacement possible de la SenseCam (.pdf), et examine l’opportunité de substituer un simple smartphone à cette dernière. Cela implique une série d’inconvénients, notamment celui de la durée limitée de la batterie. On perd aussi la qualité d’image des SenseCam, par exemple le champ de vision est plus restreint (la SenseCam comporte un objectif grand-angle pour capturer une scène bien plus large).

D’un autre côté, le smartphone dispose d’un ensemble d’applications qui assure une meilleure analyse que la SenseCam : par exemple, l’accès aux données de géolocalisation qui permet de savoir exactement dans quel environnement se trouve le sujet, ou la présence intégrée d’un accéléromètre.

Les auteurs ont fait porter à leurs sujets un smartphone suspendu autour du cou toute une journée, prenant une photo toutes les 5 secondes (par opposition à la SenseCam qui s’active toutes les 15 à 20 secondes). La durée moyenne d’utilisation a été de 5h39, avec une variation allant de 11 minutes à plus de 18 heures. Ce qui laisse à penser que certains smartphones peuvent être employés une journée entière sans nécessiter de recharge, mais les participants n’exploitaient pas ses fonctions de téléphone. Il serait possible d’augmenter l’autonomie en désactivant les fonctions Bluetooth et GPS, grosses consommatrices d’énergie (mais on perd alors l’accès à des renseignements qui peuvent s’avérer précieux). Concernant la limite du champ de vison, les auteurs notent qu’il est aujourd’hui possible d’acquérir un objectif grand-angle pour smartphone. Conclusion, malgré ses restrictions, le téléphone portable constitue une alternative viable à l’introuvable SenseCam. Cela suffira-t-il à la démocratisation de la démarche ? A voir, car même si le matériel est disponible, il faudra s’assurer que tout un chacun aura accès au software pour consulter et classifier ces milliers d’images… et possédera les compétences pour les interpréter. Là, il y a certainement encore un peu de travail à faire.

Rémi Sussan

économie comportementale, corps, internet des objets, oubli, psychologie, quantifiedself, wearable
Author: "Rémi Sussan" Tags: "Archivage/stockage, Articles, Innovation..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 28 Jan 2013 09:38

La lecture de la semaine est un post de blog sur le site de la New York Review of books (@nybooks), on le doit à James Gleick (Wikipédia, @JamesGleick) et il s’intitule : “les bibliothécaires de la twittosphère”.

“Dans les années 1850, les compagnies de télégraphe anglaises et américaines eurent l’idée, vite abandonnée, qu’elles pourraient (et devraient) archiver chaque message qui passait par leurs câbles. Des millions de télégrammes à l’abri du feu dans des coffres forts. Imaginez l’apport historique ! “Ne pourrait-on, au 21e siècle, tirer profit de la correspondance conservée de tout un peuple ?” demandait en 1854 Andrew Wynter, médecin et vulgarisateur scientifique célèbre.


Image : La marche de l’intellect (1829) par William Heath (1795-1840) du British Museum, est l’un des premiers dessins qui montre les inventions technologiques comme marque du progrès.

Cela vous rappelle quelque chose ?” demande James Gleick. Aujourd’hui, au 21e siècle, la Bibliothèque du Congrès compile la Twittosphère, un corpus constitué par tous les tweets publics. Et ça fait beaucoup. La Bibliothèque s’est lancée dans ce projet en avril 2010, alors que Twitter n’avait que 4 ans et avait produit 21 milliards de messages. Depuis, Twitter a grandi et 21 milliards de messages, c’est ce qui est publié chaque mois. En décembre, la Bibliothèque en a reçu 170 milliards : chacun sous la forme d’une capsule recouverte de métadonnées indiquant la provenance, le destinataire et le moment d’émission. La Bibliothèque doit capter un flux d’informations qui jaillit des 500 millions de comptes existants (y compris les doublons, les morts, les comptes parodiques, les amis imaginaires et les robots), qui tapent leurs épitres pressées sur les claviers de leur téléphone, de leur tablette ou de leur ordinateur ; les tweets se déversant dans les serveurs de Twitter par milliers à chaque seconde – par dizaines de milliers pendant les pics que représentent les matchs de Coupe du Monde, les élections présidentielles ou la grossesse de Beyonce – puis suivant leur chemin en temps réel jusqu’à une entreprise du nom de Gnip, située à Boulder dans le Colorado. Gnip organise les tweets en lots d’une heure sur un serveur sécurisé, où ils sont comptés, vérifiés et finalement copiés sur bande magnétique, et où ils sont ensuite rangés dans des classeurs. Dans différents lieux par sécurité. S’il vous est déjà arrivé de twitter, soyez rassurés, chacune de vos perles connaîtra la postérité. Bien sûr, la chance que même le meilleur tweet soit lu un jour par des yeux humains est proche de zéro.

Il s’agit là d’un océan de l’éphémère. Une bibliothèque de Babel. Personne ne s’illusionne sur la qualité – le sérieux, la véracité, la sagesse, l’originalité – d’aucun de ces tweets. La Bibliothèque du Congrès prend le mauvais comme le bon : les rumeurs et les mensonges, les bavardages, les blagues, les huées, les railleries, les fanfaronnades, les invectives, les élans de débauche, les vils potins, les épigrammes, les anagrammes, les quolibets et les moqueries, les rumeurs et les ragots, les plaidoyers, les chicaneries, les jacasseries, les pinaillages, les morceaux de littérature et les oeuvres d’art miniatures, les autopromotions et les élans de modestie, les grandiloquences et les chuchotements. Des nouvelles choses à chaque milliseconde.

Appelez ça comme vous voulez, le corpus de Twitter forme aujourd’hui un morceau de ce qui émane des esprits américains, et son enregistrement entre parfaitement dans les missions de la Bibliothèque du Congrès. Les historiens voient comme des trésors les journaux intimes du 19e siècle : pourquoi ne pas en faire de même avec les tweets du 21e siècle ?

Plusieurs centaines de chercheurs ont déjà demandé accès à ce corpus, mais il n’est pas aisé de leur donner. Les enregistrements ne sont pas en ligne. Ils sont organisés par date et heure. Pour les mettre en ligne, et les indexer de manière à ce qu’on puisse faire des recherches, il faudrait des fermes de serveurs gigantesques, comme Google en a beaucoup, mais pas le gouvernement américain.”

L’article détaille ensuite la difficulté à effectuer des recherches avec ces données particulières que sont les tweets. Il explique que ce serait le rêve de la Bibliothèque du Congrès de donner aux chercheurs des réponses instantanées à leurs requêtes, mais on en est loin. Même en passant par Gnip, il est possible de faire des recherches, mais la réponse à une question peut prendre des jours. Bref, cela va coûter de l’argent et représente un vrai défi.

Au moins, précise Gleick, le coût de la préservation en elle-même est assez bas, quelques dizaines de milliers de dollars d’après la Bibliothèque du Congrès. Et prends assez peu de place, par rapport aux télégrammes qu’il s’est avéré impossible de conserver dès qu’ils ont gagné en popularité.

“O, historien de demain, seras-tu capable de trouver des pierres précieuses dans la boue ? s’interroge l’auteur. Peut-être que cela ne vaudra pas la peine que tu y perdes ton temps – à moins que tu en aies plus que moi. Peut-être pourras-tu t’en délecter, ou les écouter sur un support de pensée pure, scintillante, comme un objet fixe dans l’univers vaste et sombre. En tout cas, moi, je me régale de ma toute petite part, moins d’un cinq millionième, en temps réel. J’entends de nouvelles choses chaque jour. Je ne crois pas tout ce que j’entends, et je ne suis pas à l’affût des statistiques et des tendances. Je crois plutôt que Twitter est un mirage, comme l’écrit l’écrivaine Joyce Carol Oates dans un tweet : “Twitter est le mirage qui, à mesure que vous approchez, s’éloigne. Et pourtant, vous approchez.”

Voilà pour ce beau texte qui me fait penser à ce qui fut un moment un rêve de savant fou. Postulant que les machines servant aux potiers de l’Antiquité réagissaient aux vibrations des sons qui les entouraient, certains ont cherché la machine qui pourrait traduire ces vibrations et faire renaître l’ambiance des ateliers, nous faire entendre les voix de nos aïeux, leurs cris et leurs conversations. Autant que je sache, cette machine n’existe toujours pas. Peut-être que ce sera le cas un jour.

Xavier de la Porte

Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 26 janvier 2013 était consacrée à aux faces cachées de l’immatérialité en compagnie de Philippe Balin, consultant à Solcap21 spécialisé dans les questions de l’impact écologique des technologies de l’information et de la communication, Françoise Berthoud, ingénieure de recherche en informatique au CNRS et de Cédric Gossart, maître de conférences à l’Institut Mines-Telecom, qui ont tous participé à l’ouvrage collectif Impacts écologiques des Technologies de l’Information et de la Communication rassemblé par le Groupement de Service ÉcoInfo qui a pour objet d’étudier l’ensemble des impacts environnementaux et sociétaux des équipements concernés par les TICs.

analyse des réseaux, économie de l'attention, big data, humanités numériques
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Technologi..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 24 Dec 2012 05:08

La lecture de la semaine nous vient de The Atlantic et du toujours pertinent Alexis Madrigal (@alexismadrigal), le titre de son article “Contre l’idée que les algorithmes sont objectifs”.

“Quand un résultat provient d’un ordinateur sur la base de statistiques, cela doit être objectif, non ? Pas de biais possible, à la différence de notre jugement, nous Homo Sapiens défectueux.

Google News
Image : Google News et les facteurs de classements de l’actualité.

Mais, dans les faits, ce n’est pas vrai. Nick Diakopoulos (@ndiakopoulos), du Nieman Journalism Lab, a publié un article intéressant sur la manière dont certains algorithmes introduisaient des bais différents de ceux des humains, mais non moins réels. En regardant Google News, Circa, IBM Research et d’autres outils automatisés, il en a conclu : “Il est facile de succomber à l’idée fausse que, parce que les algorithmes des ordinateurs sont systématiques, ils feraient preuve d’une plus grande objectivité. Mais dans les faits, ces biais systématiques sont plus insidieux parce qu’ils passent inaperçus et ne sont pas interrogés”.

Même les robots ont des biais, reprend Madrigal. Ces algorithmes étant en jeu dans l’écosystème de l’information, ils ont le pouvoir d’infléchir la manière dont l’information arrive aux gens. Mais, dit Madrigal, ce qui m’intéresse, c’est la manière dont la simple application d’une série de procédures rigides peut produire des comportements nouveaux, et néfastes, chez une partie des acteurs humains qui comprennent comment ils peuvent exploiter le système. Toute une nouvelle catégorie de bruits bizarres résonne dans le monde de l’actualité à cause de l’algorithme de Google, quelles que soient ses qualités.

Parce que les règles sont assez rigides, – par exemple l’idée que plus c’est nouveau, mieux c’est – différents acteurs essaient d’avoir les articles les plus récents sur les événements considérés comme populaires. A l’approche de la tempête de neige en Californie début décembre, le site internet de la chaine météo Weather Channel a publié un bon avant papier, c’est le 29 ou le 30 novembre. Je l’ai lu quand il est paru. Après la tempête du 3 décembre, je suis allé voir quelles anticipations sur la tempête s’étaient révélées exactes. J’ai fait quelques recherches par mot-clé sur Google News et voilà qu’apparaît un papier de Weather Channel daté du 3 décembre. Tout content je clique, et je tombe sur le même papier exactement que celui que j’avais lui, mais daté du 3 décembre. Ce qui rendait ce papier complètement absurde : un avant papier daté d’après l’événement. Une folie pour un humain. Mais pour une machine, ça ressemble à un contenu frais, rempli de mots-clés qui renvoient l’événement. La machine ne peut pas savoir que l’article est écrit au futur et qu’il est complètement caduc. Ce type de chose dégrade beaucoup l’écosystème de l’actualité et se produit uniquement parce que l’algorithme de Google fonctionne bien.

Soit, il s’agit là d’une optimisation sans foi ni loi de Google News. Mais il existe beaucoup d’autres exemples et techniques qui ont été développés à partir de la manière dont l’algorithme fonctionne. Certaines nous sont bénéfiques dit Madrigal : les titres pleins de jeux de mots disparaissent peu à peu, pourquoi pas. Mais d’autres facteurs pris en compte par Google – comme la densité en mot-clé – obligent les journalistes à utiliser toujours les mêmes mots et à les répéter souvent. Google avantage le spécifique par rapport au généraliste. Si vous publiez un papier sur un seul sujet, vous êtes plus susceptibles d’apparaître en haut de page que si vous adoptez un point de vue plus horizontal. Enfin, regardez une première page de Google News, elle recense presque exclusivement des médias traditionnels. Il est choquant de n’y trouver presque aucun média créé récemment. L’apolitisme conservateur de l’algorithme de Google est stupéfiant.

Mon but en entrant dans tous ces détails est de renforcer l’idée de Diakopoulos sur le manque d’objectivité des opérations algorithmiques. Même si quelqu’un pouvait créer un système parfaitement équilibré sans aucun biais observable lors de sa mise en route, les gens qui entrent les données dans le système, et sont dépendants de la manière dont elles ressortent adapteront leur comportement au système. Ils feront les modifications nécessaires pour se rendre plus lisibles par la machine, et ceux qui y arriveront le mieux prospèreront.

Ce qui importe n’est pas simplement la manière dont fonctionne le logiciel, mais la manière dont il modifie la structure de la pensée et des actions humaines. A mes yeux, Google News a créé des boucles de rétroaction aux effets très délétères, pas parce que l’algorithme en lui-même est mauvais, mais parce que le service n’a pas assez considéré ses répercussions humaines. Ce n’est pas ce que voulait faire Krishna Bharat, le producteur de Google News. Mais c’est ce qui s’est passé.”

Xavier de la Porte

Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 22 décembre 2012 était consacrée aux rapports entre la vie privée et la vie professionnelle en compagnie de Sylvie Hamon-Cholet, chercheuse au Centre d’études de l’emploi ; Cindy Felio, psychologue du travail qui prépare une thèse sur “les nouveaux comportements au travail et les risques psychosociaux liés à l’usage des technologies de l’information et de la communication chez les cadres intermédiaires et supérieurs” et qui participe également au projet de recherche Devotic, sur la déconnexion volontaire ; ainsi que l’anthropologue Stefana Broadbent auteur de L’intimité au travail.

algorithmie, pdlt, savoir-faire
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Coopérati..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 10 Dec 2012 09:59

La lecture de la semaine provient du quotidien britannique The Guardian, on la doit à Oliver Burkeman (blog, @oliverburkeman) qui est le correspondant à New York du journal. Le titre de son papier : “pour lutter contre la surcharge informationnelle, trompez-vous vous-mêmes”.

Gmail, le service mail de Google, a ajouté une nouvelle fonctionnalité du nom de Inbox pause, qui permet quelque chose de très simple : mettre en pause l’arrivée de nouveaux mails. Ce service représente aux yeux de Burkeman une nouvelle phase de la guerre de longue haleine que nous menons contre la surcharge d’information. Prenez en considération cette absurdité, dit le journaliste du Guardian. Inbox pause ne réduit pas la quantité de mails dont nous sommes bombardés. Cela ne nous aide pas non plus à répondre plus vite. De toute façon, il y a déjà une manière idéale de faire une pause dans l’arrivée des mails, manière qui consiste à ne pas ouvrir la boîte pendant plusieurs heures. Ou même de résister à la tentation d’ouvrir les nouveaux messages. Mais notre volonté est trop faible pour cela : il nous faut un bouton pour nous donner l’impression de contrôler le déluge. Bref, Inbox pause est une innovation qui ne répond à aucun besoin rationnel, qui traite les usagers comme des enfants impulsifs. Pour tout adulte discipliné, Inbox pause est une insulte.


Image : e-mail overload par Will Lion.

J’utilise cette fonctionnalité depuis plusieurs semaines, dit Burkeman, et j’adore ça.

40 ans après qu’Avlin Toffler a popularisé le terme de “surcharge infirmationnelle“, nous devons l’admettre : nos efforts pour la combattre ont échoué. A moins d’être radical – se déconnecter complètement par exemple -, les remèdes recommandés ne marchent pas. Prenez la décision de relever vos mails deux fois par jour, et vous trouverez trop de messages qui attendent d’être lus. Faites un régime informationnel, et il terminera comme terminent tous les régimes : vous succomberez et consommerez à nouveau, avec un substrat de culpabilité. Peut-être faut-il repenser tout ça. Le problème n’est pas tant la surdose d’information que l’impression de perdre le contrôle. Pourquoi donc ne pas se concentrer sur les moyens de créer une impression de contrôle – Même si elle consiste, en partie du moins, en un aveuglement ?

Quand Google a créé “Priority Inbox”, qui divise les messages reçus en “important” et “ordinaire”, j’étais sceptique, explique Burkeman : les systèmes de priorisation consistent principalement à réordonner de manière assez inutile une liste de tâche. Mais mes amis qui ne jurent que par ce système ne l’utilisent pas vraiment pour établir des priorités : ils l’utilisent pour s’ôter toute culpabilité d’ignorer les mails non importants, et pour avoir ainsi l’impression de garder le contrôle. L’application “Boomerang” de Gmail et Outlook, permet de rejeter les messages et de les faire revenir plus tard ; pendant ce temps, les choses se calment, même si la charge en elle-même n’a pas changé. Je fais quelque chose de tout aussi illusoire avec les centaines de pages web que je bookmarke pour les lire après. Avant, cela provoquait en moi une sorte d’angoisse. Aujourd’hui je capture la page dans l’application de prise de note Evernote, je la marque “à lire” et la mets dans un dossier. La plupart du temps, je ne l’ouvre plus jamais. Mais cela fonctionne : j’ai l’impression d’avoir filtré l’information. L’angoisse disparaît. Je contrôle, je suis heureux.

“Tout cela est irrationnel. Mais le fait même d’être stressé par l’information est irrationnel. En théorie, nous pourrions suivre des millions de sources d’information, en pratique, nous le faisons qu’avec un petit nombre, et le choix est assez arbitraire. J’essaie de répondre à tous les mails personnels, mais je ne me soucie pas de répondre à tous les messages personnels sur Twitter. La pile de livres à lire sur mon bureau me jette un regard noir, mais je ne ressens jamais aucune angoisse à l’idée de tout ce que je pourrais lire sur le web si je le voyais. Pourquoi donc ne pas combattre l’irrationalité par l’irrationalité ? Inquiétez-vous moins de réduire l’afflux d’information. Cherchez plutôt des moyens de réduire le stress que procure cet afflux – et si cela signifie se tromper soi-même avec des boutons “pause”, des “boomerang” et des trucs comme ça – qu’importe ? Dans la guerre contre la surcharge informationnelle, toutes les armes sont à utiliser.”

Voici pour ce texte d’Oliver Burkeman avec lequel je suis en plein accord. Avec une remarque. Comme on l’a dit déjà ici, notamment avec Anaïs Saint-Jude, la surcharge informationnelle, et l’angoisse qu’elle créé, ne sont pas propres à notre époque. Et donc, les moyens irrationnels d’y remédier ne sont pas non plus tout à fait nouveaux. Que ceux qui ont rempli des dossiers avec des pages de journaux recensant un livre à lire, une exposition à voir, un disque à écouter – et qui ont rangé ces dossiers sans jamais les ouvrir, mais avec un soupir de soulagement, lèvent la main.

Xavier de la Porte

Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 8 décembre 2012 était consacrée au Digital labor, portrait de l’internaute en travailleur exploité qui consiste, à la suite de l’ouvrage de Trebor Scholz Digital Labor The Internet as playground and factory (“Digital labor : Internet comme aire de jeu et usine”), à analyser l’apparition sur les réseaux d’activités qui produisent de la valeur et peuvent s’assimiler à du travail. Un travail contre lequel nous ne sommes pas forcément rémunérés. L’émission rassemblait Yann Moulier-Boutang (@boutangyann), professeur de sciences économiques à l’université de technologie de Compiègne et directeur de la revue Multitudes et Antonio Casilli (@bodyspacesoc) professeur d’humanités numériques à Télécom ParisTech, chercheur associé au Centre Edgar-Morin (EHESS), auteur des Liaisons numériques et directeur du numéro spécial “Cultures du numérique” de la revue Communications.

économie de l'attention
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Communicat..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 24 Sep 2012 07:45

La lecture de la semaine, une fois n’est pas coutume, provient de la presse espagnole. Il s’agit d’un article du quotidien El Pais, paru le 10 septembre sous la plume de Daniel Verdu, il s’intitule “Votre bibliothèque numérique mourra avec vous”.

“Une vie passée à explorer les bacs des magasins de vieux vinyles et à les classer obsessionnellement sur une étagère finit par créer un patrimoine considérable. Mais aujourd’hui c’est un peu différent. Le collectionneur obsessionnel, comme tout amateur de musique, achète œuvres rares, nouveautés et compilations dans des magasins numériques, en un clic. Le stockage de musique ne s’achève que lorsque le collectionneur pathologique passe l’arme à gauche. Mais dans ce processus sans fin de la collecte, se cache toujours un désir secret de transcendance : léguer ce trésor à un héritier ou, pourquoi pas, à une fondation qui porte son nom. Or, l’intéressé doit savoir que si l’achat s’est effectué sur l’Apple Store, sa collection passera dans l’au-delà avec lui. Et la même chose pour la bibliothèque qu’il aura constituée sur Amazon. Vous n’êtes plus le propriétaire d’un bien, mais le simple usager d’un service.

Cette règle, notifiée en tout petit dans les conditions légales que l’on accepte en achetant dans le monde obscur des magasins numériques, a fait débat quand le Sunday Times a révélé que l’acteur Bruce Wills pensait poursuivre Apple à ce sujet. L’acteur aurait dépensé une fortune en achetant de la musique sur Itunes et aurait voulu que ses trois filles en héritent à sa mort. L’information fut partiellement démentie par la femme de Bruce Willis sur Twitter, mais entretemps, le débat sur les conditions de transmissions de l’héritage culturel a eu le temps de naître.

demotivational-poster-18994
Image : Bruce Willis vs Apple via Motivationals.

On n’achète plus une chose, mais le droit d’en user. Ce qui est très américain, mais difficile à assimiler dans un pays comme l’Espagne. Cette philosophie, au-delà d’une protection contre le piratage à la limite de la légalité, n’est pas claire. Car Apple ne donne aucune explication. “Nous n’avons pas de spécialiste qui puisse intervenir sur ces questions. Nous ne commentons pas ce type de dispositions. Je n’ai aucun commentaire à faire”. Telle est la réponse de Paco Lara, responsable de la communication d’Apple, quand on lui demande pourquoi l’entreprise dont il est le porte-parole agit de la sorte. Amazon, par l’intermédiaire de son agence de communication, s’en réfère seulement à un des paragraphes de ses conditions générales d’utilisation. Mais rien sur les raisons pour lesquelles ces conditions sont appliquées. Ce qui arriverait à notre bibliothèque si les serveurs ou les entreprises qui fournissent ce service étaient détruits, nous n’en savons rien non plus.

La musique et les livres que nous achetons appartiennent au compte de l’utilisateur qui les a téléchargés. Parfois, ils peuvent être téléchargés sur d’autres terminaux, mais ils doivent rester associés à cette identité. Amazon autorise le prêt de titres acquis pour un Kindle, mais pendant la période où ils sont disponibles pour un tiers, ils disparaissent du terminal du propriétaire. Une bibliothèque à laquelle, soit dit en passant, l’entreprise a un accès inquiétant.

En juin 2009, Amazon a vendu par erreur deux éditions de 1984 et de La ferme des animaux de George Orwell, deux éditions publiées par un éditeur qui n’avait pas les droits pour la diffusion en Europe. Amazon est entré dans les terminaux de ses clients, a effacé les livres qu’il ne devait pas avoir vendus et a rendu l’argent. Aussi vite et discrètement qu’un cambriolage nocturne. Comme si l’éditeur était entré chez vous pendant votre sommeil, s’était servi dans votre bibliothèque et avait laissé un chèque en partant. Une atteinte notoire à la propriété privée, comme on disait dans ce monde des objets qui était le nôtre. Amazon s’est excusé.

Au final, la question débouche sur le débat récurrent concernant la destinée de nos différents comptes (e-mails, réseaux sociaux, magasins numériques…) et de toutes les informations qu’ils contiennent quand nous mourrons. Dans la plupart des cas (Facebook, messageries..) et sur la base du secret des télécommunications, les familles peuvent clore ces comptes sans avoir accès à leur contenu. Le cas s’est présenté pendant la guerre en Irak, quand de nombreuses familles voulurent ouvrir les messageries d’un parent tué dans le conflit et que les entreprises ne leur permirent pas. Au plus, une entreprise comme Facebook permet la construction d’une sorte de mémorial macabre du disparu, mais annule logiquement toutes les notifications (comme le rappel de l’anniversaire ou les invitations à des fêtes) qui lui seraient arrivées s’il était vivant.
Les comptes sont d’un usage strictement privé et non transférable. Il en va de même pour tout ce qui y est associé. La restriction préserve du piratage et multiplie les revenus. C’est la question. Par conséquent si Apple découvre que l’usager d’un compte (qui écoute des chansons par exemple) n’est pas le vrai, ou partage les chansons, il peut fermer l’accès au service.

Les biens immatériels, nous le savions déjà, ne se possèdent pas. On ne peut en profiter que jusqu’à notre dernier souffle. Mais pas un jour de plus.”

Voici ce texte auquel on pourrait ajouter un versant plus positif. Et si Internet était le début de la fin de l’héritage, dont on sait qu’il est la première cause des inégalités. C’est un peu malheureux que cela commence par la transmission des textes et de la musique, j’en suis bien conscient. Mais pourquoi devrions-nous posséder tout ce que nous utilisons ?

Xavier de la Porte

Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 22 septembre 2012 était consacrée à la place des nouvelles technologies en Inde en compagnie de Nicolas Miailhe (@NicolasMiailhe), cofondateur de Sisyphos, un groupe de réflexion sur l’impact et le développement possible des questions technologiques en France et en Inde et qui réside dans ce pays depuis 8 ans.”

identités actives, industries culturelles, lifelog, mémoire, pdlt
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Débats, D..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 17 Sep 2012 08:41

La lecture de la semaine est un article paru dans le quotidien britannique The Guardian le 28 août dernier, on le doit à Oliver Burkeman (@olivierburkeman) et on pourrait lui donner comme titre : “comment les cartes numériques changent notre manière de voir le monde”.

Burkeman commence par relever l’omniprésence des cartes numériques dans nos vies et le fait qu’elles gagnent toujours en précision. A tel point qu’un historien de la cartographie de l’Université de Londres, Jerry Brotton, explique : “Honnêtement, je pense que nous assistons, en ce qui concerne la fabrication des cartes, à un changement plus profond que celui qu’a connu la Renaissance en passant des manuscrits à l’imprimerie”. Le passage à l’imprimerie, reprend Burkeman, a ouvert les cartes à un public plus nombreux. Le passage à la cartographie numérique accélère et étend cette ouverture, mais il transforme aussi le rôle que les cartes jouent dans notre vie.

L’idée d’une carte du monde à l’échelle 1, qui reproduise tout ce qu’il contient, est un motif vénérable en littérature, qui apparaît dans les œuvres bien connues de Lewis Carroll et Borges. Dans Harry Potter, il existe une carte qui montre ce que tous les gens du royaume sont en train de faire à chaque instant. Or, avec ce que nous prépare Google par exemple, ces cartes fictionnelles semblent beaucoup moins absurdes. Mais le niveau de détail n’est qu’une des manières qu’a la cartographie de changer. La distance qui existe entre consulter une carte et interagir avec le monde décrit par cette carte diminue chaque jour. Les lunettes Google, encore au stade de prototype aujourd’hui, peuvent projeter directement dans votre périmètre visuel l’adresse du restaurant que vous êtes en train de regarder, ou des critiques le concernant, qu’est-ce que le mot “carte” signifie alors ?

usbefore2-thumb-614x361-98053
Image : Pour The Atlantic, Alexis Madrigal est allé discuté avec les ingénieurs de chez Google Maps pour comprendre le travail qu’ils avaient encore à accomplir pour améliorer leurs cartographie, comme c’est le cas sur cette carte, qui montre en rose, certains problèmes évidents : zones non cartographiées, non recoupement entre la carte et la géolocalisation…

En un sens, cartographier est l’essence de Google. L’entreprise aime parler de services comme Google Maps ou Google Earth comme s’ils étaient juste cools et sympas – une sorte d’extra, comme une récompense pour leur fonction première, le moteur de recherche. Mais un moteur de recherche est, en un sens, la tentative de faire la carte du monde de l’information – et quand vous pouvez combiner le monde conceptuel avec le monde géographique, les opportunités commerciales explosent. La recherche d’un restaurant, d’un médecin, ou d’un taxi a plus de sens, et ouvre à de plus grandes possibilités publicitaires, quand elles sont opérantes du point de vue géographique. Et il y a là quelque chose de plus important, quelque chose d’excitant, ou de troublant selon le point de vue : dans un monde de smartphones équipés de GPS, quand vous consultez une carte, vous ne consultez pas seulement les bases de données de Google ou d’Apple, vous vous ajoutez vous-mêmes à ces données.

Quelles informations ces entreprises collectent, ce qu’elles en font, tout cela est en débat. Mais on saisit facilement le calcul qu’elles font du point de vue commercial. Plus votre téléphone sait avec exactitude où vous êtes, plus la publicité qui vous arrive peut être ciblée. Bien sûr, Google et Apple insistent sur le fait qu’ils ne sont pas intéressés par les données individuelles : la valeur commerciale réside dans les modèles détectables dans l’agrégation des données. Mais ça n’est pas complètement rassurant. Car l’idée que quelqu’un d’autre apprenne des choses sur vous n’est pas nécessairement l’implication la plus dérangeante de cette nouvelle génération de cartes. Plus troublante est l’idée que les cartes de Google et Apple ne feraient pas qu’observer nos vies, mais elles viendraient à jouer directement un rôle dans leur cours.

La vraie question, selon Burkman est : qui contrôle les filtres par lesquels nous allons passer pour percevoir la réalité ? C’est là le cœur du problème. On peut supposer que les cartes sont objectives : que le monde est là, dehors, et qu’une bonne carte est celle qui le représente avec exactitude. Mais ça n’est pas vrai. Chaque kilomètre carré de la planète peut être décrit d’une infinité de manières : ses caractéristiques naturelles, la météo, son profil socio-économique ou ce que vous pouvez acheter dans les magasins qui s’y trouvent. Traditionnellement, ce qui se reflétait dans les cartes était les intérêts des états et de leurs armées, parce que c’étaient eux qui fabriquaient les cartes, et que leur premier usage fut militaire (si vous aviez les meilleures cartes, vous aviez une bonne chance de gagner la bataille). Aujourd’hui, le pouvoir s’est déplacé. “Toute carte, explique une autre cartographe, est une manière pour quelqu’un de vous faire regarder le monde à sa manière.” “Que se passe-t-il quand nous en venons à regarder le monde, dans une certaine mesure, à travers les yeux de grandes entreprises californiennes ? Il n’est pas nécessaire d’ être conspirationniste ou anticapitaliste de base, pour se demander quelles sont les voies subtiles par lesquelles leurs valeurs ou leurs intérêts façonnent petit à petit nos vies.”

Xavier de la Porte

“Xavier de la Porte (@xporte), producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 15 septembre 2012 était consacrée à Marshall McLuhan (Wikipédia) à l’occasion de la parution en français de son premier livre La mariée mécanique en compagnie de Bruno Patino (@brunopatino) directeur général de France Télévision et auteur avec Jean-François Fogel d’Une presse sans Gutenberg (2005), ainsi que de Vincenzo Susca, chercheur en sciences sociales au Centre d’étude sur l’actuel et le quotidien de La Sorbonne Paris 5, ainsi qu’au McLuhan Programm in Culture and Technology de l’Université de Toronto. Il dirige la revue Les cahiers européens de l’imaginaire qui a consacré un dossier de son numéro 3 à McLuhan.

géolocalisation, pdlt, traçabilité
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Image, Int..."
Comments Send by mail Print  Save  Delicious 
Date: Thursday, 26 Apr 2012 07:05

Pour The Atlantic, Alexis Madrigal a livré une excellente enquête sur le fonctionnement de la publicité en ligne et cette myriade de petits acteurs très spécialisés qui traquent vos habitudes, mesurent l’audience de la publicité ou observent ce que vous regardez pour mieux adapter leur publicité.

Avons-nous le droit de ne pas être tracés ?

Pour observer le traçage publicitaire dont nous sommes l’objet, Alexis Madrigal a utilisé Collusion une extension pour Firefox qui permet de visualiser les cookies qui sont laissés par certains sites sur votre navigateur – voir également l’outil de calcul de son exposition au marketing en ligne lancé par le Wall Street Journal et son dossier sur le sujet. En 36 heures de surf sur l’internet, il a ainsi pu constater que ce n’était pas moins de 105 sociétés qui traçaient ainsi son historique. Si bien sûr on y trouve quelques grands noms de l’internet, ce catalogue est également composé d’une myriade de petits acteurs qui travaillent à personnaliser la publicité sur laquelle ils aspirent à ce que l’on clique. “A l’heure actuelle, une grosse part de ce que vous avez déjà regardé sur l’internet est conservée dans des bases de données à travers le monde.”

display_advertising_ecosystem_011011-1024x741
Image : le complexe paysage de la technologie de l’affichage publicitaire par Luma Partners.

L’utilisateur moyen n’a aucune idée de comment fonctionne ces entreprises, ni de ce que chacune d’elle fait précisément. Mais existe-t-il un moyen simple pour arrêter cette collecte de donnée qui se fait bien souvent à l’insu de l’utilisateur ? Il s’est donc rendu sur le site de la Network Advertising Initiative (NAI) qui permet de se déréférencer d’une liste impressionnante de sociétés qui pratiquent la “publicité comportementale”. Un processus simple et assez efficace a priori. Mais il a constaté, à la suite de chercheurs de Stanford qui ont commis une étude sur le traçage des traqueurs, que l’enregistrement des données à son propos continuait. En fait, en se déréférençant, on se retire la possibilité de recevoir les publicités ciblées, mais on n’empêche pas ces entreprises de continuer à accumuler des données sur son historique de navigation. “Il n’existe aucun moyen de cesser d’être suivi en ligne. Aucun.” Comme l’a expliqué Chuck Curran responsable de la NAI : “le code de la NAI reconnait que les sociétés peuvent avoir besoin de continuer à collecter des données pour des raisons opérationnelles qui sont distinctes du ciblage publicitaire du comportement en ligne d’un utilisateur.” Dit autrement, selon le code de la NAI, les utilisateurs n’ont pas le droit de ne PAS être tracés. Le seul droit qu’on leur confère, c’est celui de ne pas avoir de publicités basées sur leur historique de navigation.

Les discussions entre annonceurs et régulateurs ont toujours cours afin de limiter la collecte d’information et pas seulement d’interdire des utilisations spécifiques, rappelle Madrigal. Mais pour Madrigal, le problème est finalement du même ordre que le fait que les options par défaut de nos navigateurs ne soient pas réglées pour assurer notre plus grande intimité.

En ligne nos marqueurs d’identités sont innombrables, même s’ils ne contiennent ni notre nom ni notre numéro de sécurité sociale (ce qui n’est pas si important pour les publicitaires). Comme le montrait l’enquête du Wall Street Journal sur la société de ciblage publicitaire x+1, capable de faire des prédictions sur le comportement des utilisateurs depuis un simple clic, avec un certain taux d’erreur – qui pose le problème des limites de la fouille de données – : les données transforment l’internet en un lieu où les gens n’ont plus d’anonymes que leur nom. Quand bien même les sociétés ne sauraient rien de nous, elles puisent dans suffisamment de données pour construire un semblant de profil de chacun. Certes, ces sociétés ne connaissent pas nos noms comme l’illustrent ces portraits d’utilisateurs, mais nos noms semblent finalement un bien faible rempart contre l’extrême personnalisation.

Pourtant, conclut Madrigal, la publicité sert également à gagner de l’argent et en tant que journaliste dans un titre de presse en ligne, il sait mieux que d’autres combien pour les entreprises la publicité est indispensable.

Et si l’extrême ciblage était inefficace ?

Si la solution pour nous protéger de la fouille de donnée ne provient ni de la régulation, ni des consommateurs, d’où peut-elle alors surgir ? La solution pourrait peut-être venir des limites intrinsèques de cette fouille de données personnalisée.

Pour beaucoup d’utilisateurs, la recherche personnalisée devient trop personnelle. Le ciblage publicitaire pourrait-il à son tour devenir inefficace à force d’être trop personnel ? C’est assurément une autre limite de la surexploitation des masses de données, estiment Avi Goldfarb du l’Ecole de management Rotman et Catherine Tucker de l’Ecole de management Sloan du MIT. Dans un article publié en 2011 (.pdf) dans le Marketing Science Journal, ils expliquent que la personnalisation fonctionne souvent moins bien que l’annonce classique et ce d’autant plus quand elles sont combinées. “Cet échec semble être lié à des préoccupations d’ordre privé : l’effet négatif de combiner le ciblage avec l’indiscrétion est plus forte pour certaines catégories de personnes, notamment celles qui refusent de communiquer leurs revenus et celles pour qui la vie privée importe le plus.”

Peut-être y-a-t-il des limites naturelles au ciblage par les données, questionne Madrigal ? Une publicité qui vous poursuit de site en site pendant des semaines parce que vous vous êtes rendu sur un site d’achat particulier devient finalement souvent bien plus inquiétante qu’alléchante… Celles qui en savent plus sur vous que vous-mêmes aussi – voir “Nous faudra-t-il payer pour préserver notre vie privée ?“.

Le changement dans les pratiques de collecte de données ne risque pas tant d’évoluer sous le coup des colères des utilisateurs, de la réglementation ou de l’autoréglementation, estime encore Alexis Madrigal… Mais peut-être plutôt du fait de limites perceptives. Il n’est pas sûr que l’extrême ciblage publicitaire soit la poule aux oeufs d’or que toute une génération espère, comme s’en désolait Jeff Hammerbacher. Y’a-t-il une vallée de l’étrange de la publicité, qui, passé un stade, devient plus repoussante qu’attirante, à l’image de ces robots qui paraissent trop humains pour être amicaux ?

Hubert Guillaud

big data, identités actives, intelligence des données, marketing, mesinfos, traçabilité
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Confiance ..."
Comments Send by mail Print  Save  Delicious 
Date: Thursday, 12 Apr 2012 05:00

“Votre contenu doit rester votre contenu. Pourtant, Facebook, Google, Twitter et tant d’autres services web ne semblent pas d’accord. Chaque fois que vous acceptez leurs conditions d’utilisation, vous leur donnez le droit de faire ce qu’ils veulent de vos données. Le plus souvent, cela implique la vente de votre vie privée.

Les fameuses Conditions générales d’utilisation que Lionel Maurel appelle très justement les “conditions générales de mystification” sont effectivement sensées protéger nos données privées, mais le plus souvent, elles les transforment en marchandises. Bien souvent notre choix est alors réduit à sa plus simple expression : ou accepter le vol de nos données ou ne pas utiliser le service. Et pour beaucoup d’utilisateurs, “le retrait n’est pas une option”.

D’autres solutions sont-elles possibles ?

Peut-être bien. Privly, vient de faire la preuve qu’une autre solution était possible. En installant une simple extension à votre navigateur, vous être en mesure de garder le contrôle de votre contenu. Comment ? Pour l’utilisateur qui a les extensions installées, le fonctionnement est complètement transparent. Il tape ses mails ou ses messages dans Facebook ou Twitter, sans n’avoir rien à faire de spécial. Mais ceux qui n’ont pas l’extension installée, eux, plutôt que de voir le message ne voient qu’un simple lien sur lequel ils doivent cliquer pour accéder. Les messages que vous écrivez se transforment automatiquement en liens vers les serveurs de Privly. En fait, d’un coup, vos mails, vos messages sur Facebook ou Twitter deviennent pour ses services des liens externes auxquels ils n’ont plus accès directement. Gmail n’a plus accès à votre contenu pour formaliser sa publicité.

privlyimage
Image : Explication du fonctionnement du service. Les gens avec qui vous êtes en relation et qui utilisent l’extension PrivLy voient le message, les autres ne voient qu’un lien.

En fait, comme l’explique très simplement le service dans son à propos, pour ceux qui l’utilisent, l’extension Privly extrait automatiquement les données du lien et vous permet d’utiliser les services du web, le plus normalement du monde, “sans couture “, sans fournir vos données à ceux qui les exploitent. “Vos contenus restent vos contenus”, clament très simplement les fondateurs de Privly, Sean McGregor et ses comparses (vidéo).

Comme l’explique Alexis Madrigal, rédacteur en chef de The Atlantic, Privly est un “manifeste de confidentialité implanté dans le code”. Privly montre que la puissance que s’accaparent les fournisseurs de service pourrait reposer sur un feu de paille si des services de ce type venaient à éclore. En fait, Privly montre que les utilisateurs pourraient avoir plus de maîtrise sur leurs données, sans renoncer aux fonctions sociales de Twitter, Facebook ou Gmail. En ce sens, Privly est une contribution précieuse pour montrer d’autres voies pour protéger son contenu en ligne, sans renoncer aux fonctions du web social.

“Twitter, Google, Facebook vous font choisir entre la technologie moderne et la vie privée. Mais c’est un faux choix”, estime Sean McGregor, l’initiateur de Privly. Grâce à cette extension, Google, Facebook ou Twitter n’ont plus accès à vos contenus. Bien sûr, rien n’assure de l’indépendance de Privly à l’avenir, mais l’essentiel n’est pas là. L’idée est assez simple, et bien des fournisseurs de services pourraient la proposer. L’essentiel est dans la preuve de concept fonctionnelle et les perspectives qu’elle offre.

Le contrôle du contenu par l’utilisateur ouvre d’ailleurs d’autres perspectives fascinantes, insiste Madrigal. L’e-mail que vous avez envoyé via Gmail devient rééditable, même après avoir été reçu ! Privly pourrait être un service complètement distribué et crypté, permettant un développement très protecteur des contenus des utilisateurs, par exemple porté par des ONG, assurant la plus grande confidentialité aux contenus.

La démonstration fait surgir d’un coup nombre de nouvelles questions. Voulons-nous d’un web social modifiable par les utilisateurs ? Voulons-nous leur rendre autant de puissance ? Le web social dans lequel les utilisateurs ne possèdent rien n’est-il pas en fait bien agréable, car borné et maîtrisable ?… Alors que le web applicatif et serviciel est déjà en train de “tuer” l’internet originel, Privly nous montre que cette balkanisation pourrait aller plus loin encore, si une multitude de services de ce type se mettaient à exister. A croire que l’internet a toujours tendance à renforcer les tendances en cours : à la balkanisation du Net entre les géants du secteur, répond d’un coup une possible balkanisation par les utilisateurs, qui pourrait s’avérer encore plus fragmentaire.

Privly renverse d’un coup le paradigme de l’internet des applications où l’internaute n’est plus maître de rien. Il nous propose une option à laquelle nous ne sommes plus habitués… et qui d’un coup nous laisse un peu abasourdis, comme si nous étions un peu sonnés à la perspective de pouvoir protéger nos contenus. Sean McGregor et ses complices viennent de proposer un projet qui pourrait être très perturbateur pour l’écosystème actuel. Tant mieux, nous manquions terriblement d’outils pour permettre aux utilisateurs de retrouver du pouvoir.

Hubert Guillaud

confiance, identités actives, mesinfos, privacy, sécurité, vie privée
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Communicat..."
Comments Send by mail Print  Save  Delicious 
Date: Wednesday, 29 Feb 2012 05:00

Une passionnante lecture de Xavier de la Porte nous a récemment présenté Anaïs Saint-Jude (@anaisaintjude), fondatrice et responsable du programme BiblioTech de la bibliothèque de Stanford. Elle était sur la scène de Lift 2012 pour mettre en perspective la question de la surcharge informationnelle, l’un des maux qu’on attribue aux nouvelles technologies. Mais est-ce si sûr ?

Anaïs Saint-Jude, dans sa présentation intitulée de Gutenberg à Zuckerberg, a commencé par faire référence à L’homme sans qualité de l’écrivain autrichien Robert Musil. Cet épais roman qui se déroule en 1913, au crépuscule de l’empire austro-hongrois, montre comment l’individu passe sa vie dans ses propres sensations, pensées, perceptions. Dans l’un des chapitres du livre, le général Stumm visite l’ancienne bibliothèque impériale d’Autriche et est confronté à un ordre dont l’infinité dépasse ses capacités d’entendement. Les 3,5 millions de références de la bibliothèque de Vienne lui font prendre conscience de l’irréductibilité de la complexité du savoir et que, contrairement au projet qu’il avait, nul ne saurait plus lire tout les livres.

lift12anaissaintjude
Image : Anaïs Saint-Jude sur la scène de Lift, photographiée par Ivo Näpflin pour LiftConference.

La surcharge informationnelle ne date pas d’aujourd’hui, rappelle la chercheuse. Ce sentiment de dépassement, de surcharge en fait se retrouve à toutes les époques de l’humanité, de la Grèce Antique à aujourd’hui. Chaque époque la ressent comme quelque chose de nouveau, comme quelque chose de particulier à son époque. Dans Le phèdre, Platon critique déjà l’écriture comme quelque chose qui nous fait perdre notre mémoire. Pour Sénèque, l’abondance de livres est une distraction. Descartes, dans Recherche de la vérité par la lumière naturelle, explique qu’on passe plus de temps à choisir les livres qu’à les trouver…

La bibliothèque du Congrès possède 34,5 millions de livres. Pourtant, si on lit un livre par semaine entre 10 et 100 ans (ce qui est déjà très ambitieux), le plus volontaire des lecteurs ne saura en lire qu’une poignée… 4600 !

La surcharge informationnelle fait partie de notre condition humaine

“La surcharge d’information fait partie de la condition humaine : nous sommes confrontés par trop de possibilité, trop de complexité”. Ce sentiment de surcharge exprime autrement notre insatiable curiosité et notre besoin d’innovation, estime Anaïs Saint-Jude. Pas étonnant alors qu’on cherche sans cesse à trier, à chercher, à trouver, à ranger, à classer, à comprendre… Pas étonnant non plus que Google soit devenu si important puisqu’il est l’expression même de ce besoin à l’heure de l’information numérique.

Le sentiment de surcharge d’information a été particulièrement documenté entre le XVe et le XVIIe siècle. Une époque qui ressemble par certains côtés beaucoup à la nôtre, estime Anaïs Saint-Jude. “C’était une époque de changements, de grandes découvertes, où l’on a à la fois redécouvert les textes anciens et été confronté à une double révolution technologique : celle de la presse et de la poste. C’est une époque où l’information s’est démultipliée. Et il est donc intéressant de regarder comment les gens de cette époque ont géré cet afflux d’information”.

lift12recueildesquestionsEn fait, la surcharge d’information est une force qui génère de l’innovation. Elle permet d’identifier de nouveaux besoins, de créer de nouvelles formes d’information. Théophraste Renaudot a ainsi inventé deux formes pour faire face à cette surcharge d’information. Il est l’inventeur de la Conférence, qu’il appelle le “commerce des âmes”, explique-t-il dans son ouvrage éponyme qui date de 1641. Il invente un moment public pour parler des questions du monde, que ce soit des femmes à barbe comme de sujets plus scientifiques. Il a publié de nombreux volumes du Recueil général des Questions, où il évoque les sujets qui étaient débattus dans ces conférences. Elles avaient lieu chaque semaine le lundi après-midi et il imprimait le lendemain les notes des présentateurs. Ses conférences qui naissent aux environs de 1641 sont un format qui vont essaimer à travers la France et l’Europe et connaitre le succès qu’on lui connait.

Avec la Gazette, Théophraste Renaudot invente également le journalisme. Le premier numéro est publié en mai 1631 et permet d’informer les Français de ce qu’il se passe internationalement plus que de ce qu’il se passe dans le pays. Il enregistre des évènements d’un bout à l’autre du monde, comme le fait aujourd’hui le web et cela est possible grâce à des réseaux de correspondance très établis et grâce au développement de la Poste.

Nos échanges ont toujours été publics et informels

Le développement du réseau de correspondance entre le XIVe et le XVIIe siècle tisse une première société en réseau, comme l’ont étudié les bibliothécaires et professeurs de Stanford. Nés avec les marchands, autour de Venise, ces réseaux s’étendent à la France, à la Flandre, à l’Angleterre. Aux XVIe et XVIIe siècles, ils se transforment en une correspondance intellectuelle, permettant aux manuscrits de voyager aussi vite que les livres. Dans ces lettres qui s’échangent, les informations étaient souvent rapides, synthétiques, factuelles, sommaires, un peu comme les Tweets ou SMS que nous échangeons aujourd’hui. Elles véhiculaient beaucoup de désinformation ou de mauvaises informations. Certaines sources étaient réputées plus sûres que d’autres, comme les ambassadeurs ou les cardinaux. Les correspondances n’étaient guère privées : on les lisait souvent en public. Elles contenaient autant d’informations commerciales ou d’actualité que des informations personnelles ou familiales… Un peu comme sur nos murs Facebook, s’amuse Anaïs Saint-Jude.

Ces réseaux de correspondance ont créé des groupes sociaux particuliers, ont permis de collecter et diffuser l’information, ont créé l’opinion publique. C’était un instrument de changement culturel qui bénéficiait même aux analphabètes. Les lettres circulaient beaucoup, au-delà de leurs correspondants originels souvent. On les lisait à haute voix : elles n’étaient pas censées être privées. Le jésuite allemand Athanasius Kircher correspondait avec 760 personnes dans le monde. Il utilisait des réseaux en Europe, mais profitait également des missions jésuites dans le monde et notamment en Amérique du Sud. Quand on observe la carte de la correspondance de Voltaire par exemple, on se rend compte que ses plus grands volumes d’échanges étaient surtout locaux, entre Paris et Genève, comme c’est le cas de l’essentiel de nos échanges en ligne aujourd’hui.

lever de voltaireLa quantité d’information croissante et son rythme de diffusion qui nous semble toujours plus élevé signifient-ils autre chose que de nous rappeler que nous vivons dans un monde d’information ?, interroge la chercheuse. Et Anaïs Saint-Jude de terminer son exposé en montrant un tableau intitulé le Lever de Voltaire peint par l’artiste suisse Jean Huber, qui le montre en train de s’habiller, mais également, déjà, en train de dicter ses lettres, comme nous consultons l’information arrivée dans notre boite mail ou sur nos réseaux sociaux dès notre réveil.

Dès cette époque également le débat public revêtait plusieurs formes. La publication du Cid par Corneille par exemple a donné lieu à un important débat public (“la querelle du Cid”), qui l’ont forcé à y répondre. Mais chaque critique utilisait des formes spécifiques auxquelles il fallait répondre par des formes adaptées. Si le Cid était critiqué par un poème, il fallait répondre par un poème, comme aujourd’hui, il faut être présent sur les médias où vous êtes pris à parti !

“Bien sûr, nous sommes aujourd’hui plus interconnectés, bien sûr, il y a une accélération de l’information… Mais peut-on vraiment dire qu’il y a “plus” de surcharge informationnelle qu’avant ?” questionne Anaïs Saint-Jude. Enfin, il faudrait aussi regarder combien notre vie peut également être facilitée par ces surcharges. Elles n’ont pas que des aspects négatifs. Elles nous permettent aussi d’accéder à de l’information, communiquer, échanger, nous coordonner… “Chaque génération réagit différemment à la surcharge. Descartes expliquait qu’il fallait se fier à son bon sens. D’autres ont opté pour la simplicité. Chacun s’adapte différemment à cette complexité. Personne n’a jamais lu tout les livres. De tout temps on a tourné plusieurs pages à la fois.”

Hubert Guillaud


L’intervention d’Anaïs Saint-Jude en anglais et en vidéo.

économie de l'attention, complexité, humanités numériques, identités actives, lift, lift12, mémoire, réseaux sociaux
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Coopérati..."
Comments Send by mail Print  Save  Delicious 
Date: Thursday, 16 Feb 2012 11:04

Jusqu’à présent, l’analyse des données était réservée aux experts et aux sociétés d’analyse de données. Est-ce que cela pourrait être appelé à changer et comment ? L’analyse de données peut-elle être plus accessible à tout à chacun ?

C’est en tout cas ce que commencent à proposer plusieurs services, mais par des approches radicalement divergentes.

Par l’automatisation

C’est le cas par exemple du “moteur de connaissance” Wolfram Alpha, qui vient de présenter ses nouvelles fonctionnalités accessibles aux abonnés premium (4,99 dollars par mois) leur permettant de télécharger leurs données pour que le moteur les analyse et en fasse des rendus de visualisation. Du fait de sa capacité à reconnaitre certaines données, Wolfram Alpha est capable de produire par exemple un graphe social depuis vos contacts e-mail pour vous montrer l’intensité de vos échanges et la forme de votre réseau, ou une carte depuis une feuille de calcul qui contient des noms de pays ou de villes. Il peut bien sûr puiser dans ses propres données pour améliorer les vôtres. Stephan Wolfram souhaite démocratiser l’utilisation de l’analyse de données, explique Tom Simonite pour la Technology Review. “Il est temps de réduire le seuil d’accès pour ceux qui utilisent les données. (…) Si un expert peut répondre à une question depuis vos données, vous devez pouvoir l’obtenir vous-mêmes automatiquement.”


Vidéo : démonstration des fonctionnalités de Wolfram Alpha Pro.

Lee Sherman, directeur de Visual.ly, un outil qui propose le même type de fonctionnalités, est convaincu qu’il existe un marché pour des outils permettant d’exploiter des données de façon simple. “Les gens ne veulent pas des réponses, ils veulent des rapports”, estime le chercheur. En utilisant des données structurées, Wolfram Alpha ne se contente pas de renvoyer des informations, mais analyse et calcule vos données avec les siennes pour les contextualiser. Son objectif comme le clame son slogan est de rendre “calculable la connaissance du monde”. À terme, le but de Wolfram Alpha est de livrer une interprétation des données adaptées à celles-ci, explique Dieter Bohn pour The Verge.

Wolfram Alpha n’est pas le seul modèle du secteur. Nombre de start-ups tentent de simplifier les outils de visualisation ou de créer des plateformes d’échanges, à l’image de BuzzData, une plateforme de partage et de visualisation des jeux de données organisées comme un site social, ou, à sa manière, de Google Correlate, qui permet de chercher ce qui est le plus corrélé à l’information que vous cherchez.

… ou par la personnalisation

Rachel Metz pour la Technology Review évoquait récemment une autre approche : celle de Kaggle, une structure qui organise des concours pour des organisations qui cherchent à générer des prédictions pertinentes depuis leurs données.

kagglehomepage
Image : la home page de Kaggle, “nous faisons de la science des données un sport”.

Anthony Goldbloom, son fondateur, s’est inspiré du concours organisé par Netflix entre 2006 et 2009, proposant 1 million de dollars à qui réussirait à améliorer son logiciel de recommandation de film de 10 %. Après avoir observé la popularité du concours, Goldbloom a travaillé pour The Economist où il a constaté que beaucoup de sociétés dormaient sur leurs données, sans personnes pour les exploiter. Depuis son lancement en avril 2010 en proposant un prix de 1000 dollars pour l’équipe qui parviendrait le mieux à prédire comment la plupart des pays voteraient au concours de l’Eurovision, Kaggle a proposé une trentaine de compétitions différentes. La communauté Kaggle, désormais forte de quelques 27 000 membres est une forme de crowdsourcing de l’analyse de données – sur le modèle professionnel d’Innocentive ou de Procter&Gamble Connect que nous avions déjà évoqué – qui vise à mettre en relation scientifiques spécialisés dans le traitement de données et entreprises ayant des données à traiter. Ces dernières proposent des défis contre récompenses sonnantes et trébuchantes.

Dans un des premiers défis, une université a fourni des dossiers anonymes de patients atteints du VIH contenant des marqueurs génétiques qu’il espérait pouvoir être utilisés pour prédire la progression du virus. Moins d’une semaine et demie plus tard, les utilisateurs de Kaggle étaient capables de prédire la progression du virus avec une précision de 70 %. A la fin de la compétition, les utilisateurs avaient même réussi à améliorer la précision à 77 % et à réduire le taux d’erreur d’un tiers.

Si la plupart des participants travaillent dans l’analyse de données, les gagnants proviennent le plus souvent d’un champ disciplinaire différent de celui proposé, certainement parce que cela leur permet d’aborder le problème sous un angle nouveau. Pour Will Cukierski (voir son profil Kaggle), un doctorant en génie biomédical de l’université Rutgers, le site lui permet de prendre pied dans le marché de l’emploi.

Barbara Chow, directrice de l’éducation de la Fondation William et Flora Hewlett, a quant à elle lancé un défi pour trouver une solution pour automatiser la notation des travaux des étudiants en se rapprochant des notations que donnent les professeurs. Will Cukierski qui oeuvre à l’une des réponses estime que les résultats préliminaires montrent que les concurrents sont déjà capables de fourbir des solutions qui offrent des résultats qui sont assez proches de ceux des humains. Les algorithmes seront-ils capables d’apprécier un essai aussi bien que des humains ne le feraient ? Visiblement, cela ne serait tarder, estime l’étudiant.

Les défis lancés semblent tous aussi passionnants, explique un article du Bits du New York Times : actuellement, un organisme de santé offre 3 millions de dollars pour l’équipe qui réussira à prédire, depuis l’historique médical de patients, ceux qui seront hospitalisés dans l’année à venir, afin que les médecins puissent intervenir préventivement ; une banque offre 5000 dollars pour trouver une meilleure façon de prédire les défaillances des clients auxquels elle accorde des prêts.

Les approches de Wolfram Alpha et de Kaggle sont diamétralement différentes bien sûr. Il n’est pas sûr qu’elles soient en concurrence, mais toutes deux montrent bien combien le champ de l’analyse de données cherche à se rendre toujours plus accessible.

Hubert Guillaud

algorithmie, analyse des réseaux, complexité, données publiques, intelligence des données, open innovation, opendata, réseaux, web sémantique, Web²
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, eBusiness,..."
Comments Send by mail Print  Save  Delicious 
Date: Monday, 10 Oct 2011 07:20

La lecture de la semaine, il s’agit d’un article du bi-mensuel américain The New Republic, signé Laura Bennett et intitulé “L’internet est-il en train de transformer les livres en d’éternels work-in-progress ?”

Richard North Patterson se souvient de l’instant où il a appris la mort d’Oussama Ben Laden. Il était en train de regarder la télévision, c’était un dimanche soir, deux jours avant la sortie de son dernier roman, The Devil’s light, dans lequel Al Qaeda planifie une attaque nucléaire sur l’Amérique pour le dixième anniversaire du 11 septembre. Wolf Blitzer, le journaliste de CNN, a annoncé le visage grave une information essentielle pour la sécurité nationale. Immédiatement, Patterson a su : “je me suis assis dans un état catatonique, se souvient-il, je pouvais voir le train qui me fonçait dessus, mais je ne pouvais ni parler ni bouger”. Dans son livre, Ben Laden était parfaitement en vie, ourdissant des complots meurtriers depuis une grotte de l’ouest du Pakistan. Patterson, auteur de plus de 15 thrillers politiques, dont plusieurs best-sellers – a instantanément compris que son livre était mal parti. “Je suis le seul Américain qui ait souffert de la mort de Ben Laden, a-t-il dit, en général, je suis prêt à me sacrifier pour l’équipe. J’espérais juste qu’il le garderait au frigo pendant un mois.”

woodenkindle
Image : Un livre électronique de bois, seule solution pour figer l’édition, photographié par Will Oskay.

Mais, reprend Laura Bennet, à l’ère du livre numérique, tout cela est réparable. Patterson, avec son agent et son éditeur, ont décidé de franchir une étape inédite pour un livre de fiction : ils ont décidé de sortir une version numérique révisée pour aligner l’intrigue sur les événements les plus récents.

Patterson a passé des heures à parcourir les méandres du texte, à identifier toutes les références au chef d’Al Qaeda, à triturer des passages pour rendre bien clair le fait que Ben Laden n’était plus dans le paysage. La phrase “Mais si une de nos villes disparaît le 11 septembre, Ben Laden sera l’homme le plus puissant sur terre” est devenue “Mais si une de nos villes disparaît le 11 septembre, Ben Laden sera encore l’homme le plus puissant sur terre, même mort”. Une scène dans laquelle le leader d’Al Qaeda apparaissait à la télévision consiste maintenant en un message pré-enregistré dans lequel Ben Laden s’adresse au monde depuis l’au-delà. Et le livre est donc sorti le 16 août dans sa forme numérique, promptement mis à jour.

Il est évident qu’il n’a pas été toujours aussi facile pour un livre de rester pertinent après des événements inattendus ayant sapé ses prémisses. Norman Angell, rappelle Laura Bennet, a publié La grande illusion en 1908, expliquant que la guerre ne serait pas profitable et donc peu probable dans un avenir proche ; quand la guerre a éclaté en 1914, les critiques se sont jeté sur cette thèse et Angell a passé les années qui ont suivi à publier des éditions réactualisées de son livre dans une lutte éperdue pour montrer qu’il n’avait pas écrit que la guerre était “impossible”.

Aujourd’hui, les livres numériques ont fait du bricolage après publication une nouvelle pratique. Amazon envoie des mails aux clients pour les informer des mises à jour du texte d’un livre dont ils ont acheté me fichier. Le livre numérique pourrait-il devenir un contenu mouvant qui évolue selon les circonstances, indépendant du livre dont il est issu ? Est-ce le signe que les attentes que nous projetons dans les livres sont passées d’un produit fini à un perpétuel work-in-progress – ou s’agit-il juste de la conclusion logique d’une longue tradition de textes multiples et instables ?

La “stabilité textuelle”, pour emprunter cette expression à l’historien Robert Darnton, n’a jamais vraiment existé dans le monde de l’édition. Voltaire a publié tant d’addenda et d’éditions corrigées de ses livres que certains lecteurs frustrés ont refusé d’acheter ses œuvres complètes avant sa mort. La version du 18e siècle de l’encyclopédie de Diderot, qui a largement circulé, comptait des centaines de pages qui n’étaient pas incluses dans l’édition originale. Au 19e siècle, le compositeur français Ambroise Thomas a écrit une fin différente à son opéra Hamlet pour ne pas repousser ceux qui trouvaient l’effusion de sang un peu trop gore.

Les chercheurs, depuis des générations, ont sorti des deuxièmes, troisièmes, et quatrièmes éditions de leurs textes pour rectifier des informations dépassées. Et certains auteurs de fiction ont même profité de nouvelles éditions pour moderniser des anachronismes. Quand le roman de Paul Wilson, The Tomb, sorti en 1984, a été republié en 2004, il a retiré la mention de “magnétoscope” pour lui préférer un “lecteur de DVD”…

Un exemple plus sinistre est celui de la grande encyclopédie soviétique, dont on sait qu’elle a été manipulée par les idéologues communistes. Dans les années 50, après la chute de Beria, le chef de la police secrète de Staline, tous les détenteurs d’une encyclopédie furent enjoints de retirer l’entrée Beria et de la remplacer par un article allongé sur le détroit de Bering.

Donc, faire subir des ajustements à un livre pour le faire passer d’une époque à une autre n’est pas nouveau. La différence avec le livre numérique, bien sûr, c’est la vitesse et la facilité de la révision. La version numérique de The Devil’s Light, avec ses corrections, est sortie quelques mois après la version papier dans laquelle Ben Laden était encore un personnage du livre ; la version poche, elle aussi corrigée par Patterson, ne sera pas publiée avant 2012.

C’est probablement ce qui explique pourquoi – à en juger par les nombreuses propositions d’éditions Kindle réactualisées mises à disposition par Amazon – le livre numérique semble provoquer un nouvel enthousiasme pour le peaufinage de contenu après publication.

L’enjeu ici, pourrait-on considérer, c’est la question de l’intégrité du livre : quand un texte est-il achevé ? Tout livre publié est nécessairement un produit quelque peu arbitraire ; la plupart des auteurs pourraient continuer à le bricoler. Mais passer sous presse exige qu’un livre soit terminé, du moins pour le moment. Ce fait nous a donné quelques-unes des plus jolies “erreurs” de l’histoire. La référence de Shakespeare à la côte bohémienne dans Le Conte d’hiver – alors que le royaume de Bohème était enserré dans le centre de l’Europe – a fait de la mer de Bohème le symbole d’une utopie impossible. On ne sait pas si Shakespeare a fait express de contrefaire sa géographie ou s’il aurait localisé différemment cette côte si la technologie le lui avait permis.

Il s’agit d’une autre différence importante entre un livre numérique remis à jour et une édition imprimée révisée, au-delà du temps et du coût : dans la première, la révision remplace littéralement le livre qui précède. Une fois téléchargé, dans la plupart des cas, un nouveau livre numérique supplante la version originale, comme si la première version n’avait jamais existé – un livre numérique élimine le souvenir de qui l’a précédé. L’édition semble avoir embrassé l’éthos de la blogosphère, avec ses métamorphoses continuelles, sa suppression immédiate de la désinformation. Il n’est pas difficile d’imaginer un monde de livres vivant sur des cycles de 24 heures, évoluant en intégrant de nouveaux faits.”

Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 8 octobre 2011 était consacrée à la figure du Cyborg en compagnie du philosophe Thierry Hoquet qui vient de publier aux éditions du Seuil Cyborg philosophie.

confiance numérique, humanités numériques, industries culturelles, littérature, mémoire
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Articles, Médias, U..."
Comments Send by mail Print  Save  Delicious 
Date: Tuesday, 28 Jun 2011 05:00

Dans le dernier numéro de Place de la Toile, Xavier de la Porte recevait Brewster Kahle, fondateur depuis 1996 et président de l’Internet Archive, cette organisation non gouvernementale américaine à but non lucratif consacrée à l’archivage du Web. Pour traduire ses propos, l’équipe de Place de la Toile a rédigé le transcript de son interview. Pour ceux qui ne l’auraient pas déjà écouté, le voici. L’occasion de revenir sur le rôle de l’archivage du web dans un monde où la circulation de l’information est toujours plus rapide et durée de vie de l’information toujours plus courte.

Place de la Toile : Qu’est-ce que l’Internet Archive, et comment fonctionne-t-elle ?

Brewster Kahle : L’ Internet Archive est une bibliothèque numérique à but non lucratif. Elle est située aux États-Unis et sa visée, à la fois sociale et technologique, est de permettre un accès universel à l’ensemble de la connaissance : tous les livres, toute la musique, toutes les vidéos, accessibles partout, par tous. Notre but est de collecter le travail de l’humanité et de le rendre accessible à ceux qui voudraient l’utiliser pour s’instruire. Notre base, c’est ce qui a été publié, c’est-à-dire les choses qui ont été pensées pour être publiques : un livre, une page web ou un billet de blog ; même les tweets… A l’inverse, le contenu de Facebook est censé être privé… et de fait ça devient plus confus quand on aborde des publications qui s’adressent à une certaine communauté… On se cantonne par conséquent au domaine public : donc les blogs, oui, c’est fondamental, les tweets, Flickr ou Youtube… Mais Facebook et autres communautés privées, c’est pour une prochaine étape du projet, qui supposerait des conditions d’accès différentes…

Brewster Kahle
Image : Brewster Kahle par l’équipe de #pdlt.

Pour donner une idée de l’étendue de ce projet : la bibliothèque du Congrès, c’est une collection de 26 millions de livres. Un livre, en document Word, représente 1 mégaoctet – …dans l’ordre méga, giga, téra… – donc 26 millions de livres, ça nous fait 26 téraoctets… Or désormais, dans le magasin du coin, vous pouvez acheter un disque dur de 2 téraoctets pour environ 150 euros ; si vous achetez 13 de ces disques durs – ça rentre dans un caddie ! -, vous pouvez disposer de tous les livres de la bibliothèque du Congrès… A condition de respecter les étapes de la numérisation, il est donc possible de disposer de tout ce qui a jamais été publié : livres, musique, vidéo, et même les pages web et la télévision en ligne.

En ce qui concerne les pages web, on utilise un crawler semblable à celui des moteurs de recherche comme Google, c’est-à-dire un robot qui parcoure les pages, les télécharge, les entrepose, puis repère les liens qui s’y trouvent et les ajoute a une liste. On répète alors le processus avec les pages auxquelles renvoient les liens de cette liste, etc. jusqu’à épuisement.

Eh oui, c’est sûr, au final on rate beaucoup de choses, mais on tente d’avoir la meilleure collection possible. Car la durée de vie moyenne d’une page web avant qu’elle ne soit supprimée ou modifiée est d’environ 100 jours ! … Le web est constamment en train d’évoluer et de disparaître : on peut dire qui si on s’en tient aux statistiques, le meilleur du web est déjà perdu…

Quant a ceux qui veulent échapper au crawler, hé bien il existe des conventions qui sont utilisées par les moteurs de recherche pour dire au robot de passer son chemin : cela s’appelle les protocoles d’exclusion des robots.

Place de la Toile : Comment cette Archive en ligne est-elle financée ? Je pense notamment au rôle joué par la Fondation Kahle/Austin, que vous avez fondée avec votre femme ?

Brewster Kahle : L’Internet Archive, à l’heure actuelle, c’est environ 200 personnes dont 50 programmeurs, bibliothécaires et administrateurs, et 150 personnes qui scannent des livres… 23 bibliothèques dans 6 pays différents travaillent à cette numérisation. Le coût, pour l’ensemble de l’organisation, ordinateurs compris, est d’environ 15 millions de dollars par an. Les fonds proviennent des bibliothèques nationales qui nous donnent de l’argent pour archiver le web de leur pays et leur livrer, et aussi des plus petites qui nous payent 10 cents pour chaque page scannée – c’est bien meilleur marché qu’ailleurs, sachant que les pages sont accessibles en permanence ; on numérise ainsi 1000 livres par jour : ça représente 7 millions de dollars sur l’année. On reçoit aussi quelques subventions fédérales pour la bande passante, et les Fondations, elles, financent de nouveaux projets, comme la fondation « Kahle-Austin » qui s’assure avant tout que la lumière reste allumée.

Place de la Toile : Tant qu’elle le reste, le volume de données augmente de 100 téraoctets par mois, je crois : autant dire que la tâche semble infinie. D’où ma question Brewster Kahle, ne craignez-vous pas d’atteindre une masse critique ?

Brewster Kahle : On essaie de construire la bibliothèque d’Alexandrie, 2e version. La première version avait deux limites que l’on voudrait éviter cette fois-ci : d’abord, pour consulter, on devait se déplacer à Alexandrie, merveilleux centre de la connaissance du monde ancien. A présent nous voulons rendre cette connaissance accessible à tous, qu’il s’agisse d’un enfant kenyan – ou français – qui s’intéresserait aux mathématiques et voudrait accéder d’où il veut, quand il veut, aux conférences de la Sorbonne ou de Harvard. C’est un projet gigantesque… je ne pense pas qu’il y ait un risque de saturation.

L’autre limite bien connue de la bibliothèque d’Alexandrie, hé bien c’est d’avoir… brulé. Elle a existé environ 500 ans ce n’est pas négligeable, mais si des copies avaient été faites, les œuvres cachées d’Aristote ou les autres pièces de théâtre d’Euripide seraient encore disponibles. Comment éviter cela ? Enfouir ces œuvres dans le désert, ou les copier et les mettre dans plusieurs endroits ?! Si des copies d’Alexandrie avaient été entreposées en Inde ou en Chine, elles auraient été sauvées, car pendant que l’Europe connaissait alors des temps sombres, ces civilisations, elles, s’en sortaient très bien…

Aujourd’hui on est à San Francisco, ville connue pour ses tremblements de terre : donc, on a mis des copies partielles de nos fichiers à Amsterdam, ici à l’European Archive et aussi dans la nouvelle bibliothèque d’Alexandrie, en Égypte. Voilà notre stratégie à long terme : le tout c’est d’avoir un ego enclin au partage…

Place de la Toile : Ego qui lui, ne serait pas vraiment en partage si je vous comprends bien… C’est vrai qu’Internet Archive n’est pas le seul projet de bibliothèque numérique… or il y a forcément des contenus qui se recoupent entre ces différents projets : n’auriez-vous pas plutôt intérêt à unir vos efforts ?

Brewster Kahle : Si seulement on pouvait travailler ensemble… Mais pour cela il faut un certain degré d’ouverture. OCLC ne nous a pas offert ses fichiers qui contiennent les catalogues de titres de toutes les bibliothèques du monde… Ils ne l’ont pas rendu vraiment utilisable par le public sur internet… Donc, nous avons dû trouver une autre solution : et on a construit OpenLibrary.org, un site où chaque livre dispose de sa page web et où les bibliothèques peuvent envoyer leur catalogue respectif. C’est un site amusant, car il fonctionne en mode wiki, c’est une sorte de Wikipédia des livres… On espère pouvoir un jour fusionner avec le catalogue OCLC…

Google a aussi opté pour une approche privée, mais comme bon nombre des livres que Google a numérisé relèvent du domaine public, des gens se sont mis à les télécharger dans l’Internet Archive… On voudrait encourager cela, c’est une super idée ! On a pu ainsi récupérer environ 800 000 livres, mais il y en a encore un million qui attend, donc si vos auditeurs veulent faire quelque chose : “s’il vous plaît, téléchargez des livres du domaine public dans le monde OpenSource, dans le monde du libre…”

En un sens c’est un d’affrontement du type Microsoft VERSUS Linux : d’un côté ceux qui veulent contrôler l’information, de l’autre ceux qui s’emploient à la garder libre et ouverte…

Le monde du libre – Linux, Wikipédia, Internet Archive, Mozilla qui fabrique Firefox, la fondation Linux – tout ce monde s’en sort très bien… cet univers non lucratif qui paie les gens pour leur travail, et les bibliothèques qui paient les gens et les éditeurs s’en sortent très bien sur internet. Nous on voudrait plus de données interconnectées, une création plus active, et moins de barrières entre les informations… Je pense que même les organisations qui cherchent le profit sont en mesure de laisser leurs contenus ouverts et disponibles, tout en continuant à rapporter de l’argent a leurs actionnaires… Bon… maintenant, il suffit d’y aller…

Place de la Toile : Quelle volonté, quelle philosophie président à cette entreprise immense ?

Brewster Kahle : Juste de construire une bibliothèque ! Il y a beaucoup de gens pour dire que tout est nouveau… qu’avec toutes ces nouvelles technologies, il n’y aurait pas besoin de se tourner vers le passé. Je ne pense pas… : au contraire, grâce à elle, nous devrions tirer les avantages de tout ce que nous avons construit en tant qu’humain… Cela peut sembler bizarre d’avoir une archive internet, une bibliothèque de l’internet… ça parait un peu “rétro” n’est-ce pas ?

Mais ça tombe sous le sens… Il faut juste que nous actualisions ce que nous savons des archives et des bibliothèques. On encourage toutes les structures à le faire, et c’est quelque chose qui nous enthousiasme beaucoup : on a des réunions avec la Bibliothèque Nationale de France par exemple, à qui on dit : aux États-Unis et au Canada, on commence à prêter en ligne des livres du 21e siècle, mais de telle façon qu’une seule personne à la fois puisse le lire… “Mais, mon dieu, pourquoi faites-vous cela aujourd’hui, a l’ère numérique ?!”

Hé bien, répondent-ils : c’est une histoire de “copyright”…. On veut juste agir comme une bibliothèque est censée le faire, et pas comme le font les éditeurs : on veut rendre ces livres disponibles en format électronique…

Je suis très inquiet de l’oubli du passé. Plus exactement, il ne sera pas oublié, il sera juste insignifiant. Dans les bibliothèques du futur, nos enfants apprendront uniquement avec ce qui est a portée de leurs doigts ; notre mission, en tant qu’adultes, c’est d’y mettre le meilleur ; aujourd’hui ils apprennent avec internet, mais il ne contient pas le meilleur : pour le mettre entre les mains de nos enfants, il faut le numériser. Il y a bien des choses qui s’opposent à cette tentative : de vieilles idées pour la plupart, comme le copyright, qui ont besoin d’être actualisées, de telle façon que les gens soient payés, certes, mais payés en fonction de cette nouvelle conception de l’accès ; sinon les œuvres finissent par disparaître.

Or il faut les rendre non pas moins accessibles, mais davantage, et trouver de nouvelles façons de rétribuer tout le monde. Donc non, je n’ai pas peur que les choses disparaissent complètement, mais bien qu’elles deviennent insignifiantes.

Place de la Toile : Une célèbre citation du Faust de Goethe dit ceci : “ce que tu hérites acquiert-le, afin de le posséder” ; pour ce qui relève de l’héritage, on voit bien tout ce que peut apporter l’internet Archive Brewster Kahle, mais comment se l’approprier, pour que ça ne soit pas seulement réservé aux savants, aux historiens et scientifiques ?

Brewster Kahle : Devoir se débrouiller avec cette masse d’informations qui nous entoure, c’est périlleux… Et maintenant, en plus, on sait que tout cela nous entoure… Et l’on est constamment sollicité, arrosé par des flux… Ce qui nous fait sentir en retard, ou stupide ou que sais-je. Cela implique de penser différemment. Je le vois par rapport à mes propres années d’étude, où il suffisait de lire les manuels pour croire que l’on savait distinguer le bon du mauvais ; désormais on peut lire de nombreux points de vue sur à peu près tous les sujets… Les choses deviennent plus complexes.

Mes enfants sont très au fait de toutes ces informations qui leur sont transmises, pourtant certaines d’entre elles ne conviennent pas ! Et ils sont beaucoup plus jeunes, alors que moi, j’ai eu beaucoup plus de temps pour m’en rendre compte.

Je pense que les gens s’adaptent… Mais comment le font-ils dans cette abondance d’informations ? Tout dépend de la façon dont nos technologies nous aident à trouver des choses afin que ça ne soit pas simplement au petit bonheur la chance… Y arrivons-nous ? Ça nous rend anxieux, stressés, de faire face à des désastres à l’autre bout du monde, à des atrocités que l’on aurait peut-être ignorées dans d’autres circonstances. Nous nous sentons davantage coupables… Est-ce pour le mieux ? Je pense qu’à long terme, c’est une chance que d’avoir cette information disponible, tant qu’elle reste précise, et tant qu’il y a encore de vrais auteurs qui ne sont pas juste employés à relayer la vision d’une entreprise…

Place de la Toile : Que pensez-vous du projet d’archivage total d’une vie entrepris par Gordon Bell, vétéran de Microsoft : un projet comme celui-ci, appelé MyLifeBits présente-t-il un intérêt pour vous à l’Internet Archive ?

Brewster Kahle : C’est un projet fantastique… Gordon Bell fut l’un des grands architectes des ordinateurs. Il a entrepris de tout numériser de sa vie, toutes ses conversations, tout ; nous on a numérisé ses livres donc il peut déjà les mettre sur son ordinateur et les parcourir de n’importe où…

Il essaie de vivre le monde virtuel, mais de le vivre physiquement je veux dire, il interagit avec des personnes, mais il numérise tout, et tâche d’en tirer un sens… C’est totalement avant-gardiste !

Nous avons tenu une conférence sur les archives numériques personnelles il n’y a pas très longtemps, Gordon Bell était là, ce fut très instructif. Désormais, les gens conservent leur vie en ligne, leurs photos sur Fickr, leurs vidéos sur Youtube ; ils partagent sur telle ou telle plateforme, mais comment faire pour que cela dure ? Nous sommes en train d’inventer les outils pour numériser non seulement ce que contiennent les cartons de nos garages, mais également l’ensemble du matériau qui nous entoure, pour que notre descendance y ait accès.

Place de la Toile : Mais Brewster Kahle, vivre sa vie, n’est-ce pas aussi savoir oublier ?

Brewster Kahle : Même aujourd’hui je ne trouve pas qu’il soit si difficile d’oublier ! Je ne sais pas pour vous, mais j’ai déjà du mal à trouver ce que je cherche ! Je ne sais pas… il y a bien des gens pour penser que nous vivons un âge sombre, que l’on ne retiendra rien de cette époque du numérique, où nos merveilles sont rédigées avec Microsoft Word et simplement enregistrées.

Aussi je suis plutôt inquiet de perdre quantité d’information, alors même que nous pouvons aujourd’hui tout sauvegarder. Nous vivons une ère paradoxale : il est grand temps de devenir maître de notre avenir, en créant les logiciels du monde dans lequel nous voulons vivre…

Un monde qui ne s’impose pas à nous, qui ne nous est pas offert voire vendu par une grande entreprise. Il nous faut choisir la vie que nous souhaitons mener, et nous donner les moyens d’y parvenir.

Propos recueillis, traduits et retranscrits par Thibault Henneton en mars 2011.

Pour écouter Brewster Kahle sur Place de la Toile, c’est par là !

écriture, communauté, culture libre, données publiques, humanités numériques, industries culturelles, littérature, mémoire, science
Author: "Xavier de la Porte" Tags: "Archivage/stockage, Interviews, Services..."
Comments Send by mail Print  Save  Delicious 
Date: Friday, 24 Jun 2011 05:00

Les interfaces de programmation permettent à des services de s’échanger des données entre eux. Elles peuvent permettre à un site web d’utiliser le moteur de reconnaissance d’image d’une autre société pour l’intégrer à son service de stockage d’image par exemple ou à une librairie en ligne de publier sur votre profil Facebook ou Twitter le livre que vous venez de lui acheter. Stade suprême de l’intégration des services ou porte ouverte à la publicisation sans contrôle de soi, les API ont un rôle de plus en plus important dans le web d’aujourd’hui.

Pour mieux comprendre le rôle et le fonctionnement des interfaces de programmation (API pour Application Programming Interface), le mieux est de le demander à des gens qui les utilisent. Karl Dubost responsable des relations avec les développeurs chez Opera, Johann Daigremont à la tête du département des communications sociales aux Bell Labs d’Alcatel-Lucent, et Alexandre Assouad, concepteur de projets chez FaberNovel, avec leurs expériences différentes, reviennent sur le rôle, le fonctionnement et les enjeux des API, qui structurent déjà l’internet de demain.

InternetActu.net : Qu’est-ce qu’une API, concrètement ?

Karl Dubost : Une API est une interface. Un protocole de communication pour accéder à un service. De la même façon que dans un logiciel de base de données tu as un vocabulaire pour accéder aux données et faire une requête, l’API permet de construire des interrogations par une interface normalisée.

Selon les services Web, les API offrent un certain nombre de fonctionnalités. Celles-ci également évoluent au cours du temps. Dans le cas de Facebook, le lieu pour découvrir ses APIs est le site des développeurs. Facebook a plus d’une API. Ils en ont pour explorer le graphe, pour s’authentifier, etc. Comme c’est un service, les développeurs doivent identifier leurs éventuelles applications afin que Facebook puisse d’abord contrôler la façon dont l’API est utilisée et ensuite éviter les dépassements de ressources (requête trop fréquente par exemple).

Facebookdeveloppers
Image : le site des développeurs de Facebook.

Johann Daigremont : Une API permet à deux programmes de s’échanger des données. Le premier utilise l’API offerte par le deuxième pour bénéficier de ses services et données. L’API définit un langage commun entre les deux programmes. L’ensemble des grands acteurs du web propose désormais leurs services via leurs API. Au lieu de rester fermés, ces acteurs ont en effet décidé de s’ouvrir pour être capable d’offrir des modalités de développement accessibles et bénéficier des millions de développeurs de la toile (on appelle cela le crowdsourcing) : comme permettre de développer des quizz ou des jeux en utilisant les interfaces sociales de Facebook par exemple.

L’API décrit des fonctions et des méthodes pour accéder à certaines propriétés de certains sites comme Facebook, Twitter, MySpace… Ces interfaces de programmation permettent à un développeur d’interagir avec le système. Il y a différents types d’interfaces. Certaines ne permettent que de faire des interrogations (on peut chercher de l’information), d’autres permettent d’écrire de l’information (on peut par exemple “écrire” un statut pour une personne). La description des API, est basée sur des requêtes HTTP et du XML, permettant d’utiliser un langage très simple pour les lire et les interroger.

Le site web
">GoogleApps/APi
permet de voir la liste des interfaces de programmation de Google disponibles. Celles de Facebook sont documentées dans le répertoire et dans le site dédié aux développeurs.

Alexandre Assouad : Facebook est un exemple un peu complexe et particulier. On peut distinguer deux grands types d’API : celles qui permettent de créer des services dans Facebook (comme d’y créer Farmville, le célèbre jeu) et les API d’authentification qui permettent de ramener le graphe social d’un utilisateur dans un autre service (notamment via l’API Facebook Connect).

L’API Facebook Connect a créé un cercle vertueux pour améliorer l’expérience utilisateur en permettant d’intégrer une expérience sociale à n’importe quel site. L’API génère du trafic qui transite par Facebook et enrichit le flux des utilisateurs.

InternetActu.net : Qu’est-ce qu’on fait avec les API Facebook ? Quelles sont les API les plus utilisées ? A quoi servent-elles ?

Karl Dubost : Je pense que l’API Facebook la plus utilisée est celle d’authentification. Car elle permet aux gens de pouvoir commenter et voir des amis ou des infos relatives aux pages Web sur tous les sites.

Elle n’est pas innocente non plus. Elle permet à Facebook de tracer toutes les navigations d’un utilisateur Facebook sur tous les sites Web avec des fonctions Facebook. C’est un véritable cheval de troie à l’échelle du Web. C’est bien pour cela que Google sort son +1.

Alexandre Assouad : L’API la plus utilisée de l’internet demeure Google Maps, qui fournit un service de cartographie gratuit. Il faut dire que dans le monde des interfaces de programmation, Google a un modèle spécial : il offre un plein accès à ses API. Ainsi, faire du géocodage d’adresse sur Google Maps est totalement illimité. Mais si on veut faire du géocoding d’adresse en dehors de Google Maps on est limité en terme de requête. Google favorise l’utilisation de son propre service, mais s’offre la possibilité de récupérer le contenu d’une Google Maps pour l’indexer.

Le souci c’est qu’il y a désormais une API pour tout. Le problème est de déterminer où s’arrête la définition de l’API. Celle-ci a tendance à devenir de plus en plus un widget qui est intégré sur une page : les petits widgets de Facebook (code en javascript que n’importe qui dépose sur son site web) peuvent être appelés des API, car ils permettent d’intégrer Facebook facilement, mais ce ne sont pas des API au sens le plus technique. Car, si en terme de fonctionnement c’est assez proche, en terme d’intégration, ce n’est pas la même chose. En tant que développeur, on a sa disposition du code pour manipuler les éléments que l’on veut obtenir et faire s’afficher.

InternetActu.net : Peut-on accéder à tout via les API ?

Johann Daigremont : Tout n’est pas ouvert. Les développeurs n’ont pas accès à tout. Facebook par exemple n’ouvre pas tout. D’abord, il faut montrer patte blanche. Il faut s’enregistrer comme développeur auprès de la plupart de ces structures avant qu’ils vous acceptent. Il existe par exemple un Service Level Agreement (SLA ou accord de niveau de service) qui définit un contrat d’utilisation entre une application tierce et le site web auquel l’application accède. Ces contrats listent les méthodes autorisées, la périodicité ou la quantité de données qui peuvent transiter entre les deux services. Tous les services ont ainsi des limites : par exemple, Twitter limite à 150 le nombre de requêtes par heure par une application externe, Facebook a mis en place des limitations dynamiques sur le nombre de requêtes par jour par une application en fonction de “l’affinité” montrée par les utilisateurs pour votre application.

Les formes de SLA sont variées : avec Apple ou la plupart des opérateurs de télécommunication, il faut faire parvenir un courrier, mais Facebook se contente d’une déclaration en ligne. Apple vérifie que les sources de l’application soient en conformité avec l’API utilisée.

Mais pour tous ces acteurs, l’approche est la même : attirer les développeurs en proposant des interfaces de programmation ouvertes pour que ceux-ci puissent construire des millions d’applications.

Ensuite, les utilisateurs ont également un rôle : l’application doit demander à la personne une autorisation à chercher les données dont elle besoin. Beaucoup de systèmes ont des API spécifiques. Mais il existe quelques protocoles communs comme OpenSocial, un consortium qui décrit les spécifications des interfaces et permettant d’utiliser la même interface de programmation pour interroger de nombreux services. Sur Facebook on dénombre plus de 500 000 applications. Mais par application, on parle de tout et de rien. L’essentiel est très simple et consiste seulement à permettre l’identification, comme c’est le cas avec OpenSocial.

OpenSocial
Image : OpenSocial.

InternetActu.net : L’internet des API est-il un internet payant ou gratuit ?

Johann Daigremont : En fait, les deux ! Les acteurs du web ouvrent souvent leurs services de manières modulaires : une première partie des méthodes offertes via l’API est accessible gratuitement, ce qui permet d’attirer un maximum de développeurs, une seconde partie est payante pour des méthodes plus avancées. La partie gratuite est souvent limitée avec des seuils de requête. La plupart des acteurs du web proposent une partie de leur API gratuitement ; les opérateurs de télécommunication, qui ont longtemps proposé des API payantes, évoluent et commencent à offrir des API pour ouvrir les capacités de leurs réseaux à des communautés de développeurs.

Alexandre Assouad : Il existe des API où il y a des limitations en terme de requêtes, car les fournir coûte cher. Il y a un coût des requêtes à la seconde, notamment sur les API de Twitter, Viadeo ou Linked-In, avec des taux maximaux de requête par heure. Sur Google également il y a des API avec des taux limités, et si vous souhaitez les dépasser (c’est-à-dire dépasser les 10 000 ou 20 000 requêtes jours), il faut payer. Il existe des API totalement payantes, mais le modèle est le plus souvent freemium, permettant aux développeurs de tester les services tout en étant limités en terme de volume.

InternetActu.net : On a l’impression que les API sont hors économie. Que les échanges B2B sont devenus un échange basé sur la confiance et la réciprocité ? Est-ce si juste ? Ou au contraire, est-ce la base de lourdes négociations de l’ombre comme l’ont montré les tensions entre Facebook et Google ?

Karl Dubost : Pas du tout. :)

Les API sont soient en accès libre, soient identifiées et même payantes, comme par exemple le service Amazon S3. Il n’y a aucune confiance, ni réciprocité. Lorsqu’une société te laisse mettre l’authentification Facebook “gratuitement” sur ton site, c’est pour mieux pomper les données des utilisateurs. À chaque fois que Google donne la possibilité aux gens de mettre une carte Google Map, c’est l’opportunité de tracer les gens et leurs intérêts avec la combinaison de recherche géographique et Doubleclick, la régie publicitaire de Google. Ce qui est en jeu, c’est la construction fine de profils marketing pour mieux vendre de la publicité.

Alexandre Assouad : Dès le début il y a eu les 2 modèles. Les modèles d’API existent depuis longtemps. La réservation de billets dématérialisés pour le train par exemple utilisait des API d’un prestataire payantes.

Plusieurs modèles existent entre le modèle gratuit et le modèle payant freemium (c’est-à-dire un modèle qui permet d’accéder à un service de base, gratuit, mais qui devient payant quand on veut augmenter l’accès au service que ce soit en terme de capacités ou de fonctionnalités). Dans le cas du modèle payant freemium, il s’agit d’une prestation avec des conventions en terme de qualité de service ou de réactivité par exemple.

C’est le modèle gratuit qui est plus récent et qui a pour but de créer un cercle vertueux entre les acteurs qui l’utilisent, afin que chacun y trouve son compte. Ce modèle gratuit est assez lié au crowdsourcing. Par exemple, l’API de Foursquare a été auto-entretenue par les utilisateurs. Les gens renseignaient des lieux qu’ils n’y trouvaient pas. Tant et si bien que l’API de géolocalisation de Foursquare est devenue très intéressante, car elle ne me propose plus une longitude et une latitude, mais des lieux et leurs noms…

Parfois, le crowdsourcing permet de fournir un service plus intéressant, de le développer parce que les gens créent le contenu et l’apportent sur la plateforme… On a donc des modèles économiques différents dans les API, mais aussi des types de services différents, qui expliquent que l’un est souvent payant et l’autre souvent gratuit.

Johann Daigremont : Ouvrir ses services à des tiers via une API n’est pas anodin. C’est au contraire une réelle stratégie économique choisie par celui qui fournit ce service. Cela permet d’attirer des communautés de développeurs et de bénéficier d’une masse critique que vous n’avez pas en interne dans votre entreprise pour apporter de nouvelles fonctionnalités, de nouvelles applications, auxquelles vous n’auriez pas pensées ou que vous n’auriez pu développer. Cela permet également de suivre vos utilisateurs dans leurs usages d’autres applications, ce qui permet de construire des profils utilisateurs plus complets, profils pouvant ensuite être revendus pour du marketing ciblé.

Il me semble qu’on constate une réelle volonté des acteurs du web pour ouvrir les informations, même si la donnée est ce qui fait la richesse. Car c’est une ouverture intelligente. Il s’agit de développer des applications qui tirent partie de ces données, sans permettre pour autant de copier ou de pouvoir reconstruire la base de données à laquelle on accède.

InternetActu.net : Quelles sont les limites des API ? En les utilisant, les développeurs dépendent de règles qu’ils ne maîtrisent pas et qui peuvent changer au cours du temps, comme l’a récemment montré Google.

Alexandre Assouad : Ce que les développeurs attendent d’une API, c’est qu’elle soit normalisée, stable dans le temps. Pendant longtemps, il y a eu trop de changement dans les API de Facebook pour que les développeurs puissent suivre (et aussi sur leurs orientations en matière de vie privée) sans compter que Facebook communiquait assez peu en amont sur les modifications qu’ils apportaient. C’est effectivement le risque des API : en les utilisant, elles peuvent ne pas être toujours valides demain.

Google prévient assez en amont et versionne ses API. Sur Google Maps par exemple, il y a plusieurs versions d’API qui sont utilisables et maintenues. Ils communiquent sur leurs nouvelles API, ils avertissent des changements et ont une politique d’accompagnement dans le changement.

La différence entre Google et Facebook c’est qu’ils préviennent un peu plus tôt.

On constate également que Google change actuellement son fusil d’épaule : la stratégie est en train de se modifier et on trouve beaucoup plus d’API payantes qu’avant. Bien évidemment, quand cela devient payant, les développeurs cherchent à utiliser d’autres services, ce qui encourage d’autres alternatives. On trouve en Open Source des briques d’alternatives qui peuvent remplacer certaines API. L’open source a l’avantage de permettre une meilleure intégration : on peut les déployer sur ses propres serveurs, ce qui permet de s’affranchir des limitations en terme de requêtes.

Karl Dubost : De la même façon que dans le monde physique nous allons dans un restaurant parce qu’il propose un menu végétarien, il est fort probable que le service disparaisse ou soit modifié de manière conséquente si le propriétaire ou le cuisinier change. On doit alors se trouver un nouveau restaurant…

L’enjeu en ligne est de deux ordres. Les services sont souvent uniques ou peu nombreux (Facebook, Twitter, Google Maps…) et les APIs utilisées sont rarement normalisées. Si l’un des services ferme et que tout un développement s’appuyait sur les options de l’API, les développeurs sont marron. D’où le besoin de maîtriser l’indépendance de ses données.

InternetActu.net : Peut-on encore développer un site web sans se brancher sur des API ?

Alexandre Assouad : Bien sûr, un site peu exister sans API. Mais les API servent à améliorer les services ou ajouter des fonctionnalités. L’API on peut la voir de deux manières : soit elle enrichit et améliore l’expérience de l’utilisateur sur mon site, soit elle répond à un besoin technologique que je n’ai pas envie de réinventer. Il y a des API qui permettent d’intégrer de la reconnaissance d’image par exemple, ce qui permet au développeur d’un service de ne pas avoir à tout redévelopper alors que d’autres le font très bien. On peut profiter d’un écosystème existant. D’un autre côté, intégrer un Facebook Connect ou Twitter commence à entrer dans la norme…

Utiliser des API permet de se focaliser sur son corps de métiers, sans s’occuper des briques techniques qu’on utilise, un peu comme quand on sous-traite dans une entreprise. On peut clairement monter des services en développant très peu et en se basant sur plein d’API externes et en proposant un mixe de services très intéressants. Foursquare par exemple est assez proche d’un mashup d’API : une API de géolocalisation et une de partage avec ses relations… Ils ont recréé une base technique bien sûr, mais leur service aurait pu tout entier reposer sur des API existantes… En tout cas, on pourrait facilement créer un nouveau Foursquare avec des API existantes. C’est du Lego. Il faut juste que les briques tiennent et aient du sens.

Karl Dubost : Oui on peut développer un site Web sans forcément utiliser l’API d’une autre société. La question est plutôt qu’elles sont les API que je peux utiliser tout en minimisant les risques pour mon business d’en être victime.

InternetActu.net : On a l’impression que désormais, la plupart des nouveaux services naissent du croisement des API, comme le montre ProgrammableWeb, une base de données d’API rachetée par Alcatel…

Johann Daigremont : Les Mashups permettent à un développeur d’utiliser plusieurs API et des les “composer” pour créer un service. Pages jaunes par exemple utilise les API de Google Maps avec une API de données sémantiques pour afficher sur une carte la liste des docteurs. C’est la une composition très classique. Le plus souvent les développeurs se contentent de combiner leurs propres données avec l’interface de Facebook.

Mais il existe beaucoup plus d’API que n’en recense Programmable Web.

Karl Dubost : Ce n’est pas forcément le cas de tous les services. Certains vont créer des protocoles originaux, d’autres vont réutiliser entièrement un autre protocole. Par exemple, le service de suivi de conférence Lanyrd ne propose un login que et exclusivement par Twitter (ce qui est cela dit un peu limité).

L’enjeu de la normalisation est bien plus intéressant. Il nous évite d’avoir à ouvrir des comptes sur X services pour pouvoir les utiliser, sans être non plus dépendant d’un service tiers spécifique…

InternetActu.net : On a un peu l’impression que le paysage qui se dessine ressemble à un internet des API, ouvert, dans les nuages, mais réservé aux développeurs et un web des applications, un monde clos, limité, réservé aux usagers ?

Karl Dubost : Une API est un point de communication pour une application. Ce n’est pas une opposition. Il y a des API fermées, d’autres ouvertes, etc. Il y a des applications libres et des applications fermées.

Alexandre Assouad : Sauf que les API ne sont pas si ouvertes que cela. Ce qui est vraiment ouvert, c’est le code en open source qu’on peut répliquer. Sur Google, l’API de Geocoding (qui permet d’associer des coordonnées géographiques à des adresses) me limite à 20 000 requêtes par jour : si je les atteints, pour l’instant, je ne peux plus rien faire. Par contre si j’intègre une brique open source pour intégrer ce géocoding sur mes propres serveurs, je ne suis pas limité. L’API permet une certaine ouverture, mais il n’est pas si ouvert… Si je ferme l’API, si je la modifie, je mets dans une situation difficile beaucoup de gens.

Cela dit, l’API est un monde fermé pour l’utilisateur final. C’est un monde réservé aux développeurs.

Sur Twitter par exemple, l’API permet de faire plus de choses que ne le propose le site. Il y a une dissymétrie entre le service disponible en ligne et ce que l’on peut faire via les API. L’écosystème lié aux API s’est beaucoup développé ce qui a permis de résoudre les problèmes de charge que connaissait le service qui tombait fréquemment. Ils ont développé des API plus solides et construit des services depuis celles-ci. Et l’API Twitter permet de faire plus que ne le propose le site : comme de rechercher en profondeur dans l’historique des comptes par exemple. Elle est devenue prépondérante par rapport au site. Elle permet à de très bons services d’exister, comme Tweetdeck.

Propos recueillis par mail et téléphone entre décembre 2010 et mai 2011 et assemblés par Hubert Guillaud.

Alexandre Assouad est concepteur de projets chez FaberNovel. Johann Daigremont est à la tête du département des communications sociales aux Bell Labs d’Alcatel-Lucent. Karl Dubost responsable des relations avec les développeurs chez Opera.

Le dossier “Comprendre Facebook” :

algorithmie, économie, coopération, géolocalisation, google, marketing, programmation, Web²
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Confiance et sécuri..."
Comments Send by mail Print  Save  Delicious 
Date: Wednesday, 01 Jun 2011 07:55

qs_conf_logoCe week-end se tenait à Mountain View la première édition de la conférence Quantified Self (QS) (que l’on pourrait traduire littéralement par “la quantification de soi” pour parler “de la capture, de l’analyse et du partage de ses données personnelles”, comme l’explique Emmanuel Gadenne). Nous avons parcouru les différents comptes rendus de cette conférence, organisée par Gary Wolf et Kevin Kelly qui avaient lancé ce mouvement (voir Nos vies gérées par les données et Finalement, documentez-moi !) pour tenter de vous en rendre compte.

Quantification ou amélioration ?

En observant certains ateliers, on pouvait se demander quel est l’objectif de “cette mesure de soi”.
Matthew Trentacoste, est étudiant à l’université de la Colombie-Britannique et dirigeait une séance de discussion sur le “suivi de l’attention” aux rencontres du Quantified Self, rapporte Ethan Zuckerman. Assez logique qu’il s’intéresse aux stratégies de concentration, car Matthew a depuis longtemps été diagnostiqué comme hyperactif, c’est-à-dire atteint d’un trouble de déficit d’attention…

Pour gérer son attention, les médecins conseillent le plus souvent de gérer son environnement de travail : travailler dans une pièce tranquille avec peu de choses à votre disposition. Mais les hyperactifs savent se distraire même dans une pièce calme.

L’internet n’est pas une pièce calme, explique Matthew Trentacoste. Pour favoriser sa concentration en ligne, il a utilisé et construit des outils qui l’aident à se concentrer dans les environnements en ligne. Il utilise ainsi RescueTime, un logiciel qui lui indique le temps qu’il passe sur différents outils, courrier électronique ou navigation web. Ces outils lui offrent des données simples sur le temps qu’il consacre à une tâche spécifique, la fréquence à laquelle il les utilise et lui fournissent un score qui lui permet de mesurer et surveiller sa distraction.

Cet exemple donna lieu à une discussion sur ce qu’est l’attention (la résistance à la distraction pour Matt), mais d’autres participants mire l’accent sur la productivité en faisant notamment référence à l’expérience optimale, au flow de Mihaly Csikszentmihalyi (Wikipédia). Les intervenants suggérèrent plusieurs techniques de gestion du temps, comme la méthode Pomodoro ou de distinguer le calendrier des artisans du calendrier des managers, comme le suggère Paul Graham : selon ce que vous avez à faire, vous avez besoin de plages d’attention plus ou moins longues. Un autre participant qui travaille chez Neurosky, l’entreprise qui développe le casque qui capte les ondes cérébrales suggéra de mesurer les ondes alpha et bêta pour comprendre le rôle de la détente (ondes alpha) et de la relaxation (ondes bêta) en mesurant leur amplitude selon ce que l’on fait. Certains athlètes comme les archers savent combiner les deux pour être à la fois détendus et concentrés.

Naveen Selvadurai de Foursquare suggéra que nous pourrions manquer l’essentiel en cherchant trop à optimiser notre attention. L’attention dépend également de contraintes physiques : nous sommes plus souvent distraits lorsque nous avons faim par exemple. Pourrait-on intégrer des capteurs de nos activités physiques pour mieux les prendre en compte ? C’est peut-être l’une des solutions à envisager…

Robin Barooah animait lui une session sur la géolocalisation. Il a participé à l’élaboration de Lieu d’échange, un outil proche de Google Latitude qui permet de suivre sa localisation et de la partager avec d’autres. Pour lui, savoir où sont vos amis à tout moment permet “d’augmenter le sentiment” de proximité. Pour lui, cette fonctionnalité transforme autant le comportement que l’a fait l’introduction des téléphones mobiles quand le téléphone fixe dominait les télécommunications. Bien évidemment, l’atelier tourna vite au pugilat pour savoir si les gens voulaient partager leur localisation 24h/24 avec les autres. Si beaucoup de participants ne semblaient pas gênés par cette idée, quelques-uns s’y opposèrent farouchement. De l’autre côté de l’Atlantique également on se pose des questions sur ces systèmes mouchards de votre localisation qui ne peuvent être désactivés. Robin Barooah admit lui-même n’être pas tout à fait à l’aise de passer de la mesure de ses propres comportements à leur partage.

Pourtant, ces types de partages permettent aussi de créer des cartographies utiles, comme Asthmapolis (vidéo). Asthmapolis est une cartographie des zones irritantes pour les personnes atteintes d’asthme construit à partir d’inhalateur dotés d’un petit GPS permettant à leurs utilisateurs de cartographier les endroits où ils s’en servent simplement en les utilisant, sans avoir à renseigner une quelconque information supplémentaire.

What is Asthmapolis? from Asthmapolis on Vimeo.

Pour Robin Barooah documenter ses déplacements est un indicateur de comportement qui permet une détection passive de son activité : si on est dans le parc, c’est probablement parce qu’on est allé promener le chien ou les enfants, selon la forme de répétition de l’évènement. Un participant travaille sur une application (baptisée Tripography) qui extrapole le moyen de transport que vous utilisez en fonction de votre vitesse de déplacement et calcule soit les calories brûlées soit le CO² émis. On évoque le kit de survie de la ville sensible de Mark Shepard et son application iPhone, Serendipitor, qui permet de calculer un itinéraire sinueux entre deux endroits pour nous conduire vers des choses surprenantes, à l’image du GPS déroutant imaginé par les participants du Citelabo de la Fing. Ces différents exemples montrent bien que l’enjeu du QS n’est pas seulement dans la mesure, mais repose bien dans l’amélioration de l’existant. La mesure a un but, même si celui-ci n’est pas toujours avoué.

Et les données ?

Sur son blog, Mary Hodder s’étonnait qu’il y ait peu de sensibilisation à la protection des données personnelles durant les conférences du QS. Il lui a semblé implicite “que “nous” (innovateurs, sociétés, porteurs de projets…) pouvons prendre des données et les utiliser pour faire tout ce que “nous” voulons”. Sans se poser vraiment de problèmes de confidentialité, de contrôle, d’autonomie, de choix ou de transparence pour des données pourtant souvent très personnelles, très sensibles, recueillies autour de questions essentiellement liées à la santé et au bien être. Elle qui promeut un écosystème des données personnelles a quand même trouvé un moment pour défendre sa vision dans laquelle les usagers contrôlent leurs données via des espaces de stockage personnels, plutôt que celui de leur laisser accéder seulement à des applications dans lesquels les utilisateurs n’ont pas vraiment accès à leurs données, autrement que via des services web et des interfaces de programmation qui ont surtout pour fonction d’envoyer un peu de leurs données ailleurs (comme sur Twitter ou Facebook).

Pour Mary Holder, il est d’autant plus important de laisser l’utilisateur décider de l’utilisation qui peut être faite de ses données que celles-ci sont, bien souvent dans le domaine du QS, très personnelles. Développer un système de données centrées sur l’utilisateur plutôt que de laisser les sociétés faire ce qu’elles veulent des données de leurs clients semble effectivement une problématique que les early adopters de la quantification de soi ont laissé de côté. Pas sûr que cet oubli convaincra le grand public.

Le business du Quantified Self

L’une des séances de la conférence était consacrée au business du Quantified Self rapporte encore Ethan Zuckerman, animé par Paul Tarini de la Fondation Robert Wood Johnson qui a présenté le Guide complet du Quantified Self qui répertorie quelques 400 outils à l’heure actuelle.

Parmi ceux-ci, signalons par exemple le bracelet-montre PulseTracer présenté par Nadeem Kassam, un bracelet qui mesure la vitesse du flux sanguin et la température et qui est même doté d’un accéléromètre qui lui permet de détecter les états d’activité et d’évaluer les calories brûlées. “Mais le plus important n’est pas tant le dispositif technique que la façon dont nous présentons les données aux utilisateurs”, explique Kassam. Il faut des données assez précises pour être efficaces, mais à la fois simples et engageantes. Il faut pouvoir les partager avec d’autres systèmes et elles doivent être faciles à appréhender pour l’utilisateur. C’est le seul moyen pour étendre la problématique du suivi personnel au-delà des marchés des primo-adoptants.

L’essentiel de cette session s’est justement concentré sur ce défi : transformer le suivi personnel en produit de consommation. Ben Rubin de Zeo, un capteur de sommeil, Jason Jacobs de Runkeeper un capteur qui permet de suivre ses efforts sportifs, ou Brian Krejcarek de GreenGoose, un kit qui permet de transformer toutes ses activités de loisirs en mesure, sont aux prises avec des défis similaires : transformer les produits qu’ils ont construits par passion personnelle, en produits grands publics.

greengoose
Image : GreenGoose, le kit.

Ben Rubin reconnaît ainsi que la plupart des utilisateurs qui achètent le produit l’utilisent intensément pendant 3 à 4 semaines, avant d’arrêter. Enfin, pas totalement. Six mois après l’achat, 70 % des acheteurs l’utilisaient encore au moins une fois par semaine. Jason Jacobs a découvert que les utilisateurs qui partagent leurs données sur Facebook ont plus tendances que les autres à demeurer actifs et à continuer à l’utiliser. Beaucoup de ceux qui abandonnent peuvent être relancés par un simple e-mail qui leur apporte de nouveaux objectifs. Brian Krejcarek défend lui une conception qui prendrait en considération la passivité des capteurs, plutôt que des outils qui nécessitent une collecte de donnée active. Car le problème avec les capteurs est qu’ils vous fournissent des chiffres décourageant quand vous ne les utilisez pas. Les capteurs omniprésents permettent eux d’ignorer les données qu’ils transmettent, mais vous permettent d’utiliser les mesures quand vous en avez besoin.

Ben Rubin, enthousiaste, pense qu’à long terme, nous aurons des capteurs partout : dans nos téléphones, dans nos voitures, dans nos lits… En attendant que ce soit le cas, les innovateurs du QS se concentrent surtout sur des problèmes de santé. Mais peut-être faut-il réfléchir à intégrer verticalement d’autres fabricants ? Peut-être qu’à l’avenir il existera tout un écosystème de fournisseur permettant d’échanger les données pour les utiliser de multiples manières, mais en attendant, il faut bien souvent, comme le propose Zeo, développer le capteur physique, les outils de visualisation des données et la communauté qui permet de comparer ses données à celles des autres.

Pour ces trois observateurs, il y a encore des secteurs où les outils de mesure sont peu développés. Pour Ben Rubin, le marché du stress est encore un marché où il n’y a pas beaucoup de bons outils pour analyser et comprendre un problème dont souffrent beaucoup de personnes. Pour Brian Krejcarek, le suivi personnel n’est pas très amusant : il manque des jeux pour faire le bonheur des processus. L’avenir du QS, qui se présente pourtant d’une manière très sérieuse, est-il dans le divertissement ? Pour Jason Jacobs, il manque surtout du temps pour recueillir des données et améliorer encore les outils.

Vers de nouveaux capteurs ?

Eric Boyd, qui se définit plutôt comme un bidouilleur, explorait les nouveaux capteurs et l’avenir de l’autonomie des technologies de suivi personnel, rapporte encore Ethan Zuckerman. Il fait également partie de Sensebridge, un groupe de recherche collaboratif lié à Noisebridge, le HackerSpace de San Francisco et au HackLab de Toronto (voir notre dossier sur les Makers).

Il a développé deux projets : Heart Spark, un pendentif qui clignote lorsque votre coeur bat, qui est plus un projet de communication sociale qu’un projet de quantification personnelle, et North Paw, une ceinture qui vous indique toujours le Nord.

Non seulement les capteurs sont devenus plus petits et moins chers, mais ils sont également désormais tous sans fil et la durée de vie des batteries s’est radicalement améliorée. Tant et si bien que des entreprises comme Goose Green peuvent fabriquer des capteurs de la taille d’un petit autocollant doté d’accéléromètres, du Wi-Fi et d’une batterie leur permettant d’émettre pendant trois ans. Ce qui signifie qu’on peut placer une étiquette sur une boite de pilules et savoir si vous avez pris votre médicament rien qu’en repérant si vous avez bougé la boîte, sans avoir besoin de les scanner via un boitier comme c’était le cas avec les TouchTag ou les lecteurs RFID type Mir:ror du défunt Nabaztag. Désormais, on peut également mettre un capteur GPS sur un inhalateur, comme le montrait le projet Asthmapolis.

Mais Boyd recense d’autres interfaces prometteuses, comme l’électromyographie (EMG) consistant à utiliser de petites électrodes de surface pour détecter le courant électrique des jonctions neuromusculaires. Quand un muscle se contracte, il créé un champ électrique de petite taille : c’est ce que mesure l’EMG. Le casque cérébral Neurosky utilise ce type de technologie. Amy Drill a donné une conférence au QS de New York pour montrer un short équipé d’électrodes de ce type pour suivre et optimiser les performances d’athlètes olympiques. Ces systèmes sont encore coûteux, mais ils permettraient demain à tout sportif d’étudier avec précision tous ses mouvements musculaires lors du moindre de ses efforts.

Les capteurs galvaniques permettent de détecter la sueur et donc d’analyser l’effort physique, la nervosité ou l’excitation. Ce sont eux qui servent notamment à faire des détecteurs de mensonges. Couplés à des accéléromètres ou à des moniteurs cardiaques, on pourrait analyser l’humeur en fonction de l’activité physique. Boyd s’est également intéressé aux glucomètres, permettant de faire des tests de glucose dans le sang. Ces tests sont peu coûteux, mais ne permettent pas une surveillance continue, puisqu’il faut à chaque fois recueillir une goutte de sang… Des micro-aiguilles équipant des patchs à appliquer sur la peau pourraient-elles demain être une solution pour contrôler ses fluides corporels ?

looxcieLes caméras et appareils photo sont de plus en plus petits et de moins en moins chers. Looxcie par exemple est une petite caméra qu’on peut accrocher sur ses lunettes ou une casquette pour enregistrer sa vie en continu. Un outil qui, couplé à un écouteur et à un mobile, permettrait par exemple de connaitre le nom de celui qui s’adresse à vous pour ceux qui n’ont pas la mémoire des noms par exemple… Ou, comme le propose MealSnap, d’estimer la charge calorique de ce que vous mangez rien qu’en envoyant une photo à l’application.

Les micros sont un capteur que nous avons tendance à oublier, rappelle Eric Boyd. Pourtant, ils sont très bon marché et peuvent être utilisés de manière intéressante. Un bidouilleur a ainsi placé un micro dans un coussin gonflable et a utilisé le flux d’air lié à la pression de la tête sur l’oreiller pour mesurer sa respiration pendant son sommeil. Et que pourrons-nous faire avec des capteurs qui détectent les ultrasons ? Il rappelle l’existence par exemple du moniteur pour bébé Lena, qui pour 700 $ vous indique où en est votre enfant dans son cycle de développement du langage.

On voit apparaitre de plus en plus de capteurs dans notre environnement physique. Il n’y a pas que nos personnes qui sont quantifiées, “le monde est quantifié !” Les compteurs électriques peuvent dire beaucoup de choses de notre comportement personnel. Les douches de minuit sont visibles dans les fluctuations de nos consommations électriques. Les automobiles sont remplies de capteurs. Des puces comme le CarChip Pro permettent déjà très simplement d’accéder à toutes les données de votre véhicule : pression des pneus, vitesse, régime moteur… Peut-être pourrons-nous utiliser ces informations comme un moyen pour détecter le stress ?

Nous sommes à une époque pleine de défis passionnants, estime Eric Boyd en évoquant par exemple le prix Tricorder X un concours doté de 10 millions de dollars de prix pour fabriquer un appareil de poche capable de multiples diagnostics (faisant référence au Tricorder de Star Trek). Il y a beaucoup de possibilités que ce soit de jouer avec les capteurs, comme de bricoler de nouvelles solutions. C’est en tout cas bien ce champ qu’explorent les innovateurs de la quantification de soi.

économie de l'attention, do it yourself, habitat connecté, identités actives, intelligence des données, internet des objets, lifelog, mémoire, quantifiedself, traçabilité
Author: "Hubert Guillaud" Tags: "Archivage/stockage, Articles, Communaut..."
Comments Send by mail Print  Save  Delicious 
Next page
» You can also retrieve older items : Read
» © All content and copyrights belong to their respective authors.«
» © FeedShow - Online RSS Feeds Reader