OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Artistes: donner votre album a du bon http://owni.fr/2011/01/14/artistes-donner-votre-album-a-du-bon/ http://owni.fr/2011/01/14/artistes-donner-votre-album-a-du-bon/#comments Fri, 14 Jan 2011 14:42:33 +0000 Jim Grobecker http://owni.fr/?p=29566 Jim Grobecker développe des stratégies marketing pour des artistes et des marques. Il possède son propre site et publie également sur Music Think Tank.

C’est un fait : tout le monde télécharge de la musique gratuitement.

Sean Parker, connu pour être l’un des fondateurs de Napster a récemment affirmé dans une interview si l’on “regarde les chiffres, c’est entre 4 et 10 milliards de titres qui sont téléchargés illégalement chaque année, contre environ 4 milliards de téléchargements légaux”.

La musique sera toujours présente sur les plateformes de partage de fichiers et les internautes continueront à télécharger de la musique gratuitement, mais pour les artistes, enregistrer est encore plus important qu’avant. Les contenus enregistrés ont une nouvelle raison d’être. En effet, ils ne seront plus une source de revenu directe pour les artistes, mais serviront aux consommateurs de point d’entrée dans la “marque”. Les revenus seront générés par les produits dérivés ou les places de concerts, ou encore par le biais de partenariats avec des marques cherchant à s’associer avec des artistes pour relayer leurs valeurs. La solution au problème du partage de fichiers passe par une meilleur gestion de leurs enregistrements de la part des artistes en créant par exemple sur leur site web une page d’entrée (ou landing page) dédiée à l’hébergement des fichiers en téléchargement.

Votre landing page vous veut du bien.

De nombreux facteurs définissent la manière dont les sites apparaissent dans les moteurs de recherche comme Google ou Bing. Jetons un œil aux facteurs de classement les plus importants qui asseyent l’autorité d’un site (classement basé sur le nombre de liens pointant vers votre site et sur la qualité de ceux ci), afin de souligner l’importance d’avoir une landing page contenant un lien de téléchargement gratuit :

- Les liens entrants : mènent vers votre site depuis d’autres blogs ou sites. Ces liens sont garants de l’utilité et la réelle valeur de votre contenu.  SEOmoz, leader dans le domaine du marketing en ligne et des algorithmes de classement, affirme que dans  24% des cas, le référencement provient de la notoriété globale du domaine, 22%  de la popularité du lien sur la page qui renvoie vers votre site, et 20% du texte utilisé dans ce lien. Les liens représentent donc 66% de la capacité d’un site à apparaître das les résultats d’une recherche.

Exemple : Wikipedia.org apparaît souvent très haut dans les résultats de recherche. Selon le site Yahoo Site Explorer, qui répertorie le nombre de liens d’un site, Wikipedia a plus de 8,2 millions de liens, qui plus est de sources très reconnues. C’est pourquoi Wikipedia apparaît dans les premiers résultats de recherche.

- Mots-clés : ce sont les termes que l’on utilise pour améliorer le référencement en les incluant dans le titre de la page d’entrée, l’url ou partout ailleurs sur la page. Les mots-clé correspondent à 15% environ des algorithmes de référencement. Gardez à l’esprit que même les mots-clés n’ont pas la même valeur que les liens, vous pouvez les contrôler plus facilement que les liens entrants.

Exemple : tapez “Rival Schools Torrent” dans Google et vous verrez que le premier résultat est un lien vers la landing page Piratebay.org. Elle contient les mots “Rival School” dans son titre ainsi que dans l’url ce qui a une incidence sur le référencement de cette page pour cette recherche en particulier.

Les réseaux de partage de fichiers contrôlent les liens de téléchargement gratuit.

Les internautes sont à la recherchent de musique gratuite sur la toile, ce qui bénéficie pour le moment aux sites de partage de fichiers. Il y a 6,2 millions de liens vers Piratebay.org, 6,4 millions pour Isohunt.com, 2 millions pour Utorrent.com et 3,8 millions pour Mininova.org. Ces liens sont attachés à des noms d’artistes et d’albums qui sont des mots clé que les internautes utilisent pour trouver de la musique en ligne. Pour cette raison, les sites de partages de fichiers sont souvent mieux classés dans les recherches que les sites des artistes eux-mêmes. Il suffit d’une fois pour convertir un fans au téléchargement illégal.

Comment capitaliser sur le partage de fichier contrôlé par les artistes ?

Lorsqu’un artiste crée une landing page dédiée contenant un album en téléchargement gratuit, les meilleurs sont souvent linkés. Plus les artistes seront linkés, plus ils supplanteront les sites de file sharing dans les moteurs de recherche et au final détourneront le trafic de ces sites. C’est le principe du file sharing contrôlé par les artistes, qui bénéficie directement aux artistes individuellement. Prenons un exemple :
Girl Talk, aka Gregg Gillis a sorti un nouvel album intitulé “All Day le 15 novembre dernier sur le label Illegal Art en tenant compte de ces concepts. Le disque était gratuit et hébergé sur une landing page, donnant ainsi 4 informations intéressantes:

1. Girl Talk s’est fait linker 14903 fois. Liens qui, sans landing page, auraient orienté vers les sites de file sharing. Le site de Girl Talk a été mentionné par des sites de référence comme Mashable.com et MTV.com, bénéficiant ainsi d’un meilleur référencement.

2. Hausse considérable du trafic le mois de la sortie. En regardant les statistiques grâce à Compete.com, on observe qu’entre mai et octobre, le site avait reçu 3025 visiteurs uniques. Pour le seul mois de novembre, on est passé à 211 111 VU.

3. Lorsque l’on tape “Girl Talk Download” dans Google, la landing page de GT arrive devant les sites de file sharing dans le résultats de recherche. Cela montre que le recours à ces sites devient inutile. C’est exactement comme ça que les artistes devraient utiliser le partage de fichier.

4. Les références à Girl Talk sur les réseaux sociaux ont explosé durant la semaine de sortie de l’album. La semaine du 15 au 22 novembre 2010, on compte 18,5 million de mentions sur Facebook et Twitter, contre 15 tweets la semaine précédente. Ces mentions on développé la “marque”  et encouragé les liens vers le site de l’artiste.

Optimisez votre landing page.

Il est clair qu’un album en téléchargement gratuit attirera les liens et les nouveaux visiteurs. Une landing page bien pensée transformera ces visiteurs en consommateurs. Faites en sorte que cette page soit une meilleure expérience pour l’internaute que les sites de partage de fichiers. Gardez à l’esprit que tout le monde n’attend pas la même chose d’un site web. Chaque visiteur est à un stade différent du processus d’achat. Certains connaissent déjà bien la musique et la “marque”, d’autres non. Considérez le processus d’achat comme un entonnoir. Le contenu enregistré est la partie haute de l’entonnoir, et constitue le point d’entrée dans le cycle d’achat et la marque de l’atiste. Une fois dans l’entonnoir vous devez guider le consommateur jusqu’en bas, jusqu’à la vente.

Les visiteurs qui viennent pour la première fois voudront découvrir l’album. Proposez un formulaire d’inscription à une newsletter, des liens vers vos profils sur les différents sociaux (ShareThis propose un tas de très bons plugins et de boutons personnalisables). Cela permettra à vos consommateurs de rester en contact avec vous et de revenir à la landing page lorsqu’ils seront prêts à passer à l’achat. Pour ces visiteurs “revenants” qui sont tombés amoureux de votre musique, il existe une immense opportunité de vendre du merch, des places de concert, et des coffrets exclusifs réservés aux super-fans. Tout cela doit se trouver sur la landing page. De la bonne musique vous permettra de vendre des produits dérivés.

Enfin, optimisez votre landing page en y plaçant des mots-clé spécifiques pour apparaître correctement dans les recherches. Faites une recherche avec “Google Keyword Tool” (assurez vous que vous avez coché l’option “exact match”). Lorsque vous ajoutez des mots clés sur votre site, mettez vous dans la tête d’un consommateur potentiel à la recherche de nouvelle musique. Essayez de voir à quel niveau de résultat arrive la recherche “votre nom torrent”. Le mot-clé “torrent” fait l’objet d’environ 151 millions de recherches chaque mois. C’est comme ça que les gens cherchent de la musique sur Internet.

Est ce que le fait de vendre 10€ un album qui de toutes façons se retrouvera sur les sites de file sharing a plus de poids que de l’offrir sur le site de l’artiste, générant ainsi un grand nombre de liens vers ce site ainsi que de meilleurs résultats de recherche, des ventes de merch, de places de concert et une présence en ligne plus efficace et durable ? Le partage de fichiers a déjà changé le paysage musical. C’est maintenant aux artistes de changer le paysage du file sharing.

Article initialement publié sur Music Think Tank

Traduction : Loïc Dumoulin-Richet

Crédits photos : FlickR CC Carlos-maya, niklaswikstrom, randradas

]]>
http://owni.fr/2011/01/14/artistes-donner-votre-album-a-du-bon/feed/ 3
Pourquoi Google est “une aubaine” pour le journalisme http://owni.fr/2010/07/12/pourquoi-google-est-une-aubaine-pour-le-journalisme/ http://owni.fr/2010/07/12/pourquoi-google-est-une-aubaine-pour-le-journalisme/#comments Mon, 12 Jul 2010 11:59:50 +0000 Robertson Barrett http://owni.fr/?p=21751 Il est temps que les médias dépassent leurs inquiétudes vis-à-vis de Google et adoptent l’économie de la recherche. Les magazines et les journaux qui ne se battent pas pour leur part d’audience (et de revenus) rendent un mauvais service à leur marque, leurs journalistes et leurs lecteurs.

Quand un contenu de très bonne qualité est optimisé pour la recherche, tout le monde en ressort gagnant. Les utilisateurs profitent du fait que le journalisme de qualité apparaît en haut des résultats de recherche. Les annonceurs bénéficient de leur présence dans un contenu riche et recherché. Et les journaux peuvent bénéficier d’une source de revenus inexploitée.

Malgré tout, pour beaucoup de médias, Google reste un ennemi. Un “vampire numérique… qui suce le sang” du business de l’information, comme l’a déclaré Les Hinton, le PDG de Dow Jones l’année dernière. Même News Corp avait menacé de se retirer des résultats de Google. En 2009, l’Associated Press avait accusé Google par titres interposés de “voler” leur trafic en se basant sur la façon dont le géant de la recherche redirigeait vers les articles.

Au contraire, le New York Times a récemment annoncé qu’il allait s’assurer que “son modèle au compteur” allait laisser ses contenus accessibles depuis les recherches Google, permettant le partage par les blogueurs et via les réseaux sociaux. Par ailleurs, le président Arthur Sulzberger a expliqué que The Times restait attaché à l’économie de la recherche, dans ce qu’il appelle “l’inter-connectivité du web”.

Tous ces éditeurs de premier plan ont des inquiétudes légitimes quant à l’influence exclusive de Google dans le domaine de la recherche sur Internet. Mais malgré leurs rhétoriques variées et le paywall de News Corp en Grande-Bretagne, aucun n’a sérieusement ou irrévocablement coupé le cordon avec Google, ni n’est d’ailleurs prêt à le faire.

Il donne autant qu’il prend

Et ils ne devraient de toute façon pas le faire, car Google et quelques autres sites de recherche majeurs sont les moteurs les plus précieux qu’ils puissent espérer. Au vu du gigantesque trafic et des opportunités de revenus lorsque le contenu est optimisé pour la recherche – avec 11 milliards de dollars en publicité dépensés aux États-Unis l’année dernière, selon Needham Insights, la publicité incluse dans les recherches est deux fois plus importante que la publicité traditionnelle et croît plus vite que cette dernière – il est clair que Google pourrait bien être une aubaine pour le journalisme.

Dans sa keynote à la conférence Web 2.0 à San Francisco, Danny Sullivan a souligné que Google donne autant qu’il prend. Pendant qu’il collecte un bon petit paquet grâce à ses publicités dans les pages de recherche sans garantir que l’utilisateur accède effectivement aux sites d’info, il n’empêche pas nécessairement les visites directes, et en fait, génère gratuitement des milliards de pages vues pour les sites Internet. En 2009, selon un rapport de Forbes, Google a envoyé près de 1 milliards de clics vers les journaux, ce qui équivaut à presque 400 visites par seconde !

Exploiter le trafic de la recherche

L’opportunité réside dès lors dans l’exploitation de Google plutôt que dans son blocage. Sullivan a noté que Google “renvoie du trafic gratuitement au moins autant qu’il en détourne”. Le plus gros problème est donc de savoir “comment monétiser ce trafic”.

Les éditeurs doivent accepter la compétition de l’économie de la recherche, et réaliser que la majorité des utilisateurs préfèrent trouver des informations via les moteurs de recherche, et que leurs contenus ont besoin d’atteindre quotidiennement cette population. Les alternatives sont déjà là – les fermes de contenus comme Demand Media, Associated Content (Yahoo) et Seed (AOL) – et fournissent des contenus tellement peu chers que les utilisateurs pourraient bientôt oublier la valeur et l’importance des contenus qui nécessitent du temps, du sérieux et de l’argent.

Pour ce faire, Google et d’autres moteurs de recherche veulent que les articles d’actualité soient en haut de leurs résultats de recherche. C’est un petit pourcentage du contenu total, mais c’est une énorme source d’attraction. James Fallows de The Atlantic a récemment expliqué [en] l’idée d’“actualité premium” chez Google : “si les médias arrêtaient de produire du bon journalisme - a déclaré un cadre de Google - les moteurs de recherche n’auraient plus de contenu intéressant vers lesquels diriger”.

Les annonceurs profitent également d’un journalisme de qualité optimisé pour la recherche : le contenu de qualité attirent des clients de qualité. Une étude de mon entreprise, Perfect Market basée sur des données de Compete.com, suggère que les sites de médias “brandés” ont un avantage en termes de revenus sur les sites “non-brandés” (les fermes de contenus) : souvent 10 fois le revenu par page.

Ce que les éditeurs ont souvent fait – et ce que les fermes de contenus s’échinent à faire – c’est de passer du temps à promouvoir leur contenu en fonction de la demande des utilisateurs sur les moteurs de recherche.

Quand le bon contenu est proposé à la bonne personne au bon moment, les éditeurs, les annonceurs et les moteurs de recherche en profitent. Google a besoin de contenus de qualité pour survivre. C’est dommage que la domination de Google laisse à penser aux éditeurs qu’il en abuse. Mais leur meilleur réponse est de tirer avantage de Google – et amener leur contenu et leurs publicités là où vit l’audience la plus large.

__

Billet originellement publié sur EMediaVitals, sous le titre “Why Google is good for journalism” ; traduction Martin Untersinger

Crédits Photo CC Flickr : Ozaking, Kardon.

Traduction : Martin U.

]]>
http://owni.fr/2010/07/12/pourquoi-google-est-une-aubaine-pour-le-journalisme/feed/ 5
Le nettoyeur du net et le PageRank malin http://owni.fr/2010/06/25/le-nettoyeur-du-net-et-le-pagerank-malin/ http://owni.fr/2010/06/25/le-nettoyeur-du-net-et-le-pagerank-malin/#comments Fri, 25 Jun 2010 13:30:27 +0000 Erwan François http://owni.fr/?p=20216 Dans un article de Slate du 18 juin dernier, le journaliste Vincent Glad évoque le métier de « nettoyeur du net » en tant que service aux particuliers. L’entretien de l’un d’entre eux est l’occasion de découvrir sa technique favorite et de profiter un peu de son savoir sur le fonctionnement de Google.

Faire appel à un professionnel du nettoyage sur internet, c’est en quelque sorte tenter de faire appliquer avant la lettre un droit à l’oubli numérique, plébiscité dans le cadre de la récente consultation publique initiée le gouvernement sur ce sujet. Le journaliste nous révèle que la technique privilégiée par ces nettoyeurs consiste à créer des contenus récents et « propres », dont ils surveillent le bon référencement par Google, faute de pouvoir (faire) supprimer les contenus nuisibles à la réputation du client ; c’est le « noyage ».

Ainsi le cas de cette femme, dont les photos et vidéos SM ont été dérobées puis mises en ligne contre son gré, qui se voit dotée par l’entreprise à laquelle elle a fait appel de « deux blogs à son nom ainsi qu’un compte Linked In, Viadeo, Friendfeed, MySpace » [1]. Autre exemple, une ex call-girl : puisqu’il semble bien difficile d’obtenir son anonymisation sur tous les articles faisant allusion à ses précédentes activités professionnelles, « il faudra aussi sans doute passer par du “noyage” en créant une présence en ligne propre avec blogs, Flickr…etc. ». Dernier exemple cité dans l’article, ce monsieur dont la réputation a, à tort, été salie par la presse locale : le retrait d’internet de l’article a pu être obtenu, mais son contenu ayant été repris et dupliqué ailleurs, le « noyage » s’impose une fois encore, à savoir la création de « plusieurs blogs et même un Twitter ». Cette technique me donne à penser qu’avec mes deux blogs et mes divers comptes « web 2.0 », les pratiques de ces nettoyeurs du net vont finir par me faire passer pour un dictateur en retraite qui cherche à se fabriquer son petit maquis numérique…

En somme, pour espérer dissimiler un peu, il faudrait surtout donner beaucoup à voir. Et dans tous les cas de figure, c’est la corvée de blogsourcing assurée pour le particulier ou pour l’entreprise qu’il a sollicitée… En fin d’article, on peut lire que « Face à Google l’autiste, qui refuse de déréférencer un contenu ou de valoriser un droit de réponse, il faut se débrouiller à mains nues. [...] les entreprises d’e-réputation ont l’avantage de maîtriser les techniques de référencement qui font remonter artificiellement un contenu en se calquant sur les préférences de l’algorithme. ».

L’un des apports des nettoyeurs envers leur clientèle reposerait donc en partie sur leur connaissance du fonctionnement de l’algorithme de ce moteur de recherche, particulièrement utilisé en France. Quelle peut être, justement, la perception de l’expert interrogé des « préférences de l’algorithme » ? En début d’article, le nettoyeur indique qu’à force « de traiter des cas de diffamation, d’insultes et de divulgation de photos intimes, il a acquis une certitude : Google fait la part belle aux contenus négatifs sur la première page de réponse d’un individu. “On peut l’expliquer de deux manières: soit le moteur de recherche récompense dans son algorithme les contenus négatifs en les faisant remonter, soit il cherche à panacher la première page de requête, allant chercher des contenus au champ sémantique différents, ce qui est souvent le cas des contenus gênants” ».

Curieuse vision du fonctionnement de Google que voilà. J’aurais plutôt tendance à penser que ces contenus négatifs sont bien placés dans les résultats parce que des liens ont été faits vers eux plus que sur d’autres ; telle est la loi bien connue du Page Rank. Je tombe de ma chaise en lisant les propos de ce professionnel du positionnement, qui envisage sérieusement semble-t-il l’hypothèse que l’algorithme de Google « récompense » des contenus négatifs. Espère-t-il ainsi rendre sa profession un peu plus nécessaire ?

Une idée clé qui me semble manquer, si je m’appuie sur ce que je sais du fonctionnement de Google, est que les contenus produits devraient être de nature à susciter la création spontanée de nouveaux liens vers eux par des tiers. À défaut d’une telle idée, les nettoyeurs pourraient à peu près autant être considérés comme des pollueurs que comme des nettoyeurs ; tous ces contenus créés n’apportent rien de plus à la communauté que du bruit . Et s’ils rendent néanmoins service à leurs clients — ce qui est le but recherché — on peut imaginer que ce service est bien moins performant qu’il pourrait l’être.

Mais qui sait, peut-être ce billet un peu critique envers ce nettoyeur me permettra-il de doper significativement le positionnement de ce blog dans Google ?

__

[1] : On notera au passage que sur internet, les images peuvent avoir un rôle redoutable de confirmation de l’identité d’une personne : sur Google, « ça peut être une homonyme après tout » ; mais sur Google Images, certaines images compromettantes intégrant le nom de cette personne dans le nom du document, « là, plus de doute ».

Billet originellement publié sur Iconique, un blog de Culture Visuelle.

Crédits Photo CC Flickr : Infrogmation & Canonsnapper .

Culture visuelle est un site développé par 22mars, société éditrice d’OWNI.

]]>
http://owni.fr/2010/06/25/le-nettoyeur-du-net-et-le-pagerank-malin/feed/ 12
Déclaration 29 adoptée: vers des moteurs d’archives http://owni.fr/2010/06/19/la-declaration-29-adoptee-conservation-des-donnees-des-moteurs-de-recherche/ http://owni.fr/2010/06/19/la-declaration-29-adoptee-conservation-des-donnees-des-moteurs-de-recherche/#comments Sat, 19 Jun 2010 14:53:03 +0000 Astrid Girardeau http://owni.fr/?p=19401 La déclaration 29 a finalement été adoptée, au Parlement Européen, jeudi dernier. Pour rappel, ce texte, déposé en avril dernier par Tiziano Motti et Anna Zaborska, du PPE (Parti chrétien-démocrate), se dit pour la «création d’un système d’alerte rapide européen (SARE) contre les pédophiles et les auteurs de harcèlements sexuels ». Derrière, il vise aussi à étendre la directive sur la conservation des données aux moteurs de recherche.

Un texte en cache un autre

Ainsi, la la déclaration 29 (pdf) «invite le Conseil et la Commission à «mettre en œuvre la directive 2006/24/CE en l’étendant aux moteurs de recherche (…)”. On note que la référence, par son numéro, à la directive sur la conservation des données n’est pas explicite. Et le texte très imprécis : quelles données, quelle durée et pour quelle utilisation ?

Surtout, les supports (prospectus, affiches, site web”, etc.) utilisés pour inciter les euro-députés à signer la déclaration, ne mentionnent jamais ce point. Y figure seulement la création du système d’alerte rapide, ce que nombre d’euro-députés sont prêts à soutenir. Une méthode que Françoise Castex (S&D) qualifie de “malhonnête intellectuellement”.

Il y a deux semaines, le texte avait recueilli 324 signatures, soit près des 369 nécessaires à son adoption. Certains euro-députés ont découvert l’existence ont alors découvert l’existence de cette mesure. Estimant avoir été induits en erreur, ils ont retiré leur signature, et appelé leurs collègues à faire de même.

Et, il y a quelques jours, le nombre de signataires était inférieur à 300. En réaction mardi dernier, Tiziano Motti a envoyé un mail de “clarification” à l’ensemble des euro-députés. Il y explique avoir utilisé les termes “moteurs de recherche” par “souci d’éviter les aspects techniques”. Et que l’initiative concerne en fait «les contenus, images et vidéos figurant des abus d’enfants sur des plates-formes Internet”, tels que Facebook ou YouTube. Jeudi, le texte avait ses 369 signatures.

Quelle portée ?

Hier, dans une interview au au site suédois Europaportalen l’euro-député rappelle qu’une déclaration écrite n’est pas un texte législatif. En effet. Mais elle indique la position officielle du Parlement européen vis-à-vis de la Commission. Or, justement la directive sur la conservation des données doit être bientôt évaluée par la commissaire aux Affaires Intérieures, Cécilia Malmström. Et pourrait être révisée avant fin 2010.

Signalons que, par ailleurs, Cécilia Malmström est l’auteur de la proposition de directive “relative à l’exploitation et aux abus sexuels concernant des enfants et à la pédo-pornographie”, dont l’article 21 envisage de filtrer les contenus au niveau des FAI. Mesure sur laquelle le Contrôleur européen de la protection des données (CEPD) a émis un avis très critique quand à son impact “sur les droits fondamentaux à la vie privée et à la protection des données”.

]]>
http://owni.fr/2010/06/19/la-declaration-29-adoptee-conservation-des-donnees-des-moteurs-de-recherche/feed/ 1
Conservation des données par les moteurs de recherche: l’Europe s’agite http://owni.fr/2010/06/16/la-conservation-des-requetes-par-les-moteurs-de-recherche/ http://owni.fr/2010/06/16/la-conservation-des-requetes-par-les-moteurs-de-recherche/#comments Wed, 16 Jun 2010 11:06:21 +0000 Astrid Girardeau http://owni.fr/?p=18875 Le 19 avril dernier, les euro-députés Tiziano Motti et Anna Zaborska (Parti chrétien-démocrate) déposaient une déclaration écrite “sur la création d’un système d’alerte rapide européen (SARE) contre les pédophiles et les auteurs de harcèlements sexuels”. Comme nous le rapportions la semaine dernière, de nombreux euro-députés adhérant à ce projet l’ont donc facilement signé.

Problème : ce texte, dit déclaration 29 (PDF) , contient un deuxième point qui vise à étendre la directive sur la conservation des données aux moteurs de recherche. Soit obliger Google, Bing, etc. à conserver des données. Quelles données, comment, pour quelle durée, et quelle utilisation ? Le texte ne le dit pas. Deuxième problème : ce point est sciemment occulté dans les différents supports de présentation de la dite déclaration (prospectus, mail, site Internet, etc.). L’euro-députée Françoise Castex (S&D), qui depuis a retiré sa signature, parle de “malhonnêteté intellectuelle”.

Début juin, des euro-députés de tous partis confondus, réalisent la teneur réelle du texte et s’en inquiètent publiquement. Et Cecilia Wikstrom (ADLE), suivie par Alexandre Alvaro (FDP), appelle ses collègues à retirer leur le nom de la liste. La semaine dernière, la déclaration avait recueilli 324 signatures. Soit tout près des 369 qu’elle doit atteindre pour être adoptée. Aujourd’hui, le chiffre est de 300.

Face à ce mouvement de retrait, Tiziano Motti, co-auteur de la déclaration, a envoyé hier un mail de “clarification” à l’ensemble des euro-députés. Dans ce mail, que nous nous sommes procurés, il explique que “cette initiative invite le Conseil et la Commission à étendre la directive CE 2006/24, dite “directive sur la conservation des données”, pour les internautes qui téléchargent des contenus, images et vidéos figurant des abus d’enfants sur des plates-formes Internet (tels que les sites de contenus générés par les utilisateurs”.

La conservation des données ne concerne pas selon lui “les internautes qui chercheraient un autre type de sujet”. Il dit avoir utilisé les termes “moteurs de recherche” par “souci d’éviter les aspects techniques”, mais qu’il n’est pas question de viser “toute requête faite sur les moteurs de recherche”.

Sauf que ce que les euro-députés rejettent en bloc est l’idée même de conserver les requêtes des utilisateurs. Selon Lena Ek (ADLE):“L’UE n’a pas le droit de fouiner dans ce que les gens recherchent en ligne. Le droit à la vie privée est la pierre angulaire d’une société libre” D’autant que l’instrumentalisation de la pédo-pornographie, en matière de contrôle et surveillance d’Internet, notamment au cadre de la protection du droit d’auteur, est un fait décrié par beaucoup. “Le problème est que, depuis plusieurs années, on met toujours en avant la lutte contre la pédo-pornographie pour montrer que certaines pratiques sont possibles afin de chercher ensuite à les étendre tous azimuts” nous résume Cédric Manara, professeur de droit à l’EDHEC.

“Je serai plus qu’heureux d’être à votre entière disposition pour tout éclaircissement complémentaire”, conclut le mail de Tiziano Motti. La semaine dernière, nous avons contacté les deux auteurs de la déclaration afin de nous éclairer sur leur initiative.

Questions restées sans réponses.

]]>
http://owni.fr/2010/06/16/la-conservation-des-requetes-par-les-moteurs-de-recherche/feed/ 2
Embouteillages dans les nuages ? http://owni.fr/2010/01/26/embouteillages-dans-les-nuages/ http://owni.fr/2010/01/26/embouteillages-dans-les-nuages/#comments Tue, 26 Jan 2010 16:25:09 +0000 Olivier Ertzscheid http://owni.fr/?p=7259

Au mois de Janvier 2008, il y a donc déjà 2 ans de cela, la LoC (bibliothèque du Congrès), était la première institution à décider de “déporter” dans les nuages, une partie de ses collections iconographiques. (Pour rappel : mes commentaires de l’époque). Depuis cette date, ce qui était une initiative isolée est devenu une partie extrêmement importante du site FlickR, puisque pas moins de 31 institutions (bibliothèques, musées, archives, centres de recherche) ont rejoint le volet baptisé : FlickR : The Commons.

Or dans un très récent communiqué, on peut lire que le site FlickR n’accueillera pas de nouvelle institution durant l’année 2010. Dans l’un des groupes de discussion liés à ce sujet, un membre du staff de FlickR assure que le projet “Commons” n’est pas du tout remis en question et reste une priorité de FlickR (qui – rappelons-le est propriété de Yahoo!), et que la raison de cet arrêt momentanné est celle d’une trop grande file d’attente dans les demandes, demandes que FlickR dit ne plus être en mesure de traiter. Il arrête donc les nouvelles demandes d’inscription pour traiter celles qui sont déjà en cours.

Soit ce qui ressemble au premier embouteillage connu – ou en tout cas déclaré comme tel – de l’ère de l’informatique en nuages.

Que le projet FlickR Commons soit victime de son succès n’est guère étonnant. C’est l’archétype même du projet “gagnant-gagnant”. Gagnant pour les institutions qui viennent y glaner visibilité, ergonomie, nouveaux usages et donc nouveaux publics (le tout à coût zéro me semble-t-il), et gagnant pour FlickR qui trouve dans cette manne de quoi conforter sa position de “leader” des banques de photos numériques en ligne, et de quoi également conquérir une légitimité “académique” apte à faire oublier les quelques – rares – critiques sur le tout-venant des autres contenus du site.

Par ailleurs, ce projet est intéressant “sémantiquement” parce qu’il s’inscrit dans une problématique de plus en plus pregnante et médiatique (bien que finalement très ancienne), celle des “biens communs“. Il y aurait une bien belle thèse à rédiger sur l’essor parallèle et davantage complémentaire que contradictoire de ces logiques de réseau, d’éclatement d’une part, et, d’autre part, de ces logiques de l’agrégation, du rassemblement, de la dissémination librement consentie et le plus souvent altruiste ; en bref, de ces logiques du don, du partage et de la contribution, telles qu’elles se donnent à lire au travers de l’informatique “libre”, des licences “creative commons” et dernièrement donc, de ces biens communs patrimoniaux.

Denrier point à porter au crédit de l’initiative des Commons de FLickR, sa “clarté contractuelle”, autrement dit le fait que l’exposition des oeuvres ainsi numérisées se fait dans une “simple” perspective de service, de plus grande exposition, bref, de plus grande valeur ajoutée. L’ensemble des institutions partenaires ont numérisées elles-mêmes les collections qu’elles viennent exposer sur FlickR, et on est donc bien loin de tout l’embrouillaminis que suscite depuis déjà plus de 6 ans, un autre projet de numérisation et d’exposition d’oeuvres patrimoniales …

A terme, et quand FlickR réouvrira les vannes d’inscription après avoir intégré celles en attente, lorsque la masse critique des documents iconographiques ainsi déportés en fera, et de loin, le premier site iconographique du patrimoine mondial, lorsqu’il aura donc définitivement enterré l’ensemble des projets de portail européens de numérisation, du fait de la clarté conceptuelle précédemment évoquée, du fait que pour tout document ainsi déposé les métadonnées restent définies par les institutions déposantes et que les mêmes institutions soient à chaque consultation d’un document provenant de leur fonds, facilement et directement identifiables, cet ensemble de conditions fait que le seul risque, à terme, est celui de voir légèrement baisser la fréquentation des sites hôtes des différents partenaires. Encore que ce risque ne résiste pas longtemps à l’analyse puisque ce n’est pas la totalité d’une collection donnée qui est déportée sur FlickR, mais, dans la majorité des cas, une partie soigneusement sélectionnée d’un fonds particulier, invitant donc les curieux à consulter le site d’origine pour avoir accès au-dit fonds dans son intégralité.

Bref, plus je tourne et retourne cela dans tous les sens, et plus je me dis que l’on serait bien inspiré de trouver dans ce type de nuage là, la solution ayant valeur de paradigme pour tout un ensemble de problématiques de numérisations sur d’autres types de fonds qu’iconographiques. (sans pour autant affirmer que tout est rose au royaume de FlickR/Yahoo, lequel royaume n’est pas exempt de querelles et de sombres rivalités)

Petit scenario de prospective à deux sous : imaginons qu’une grosse société (par exemple un moteur de recherche) rachète un site parmi ceux souvent présentés comme les “YouTube du livre” (exemple : Calaméo, Scribd ou tant d’autres encore). Et qu’il ait ensuite l’intelligence de faire ce que Yahoo! fit avec FlickR, c’est à dire ne rien toucher à l’identité du site racheté, ne pas tenter à toute force d’y imposer sa “marque”. Gageons alors que nombre d’institutions pourraient ainsi déporter sur ces sites “de grands publics” tout ou partie de leurs numérisations, sans se poser d’insolubles cas de conscience. Il me semble alors que tout le monde y gagnerait en visibilité, en lisibilité, en ergonomie (l’interface de tourne-page et de visionnage étant la même pour tous les documents), en référencement. Bref, que l’on ne serait pas très loin du cahier des charges idéal autour duquel on tourne bien malhabilement depuis des lustres.

Inversons la vapeur. Nombre de projets de numérisation ont d’abord eu comme ambition (légitime) de travailler et de garder la maîtrise de leurs contenus. Ces “process” en sont malheureusement souvent venus à occuper tout le devant de la scène, au détriment d’autres logiques qui n’ont pourtant rien d’accessoires : non pas celles des usages stricto sensu (qui sont toujours plus ou moins vaguement pris en compte dans les différents dispositifs techniques de numérisation), mais celle plus essentielle de la médiation, c’est à dire de la manière d’aller à la rencontre des usagers en créant les conditions nécessaires à une envie de retour. Alors donc, essayons d’inverser la vapeur. Posons nous la question de la médiation comme un préalable nécessaire, mais nécessairement distinct de la numérisation elle-même. Maintenant que l’on sait à qui iront les financements dédiés du grand emprunt, numérisons, produisons et partageons les métadonnées associées, revendiquons nos identités et nos compétences “institutionnelles” grâce à un affichage choisi, et peut-être, peut-être qu’une fois que les usagers seront convaincus de “l’efficience” de nos institutions (mot très à la mode ces derniers temps dans différents cénacles ministériels) et ce que les sites mêmes qu’ils fréquentent tous les jours, peut-être alors aurons-nous réussi à leur faire comprendre tout l’intérêt que présentent des structures comme les bibliothèques. Sur ce dernier point – convaincre les usagers de l’efficience des structures publiques documentaires – il me semble que jusqu’à maintenant, ils n’ont eu le choix qu’entre un discours à l’élitisme surranné (l’ordre contre le chaos, le choix raisonné et éclairé de quelques-uns contre le fourre-tout anarchique de tous les autres) et un autre, dramatico-financier (on a pas le sous, on pourra pas rivaliser, donnez-nous 1000 colombes les moyens).

(Initialement via : Du bruit au signal)

» Article initialement publié sur Affordance

]]>
http://owni.fr/2010/01/26/embouteillages-dans-les-nuages/feed/ 1