OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Ministre de la recherche de profits http://owni.fr/2012/05/24/lautre-cv-de-genevieve-fioraso/ http://owni.fr/2012/05/24/lautre-cv-de-genevieve-fioraso/#comments Thu, 24 May 2012 14:00:35 +0000 Claire Berthelemy et Pierre Leibovici http://owni.fr/?p=111073

À un moment, ils m’appelaient Miss Dollar. C’est vrai. Ça ne sert à rien de chercher à faire le top du top si on ne le vend pas.

Geneviève Fioraso, la nouvelle ministre de l’Enseignement supérieur et de la Recherche, expliquait ainsi au Journal des entreprises, comment elle cherchait à financer la R&D (Recherche et développement) du temps où elle était cadre dans une start-up. Une approche de la recherche qui inquiète Laurence Comparat, membre de l’Ades, une association écologiste grenobloise :

Sa vision de la recherche est systématiquement industrielle, et donc économique. Si elle procède de la même manière à l’échelle nationale qu’à Grenoble, il y a des craintes à avoir.

Officiellement, Geneviève Fioraso n’a eu ces dernières années qu’un”engagement public local et national”. Sa biographie, sur le site du ministère de l’Enseignement supérieur et de la recherche, indique qu’elle n’a plus eu de rapport avec le secteur privé depuis 2004, dernière année où est mentionnée une “activité professionnelle”.

Geneviève Fioraso ne serait “que” députée, première vice-présidente de la communauté d’agglomération de Grenoble chargée du Développement économique, universitaire, scientifique et de l’innovation, adjointe au Maire de Grenoble à l’économie, l’emploi, l’université et la recherche et membre de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST).

La nouvelle locataire de la rue Descartes a cela dit oublié des lignes. Car elle administre également – voire dirige – six structures à mi-chemin entre public et privé : deux sociétés d’économie mixte, deux associations aux frontières du lobbying, une éco-cité et un établissement public d’enseignement supérieur. Reconstitution.

Championne du mixte

La spécialité de la nouvelle ministre ? Les sociétés d’économie mixte (SEM), ces entreprises à conseil d’administration dont le capital est réparti entre des personnes publiques (majoritaires) et au moins un actionnaire privé. Le nom de Geneviève Fioraso figure ainsi dans les renseignements juridiques de trois SEM, bien qu’elle n’ait jugé bon de le préciser dans sa biographie que pour une seule d’entre elles, Minatec Entreprises.

Depuis 2003, en effet, l’élue de Grenoble est aussi PDG de Minatec, un vaste “pôle d’innovation en micro-nanotechnologies”. “Entreprendre à l’infini”, telle est la devise de Minatec qui abrite plus de 11 000 mètres carrés de laboratoires de recherche, start-ups et géants de l’industrie.

Cet envie d’entreprendre, Geneviève Fioraso a tenté de l’assouvir en multipliant les casquettes autour de Minatec. C’est donc comme PDG de Minatec que l’élue préside le comité de pilotage du projet Presqu’île/GIANT, l’un des treize projets d’éco-cités du pays et, comme le précise son site, parmi “les plus importants investissements public-privé en France” (1,3 milliard d’euros sur 15 ans).

Par cohérence, sans doute, l’élue grenobloise est aussi administratrice d’une autre SEM, Innovia Grenoble Durablement, chargée de l’aménagement de Presqu’île/GIANT. Et, toujours pour son implication dans la “Presqu’île”, Geneviève Fioraso administre le regroupement d’écoles Grenoble Institut national polytechnique – membre fondateur de Minatec et de GIANT.

Dernière SEM oubliée par la ministre sur son C.V., Alpexpo, une entreprise qui gère le parc d’exposition éponyme à Grenoble. Si Geneviève Fioraso n’apparaît pas comme administratrice dans les renseignements juridiques d’Alpexpo, c’est qu’elle a préféré utiliser son nom de jeune fille, Lefevre. Cette décision est peut-être à mettre en rapport avec la santé financière d’Alpexpo : comme l’indique une analyse des comptes provisoires qu’Owni s’est procurée (voir ci-dessous), la société a présenté un résultat net en déficit de 1,968 million d’euros en 2011. Devant ce résultat, la mairie de Grenoble a d’ailleurs décidé, en mars dernier, la mise en place d’une mission d’information et d’évaluation sur les déboires financiers d’Alpexpo.

ALPEXPO Synthèse comptes provisoires 2011

Non-lucratif

Décidément rompue aux conseils d’administration, Geneviève Fioraso ne se prive pas – sans toujours l’indiquer sur “son CV” – de participer à plusieurs associations loi 1901. A but non lucratif, donc. Les missions affichées desdites associations ont pourtant tout à voir avec la recherche de profits.

L’Agence d’études et de promotion de l’Isère (AEPI), par exemple, dont Geneviève Fioraso est la Vice-présidente du Conseil d’administration, s’attache à “faciliter” et “coordonner” les rapports entre “acteurs publics et acteurs privés”. Dans son rapport d’activité 2011, l’AEPI présente ainsi l’aide qu’elle a apportée à différents “acteurs économiques”. Le premier d’entre eux n’est autre que “Minatec Entreprises”, la SEM justement présidée par Geneviève Fioraso.

Autre association pour autres intérêts, le pôle de compétitivité Tenerrdis. Aux côtés du CEA, de GDF-Suez, Alstom ou encore Schneider Electric, Geneviève Fioraso y est administratrice. Dans son portrait de l’élue grenobloise, l’équipe rédactionnelle de Tenerrdis a cette formule, qui résume plutôt bien la situation :

Geneviève Fioraso est une actrice incontournable des sphères économiques et politiques de Grenoble et plus largement du département.

Ce mélange des sphères, Geneviève Fioraso l’a par exemple formalisé dans les colonnes du Dauphiné libéré daté du 4 février 2011, en co-signant une tribune avec Jean-Marc Chardon, président de Tenerrdis et directeur des affaires institutionnelles du mastodonte Schneider Electric. Et de plaider de concert pour le renforcement des “investissements d’avenir du grand emprunt” lancés par la prédécesseure de la nouvelle ministre de l’Enseignement supérieur et de la Recherche, Valérie Pécresse.

Des amis dans l’industrie, Geneviève Fioraso en a d’ailleurs plus d’un. Il y a quelques mois, un article du journal Le Postillon – sorte de Canard enchaîné grenoblois -, repris par le site Article 11, recensait au moins cinq “patrons grenoblois” pour lesquels “on ne compte plus les photos côte à côte, les communiqués communs, les félicitations réciproques, les enthousiasmes partagés” avec l’élue locale. Bruno Cercley, par exemple, le PDG de Rossignol, dont elle a assisté à la cérémonie de remise de la légion d’honneur en avril 2011. Ou encore André-Jacques Auberton-Hervé, le PDG de SOITEC, mentionné sur le blog de campagne de la députée d’alors comme le chef d’orchestre “d’un bel exemple de partenariat fructueux entre laboratoire public et entreprises”.

Pour André-Jacques Auberton-Hervé, la nouvelle ministre a d’ailleurs su faire preuve d’une grande générosité. Financière, notamment. Car l’homme est également le vice-président de SEMI, une “association industrielle internationale sans but lucratif” qui, comme le mentionne un communiqué de presse, “soutient la croissance de l’industrie par le biais de normes internationales, de salons et du lobbying”. C’est ainsi sous l’impulsion de Geneviève Fioraso que la ville de Grenoble et la communauté d’agglomération Grenoble Alpes Métropole ont adhéré, pour la somme de 2 990 euros chacune, à SEMI. Et, toujours sur proposition de Geneviève Fioraso, la mairie a versé 35 000 euros à SEMI en 2010 et 2011, à peine moins que la communauté d’agglomération pour ces deux années (37 990 euros), comme le confirment les délibérations du conseil municipal ci-dessous :

Délibérations du conseil municipal sur SEMI

Chaque année, le lobby SEMI organise un forum à Bruxelles. Il y a un an jour pour jour, le 24 mai 2011, Geneviève Fioraso y donnait une conférence. Comme un écho aux propos qu’elle tenait, fin 2008, à l’occasion d’une audition publique sur la “valorisation de la recherche” :

Les règles de la concurrence imposées par l’Europe sont souvent contre-productives pour la mise en route de grands projets de recherche rassemblant les acteurs publics et les entreprises.

Comme tous les ministres du gouvernement Ayrault, Geneviève Fioraso a apposé sa signature au bas d’une charte de déontologie. A la rubrique “Impartialité”, on trouve ces mots :

Les membres du gouvernement sont au service de l’intérêt général. Ils doivent, non seulement faire preuve d’une parfaite impartialité, mais encore prévenir tout soupçon d’intérêt privé. (…) Ils renoncent à toute participation à un organisme, même à but non lucratif, dont l’activité intéresse leur ministère.

Sollicitée par Owni, Geneviève Fioraso n’a pas donné suite à nos demandes.


Illustrations CC Matthieu Riegler remixed by pierreleibo et Pact like

]]>
http://owni.fr/2012/05/24/lautre-cv-de-genevieve-fioraso/feed/ 29
VENDREDI C’EST GRAPHISM S02E26! http://owni.fr/2011/07/15/vendredi-c%e2%80%99est-graphism-s02e26/ http://owni.fr/2011/07/15/vendredi-c%e2%80%99est-graphism-s02e26/#comments Fri, 15 Jul 2011 06:35:33 +0000 Geoffrey Dorne http://owni.fr/?p=73811

Hello à toutes et tous, vous allez bien ? ;-)

Ici Geoffrey en “direct-live” du Nord de la France où j’ai trouvé un coin de connexion (de l’ADSL en 56k) pour vous préparer votre petit vingt-sixième numéro de Vendredi c’est Graphism ! Cette semaine, j’ai choisi de vous présenter le dernier travail du F.A.T. qui perce nos disques durs, on fera également un petit tour du côté du talentueux dessinateur Lars Martinson mais également par mon projet de recherche en design Neen. On enchaînera avec un projet qui peut vous donner la couleur de tout et de n’importe quoi ou encore cette veste réalisée avec des diodes et qui vous permettra de diffuser des vidéos tout en vous balladant dans la rue. On terminera sur un bon petit WTF qui va vous générer du discours artistique sur commande… ;-)

Bon vendredi et… bon Graphism !

Geoffrey

Allez on commence la semaine avec le tout dernier projet du F.A.T. (Free Art & Technology) par Randy Sarafan. Intitulé “Media Artist Contingency Plan”, ce projet est là pour protéger vos données au cas où le gouvernement n’approuve pas votre travail open source ou les données que vous hébergez. Ou peut-être, êtes-vous tout simplement un fauteur de troubles? Toute manière, quand Big Brother vient frapper à votre porte pour récupérer votre ordinateur, vous avez besoin d’un plan de secours.

Heureusement, cet “autocollant informatif” vous guidera vers la plus rapide méthode pour causer de sérieux dommages sur votre disque dur portable à ce moment. L’idée est donc de localiser la position de votre disque dur (en général en bas à gauche) et d’indiquer… où mettre le coup de perceuse au bon moment !

source

On continue avec cette introduction au dernier tome de la série graphique de Lars Martinson intitulée “Tonoharu”. Ce roman graphique raconte l’histoire d’un professeur d’anglais américain, qui vit dans la campagne japonaise : c’est drôle, décalé et surtout semi-autobiographique. Lars Martinson nous raconte l’expérience de Daniel Wells, expatrié au Japon comme assistant scolaire linguistique, dans une petite ville de province. Voici donc deux petites vidéos qui présentent son travail :-)

Cliquer ici pour voir la vidéo.

Cliquer ici pour voir la vidéo.

source

Le site incontournable de la semaine est un système créé pour trouver la couleur de quelque chose. Peut importe ce que vous cherchez, vous en trouverez la couleur, son ambiance colorée, son imaginaire visuel en quelque sorte. Le site s’appelle “The Color Of” et fonctionne en interrogeant et agrégeant des données d’images provenant de Flickr. Il s’agit donc d’un projet plutôt subtil qui tente de répondre à une question potentiellement complexe et abstraite de façon objective… tout en utilisant des algorithmes simples sur des données provenant de la perception humaine et du référencement des photos.

Cliquer ici pour voir la vidéo.

Le sitesource

Je profite également de ce “Vendredi c’est Graphism” pour vous présenter le site de mon projet de recherche à l’EnsadLab, un projet intitulé Neen pour Non-verbal Emotional Experience of Notification. En effet – je ne vous refais pas toute l’histoire après mon article, après les workshops, après les prototypes, après les études et les synthèses ainsi que le récent colloque donné  à l’EnsadLab à Paris – j’ai eu la chance de présenter Neen pendant le Lift à Marseille ainsi que sur l’émission Place de la Toile sur France Culture icon wink Neen   avancement de mon projet de recherche à lEnsadLab

Petit rappel de Neen en deux mots :

« Neen pour “non-verbal emotional experience of notification” est développé par Geoffrey Dorne au sein du laboratoire de recherche IDN (Identité Numérique Mobile) sous la tutelle de Rémy Bourganel & Étienne Mineur à l’EnsadLab de Paris. Neen est un projet qui étudie la notification au travers de la communication phatique, émotionnelle et non-verbale. Visant à introduire la fluidité, l’humeur et la politesse, il revisite la présence numérique, la communication non verbale, ainsi que les messages ou les notifications d’appels grâce à des design probes. »

Je suis donc en train de travailler rapidement sur un site léger et très simple pour regrouper les études et les synthèses de mon projet. Le site est sur http://neen.fr

neen Neen   avancement de mon projet de recherche à lEnsadLab

source

Toujours cette semaine, j’ai été ravi de découvrir cette veste-écran assez incroyable et très graphique ! Créé par Dave Forbes, ce manteau est pour l’instant une blouse de laboratoire équipée de panneaux LED, capables de lire de la vidéo et des images à partir d’un iPod ou un lecteur DVD portable. Construit pour être portée au festival « Burning Man » (si vous ne savez pas ce qu’est ce festival, allez jeter un oeil sur Wikipedia), l’appareil est alimenté par une batterie 12V qui offre une autonomie d’environ une heure. Un projet complètement dingue mais… il faut en général commencer par là pour faire progresser certaines technologies, non ?

Cliquer ici pour voir la vidéo.

source

Pour finir sur une note d’humour et de WTF, je vous propose de découvrir le site « Arty Bollocks Generator », (je vous épargne la traduction) un site qui vous sera extrêmement utile  si vous avez à rédiger votre « démarche artistique ». Oui, pour James Ross, l’auteur de ce générateur en ligne, la démarche artiste est souvent un peu de « blabla » pour faire bonne figure. Alors, pour vous éviter cette tâche, James a créé de quoi générer votre propre « bla bla » gratuitement. D’ailleurs, vous pouvez même générer celui d’autres artistes. Pratique donc pour des demandes de financement, des expositions, des curriculum vitae, des sites web, etc.

Quelques extraits traduits :

  • « Mon travail explore la relation entre les sexualités émergentes et l’éthique du skateboard. »
  • « Avec des influences aussi diverses que Kierkegaard et Frida Kahlo, de nouvelles synergies sont fabriquées à partir de la relation entre tradition et modernité. »
  • « Mon travail explore la relation entre le discours postmoderne et des expériences multimédia. »
  • « Depuis que je suis un enfant, j’ai été fasciné par la nature éphémère de l’esprit. »
  • « Ce qui commence comme le triomphe devient vite corrompu dans une tragédie de la luxure, laissant seulement un sentiment de nihilisme et de l’inévitabilité d’une nouvelle synthèse. »

artybollokcs Générez votre blabla artistique grâce à Arty Bollocks Generator !

le générateur | source

Alors pour notre petit mot de la fin, je reçois de plus en plus d’e-mails et de tweets pour m’envoyer vos actus, vos news ou parfois même vos projets et ainsi, je tenais à vous remercier !  Si vous voulez encore un peu de lecture, je vous invite à  lire mon petit résumé du LIFT 2011 à Marseille, à découvrir ce nouveau magazine intitulé KMagazine, et vous faire un petit topo sur comment choisir une typo :)

À la semaine prochaine pour de nouvelles aventures !

Geoffrey

]]>
http://owni.fr/2011/07/15/vendredi-c%e2%80%99est-graphism-s02e26/feed/ 0
Cellules souches: idéologie et science parlementaires http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/ http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/#comments Thu, 30 Jun 2011 14:29:10 +0000 Roud http://owni.fr/?p=72311

Dans un discours devant les militants, samedi 25 juin, François Fillon a fustigé le décalage entre les défis que le monde nous lance, et les réponses si légères et si décalées qui sont avancées (source Le Monde).

Il parlait bien sûr du Parti Socialiste. Peut-être aurait-il dû plutôt parler de ce que vient de voter le Parlement en matière de cellules souches.

Car s’il y a bien un exemple patent où l’idéologie modèle les décisions politiques, c’est dans le domaine de la recherche, et en particulier la recherche biomédicale.

En France, les nouvelles lois sur la bioéthique, bien loin de simplifier la donne, vont en effet mettre de nouveaux bâtons dans les roues du secteur. Il n’est pas impossible que le domaine des cellules souches embryonnaires, déjà bien peu vaillant car simplement toléré par dérogation, finisse par mourir en France. La raison est donnée par Marc Peschanski dans Nature News :

Désormais, il nous appartient à nous, chercheurs, de démontrer qu’il n’existe pas d’alternative à nos propres recherches sur les cellules souches [embryonnaires], alors que la charge de la preuve reposait auparavant sur l’Agence de la bio-médecine.

Bref, non seulement le chercheur doit penser, chercher, rédiger des demandes de financement (non garanties), mais en plus, il doit maintenant démontrer qu’il ne peut pas faire autrement dans ses recherches !

L’inattendu au cœur de la recherche

On est bien loin de l’idéal de liberté académique ou encore du programme Vannevar Bush et de la “République des Sciences” après guerre :

Les découvertes entrainant les progrès médicaux ont souvent pour origine des domaines obscurs ou inattendus, et il est certain qu’il en sera de même à l’avenir. Il est très probable que les progrès dans le traitement des maladies cardio-vasculaires, rénales, du cancer et d’autres maladies similaires seront le résultat d’avancées fondamentales dans des sujets sans rapport avec ces maladies, et peut-être même d’une façon totalement inattendue pour le chercheur spécialiste. Les progrès futurs nécessitent que la médecine toute entière, et les sciences fondamentales telles que la chimie, la physique, l’anatomie, la biochimie, la physiologie, la pharmacologie, la bactériologie, la pathologie, la parasitologie. etc… soient largement développées.

Oui, l’inattendu est au cœur de la recherche scientifique, il est donc absurde voire contre-productif pour le chercheur lui-même d’essayer de montrer que d’autres systèmes qu’il ne connaît pas pourraient (ou pas) potentiellement répondre aux questions posées ! Sans compter que si d’autres pistes alternatives existent pour résoudre un problème, seront-elles pour autant financées si elles sont beaucoup plus chères ?

Une volonté de tuer la recherche sur les cellules souches ?

En réalité, on peut même se demander si le but de la loi n’est pas fondamentalement de tuer le domaine tout en faisant bonne figure, lorsque la loi de bioéthique précise que :

Les recherches alternatives à celles sur l’embryon humain et conformes à l’éthique doivent être favorisées.

Le sous-entendu est clair : les recherches sur les cellules souches embryonnaires ne seraient donc pas éthiques. Peu importe l’enjeu scientifique, peu importe même le débat éthique, les sous-entendus religieux (la fameuse équation embryon=être humain) l’ont emporté. Au Sénat, l’argument classique a été énoncé par M. Bruno Retailleau, sénateur MPF de Vendée :

Ce changement de régime juridique représente également une régression anthropologique. Je sais qu’il n’y a pas d’accord entre nous sur le moment où l’on franchit le seuil de la vie. Qui peut dire quand commence la vie ? Pourtant, nous voyons bien qu’il existe un continuum entre ces cellules qui se multiplient dans les premiers jours et ce qui deviendra vraiment une personne humaine, un sujet de droit. Or ce continuum, qui résulte du fait que chaque étape du développement de l’embryon contient la précédente, rend impossible la détermination précise du seuil d’entrée des cellules dans le champ de la vie humaine.

C’est vrai, je ne suis pas capable de dire quand un embryon devient un être humain, je ne suis pas capable de définir ce qu’est exactement un être humain. En revanche, je suis capable de donner une condition partagée par tous les être humains : par exemple, tous les être humains que je connais ont un cœur, des muscles, des neurones. Choses que n’ont pas des embryons au premier stade de développement. L’argument du continuum m’a toujours semblé fallacieux dans la mesure où les transformations successives de l’embryon (gastrulation, neurulation, etc…) changent évidemment sa nature, tout comme la fécondation elle-même.

Que penser aussi de ce genre d’arguments mystico-religieux sur la “toute-puissance” que les chercheurs transgresseraient (Marie-Thérèse Hermange, sénatrice UMP de Paris) :

Il ne s’agit pas de s’opposer à la recherche en tant que telle, mais il convient de ne pas oublier non plus que le coût de cette politique est la destruction d’un début de vie humaine. J’observe d’ailleurs que le début de la vie humaine intéresse les chercheurs dans les cinq premiers jours, c’est-à-dire au moment où les cellules sont « totipotentes », selon le terme technique employé, ce qui illustre bien le fait que cette « toute-puissance » initiale joue un rôle majeur dans le développement futur de l’être humain. Il me semble donc important d’utiliser au maximum les solutions de rechange existantes qui sont bien plus efficaces.

Pour répondre sur le même mode, la toute-puissance, c’est aussi le Chaos fondateur des mythes grecs, celui qui recèle tout le potentiel mais qui doit s’auto-organiser pour l’exprimer et engendrer les Dieux. Sans cette auto-organisation, il n’ est rien d’autre qu’un potentiel inutile, un chaos au sens commun du terme. Les Anciens avaient peut-être un sens plus développé du sacré que la civilisation judéo-chrétienne.

Le Parlement français est en réalité sur la même ligne que les mouvements chrétiens conservateurs américains, qui, suite à la levée des obstacles juridiques bushiens par Obama, se sont lancés il y a quelques mois dans une grande bataille judiciaire visant à interdire la recherche sur les cellules souches pour les mêmes raisons et avec les mêmes arguments “alternatifs” (cellules souches adultes, cellules iPS) utilisés par les Parlementaires français. J’en avais parlé ici; le dernier épisode en date étant que les choses ont l’air de s’arranger pour les chercheurs sur les cellules souches embryonnaires.

Alors que la campagne de 2012 se lance, et qu’à n’en pas douter on parlera d’avenir et de compétitivité future pour la France, le Parlement Français a pris une décision lourde de conséquence pour la recherche et la future industrie biomédicale française. Au nom de principes moraux pour le moins discutable, et sans réel débat éthique et scientifique fondé, le Parlement vient peut-être de porter le dernier coup fatal à ce domaine de recherche en France.

En 2012, votons pour la Science.


Photos Wikimedia Commons : Domaine public et CC-by Nissim Benvenisty

Article publié initialement sur Matières vivantes

]]>
http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/feed/ 7
L’Allemagne, un exemple pour la réforme de l’enseignement supérieur? http://owni.fr/2011/01/12/lallemagne-un-exemple-pour-la-reforme-de-lenseignement-superieur/ http://owni.fr/2011/01/12/lallemagne-un-exemple-pour-la-reforme-de-lenseignement-superieur/#comments Wed, 12 Jan 2011 11:37:23 +0000 Laurence Estival http://owni.fr/?p=37605 « Nous voulons les meilleures universités du monde. L’autonomie sans argent ça ne suffit pas », avait expliqué Nicolas Sarkozy lors du lancement du « grand emprunt » national. « Sur les 25 milliards d’euros d’investissements venant du privé de l’Europe, des collectivités territoriales », avait-il précisé, une grande part du gâteau devait aller à l’enseignement supérieur et à la recherche, « clé de notre compétitivité future ». Une dizaine de « campus d’excellence » devaient, notamment, bénéficier d’un financement exceptionnel de 8 milliards.

Un an plus tard, où en est-on? Pas bien loin. La recherche « des cibles prioritaires » a « pris du retard » reconnait-on officieusement. Quels sont les critères de sélection? Trois leviers principaux sont, selon le ministère de l’enseignement supérieur, susceptibles d’assurer cette « excellence » : « des moyens financiers élevés, l’autonomie des établissements et l’attribution de fonds de recherche en partenariat avec des entreprises privées ». Syndicats d’enseignants et d’étudiants trainent, les pieds et dénoncent les risques, bien réels mais pas inexorables, d’une « université à deux vitesses ».

Travaux à l'université de Fribourg, une des 9 universités d'élite du programme initiative d'excellence.

Ainsi, en Allemagne, « l’initiative d’excellence », ambitieux programme lancé il y a deux ans démontre que les retombées sont importantes, non seulement pour les heureux lauréats, mais aussi, dans une certaine mesure, pour l’ensemble du système universitaire.

28 « supers facs » et 9 « universités d’élite » aux ambitions mondiales

Dans un pays où l’égalitarisme entre les universités était la règle, 28 universités reçoivent ainsi plus de moyens que les autres pour affronter la concurrence internationale. Une révolution qui a pourtant été acceptée sans trop de mal. Ses objectifs? Développer des centres de recherche de pointe et attirer, avec les financements supplémentaires, des chercheurs, des enseignants et des doctorants. Montant global de l’aide exceptionnelle à ces super-facs? 1,9 milliard d’euros jusqu’en 2012.

Par ailleurs, neuf « universités d’élite », label peu égalitaire mais le plus prestigieux, ont été retenues au terme d’un concours organisé par l’État et les Länder et sont plus particulièrement aidées. Certaines d’entre elles sont généralistes, comme l’université Ludwig-Maximilian de Munich, celles de Constance, de Fribourg, de Heidelberg et de Göttingen ou, encore, l’Université libre de Berlin.

D’autres sont spécialisées dans les sciences de la nature, de l’ingénieur, en médecine et en économie, comme celles de Karlsruhe, d’Aix-la-Chapelle ou l’Université technologique de Munich.

Les sciences sociales et humaines ne sont pas oubliées. A Heidelberg, le centre de recherche et d’enseignement, centré sur les relations entre l’Europe et l’Asie bénéficie d’aides spécifiques, ainsi que le département « Civilisations anciennes » de l’Université libre de Berlin.

« Cette initiative crée une nouvelle dynamique », se félicite Thomas Pfeiffer, vice-doyen de l’université de Heidelberg. Même constatation à l’Université libre de Berlin.

Globalement, 4 200 scientifiques ont rejoint les établissements bénéficiaires de l’Initiative d’excellence.

Pour les étudiants qui envisagent de faire une thèse, les conditions sont optimales : la plupart de ces super-facs ont mis en place leur propre programme de bourses, qui s’ajoutent à celles déjà accordées par les organismes traditionnels (ministère de la Recherche, organisme de promotion de l’enseignement supérieur allemand…).

Ces subsides publics sont, en outre, abondés par des fonds débloqués par les entreprises intéressées par les retombées de ces recherches.

L’Université technologique de Munich a ainsi reçu une dotation de 10 millions d’euros de BMW. Le fondateur de SAP a fait, pour sa part, un don de 200 millions d’euros à l’université de Karlsruhe. La fondation, créée à cette occasion, dépense 5 millions d’euros par an pour aider des boursiers…

Des super facs super élitistes ?

« Les étudiants inscrits en doctorat vont, en outre, bénéficier d’un accompagnement particulier », précise Goran Krstin, porte-parole du président de l’Université libre de Berlin. Toutes les « universités d’élite » ont initié des programmes de tutorat et encouragent les séjours à l’étranger des étudiants, ainsi que leur participation à des séminaires et colloques internationaux.

Revers de la médaille : ces universités financièrement privilégiées risquent de devenir de plus en plus sélectives… Pour les doctorants, mais aussi pour les autres candidats, compte tenu de leur notoriété croissante. Une notoriété entretenue par des campagnes mondiales de promotion pour attirer les cerveaux étrangers dont l’industrie allemande en forte croissance a tant besoin. Berlin envisage déjà de poursuivre ce programme après 2012, avec un accroissement des moyens à la clé.

Les autres universités qui ne profitent pas de ces aides, sont- elles vouées au déclassement? Pascal Level, représentant à Bruxelles de la Conférence française des présidents d’université au comité de liaison des organismes de recherche européens, se veut rassurant: « dans le cadre de cette initiative, les établissements sélectionnés se sont engagés à développer des coopérations avec les autres universités allemandes. Du coup, la dynamique enclenchée devrait rejaillir sur l’ensemble de l’enseignement supérieur d’outre-Rhin et le rendre encore plus compétitif ». A vérifier dans quelques années.

Billet publié initialement sur le site MyEurop.info sous le titre Facs « d’excellence » : la France en parle, l’Allemagne l’a fait.

A lire également sur MyEurop
Les universités européennes au régime sec
Niveau scolaire: le Danemark, miroir de la France
Budget des universités: l’Europe tourne le dos au futur !

Photos FlickR CC Digital Cat ; le tam tam ; Lucas Cepeda ; Werner Kunz.

]]>
http://owni.fr/2011/01/12/lallemagne-un-exemple-pour-la-reforme-de-lenseignement-superieur/feed/ 0
Vers le Libre Accès au Savoir à l’Université http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/#comments Thu, 30 Dec 2010 14:42:47 +0000 aKa (Framasoft) http://owni.fr/?p=39758 Titre original : Le long chemin du Libre Accès au Savoir à l’Université

La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

Retrouvez tous les articles d’OWNIsciences.

]]>
http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/feed/ 2
Le long chemin du Libre Accès au Savoir à l’Université http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/#comments Wed, 29 Dec 2010 14:10:13 +0000 aKa (Framasoft) http://owni.fr/?p=33733 La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

]]>
http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/feed/ 6
la course pour quelle excellence? http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/ http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/#comments Fri, 17 Dec 2010 08:47:57 +0000 Jean-François Méla http://owni.fr/?p=33672 Titre original : Débats autour du concept d’excellence

Ce texte est le support d’un exposé que j’ai fait au séminaire de Jean-Richard Cytermann à l’EHESS, le 18.11.2010. Il synthétise et complète sur certains points plusieurs articles antérieurs.

Aujourd’hui en France, lorsqu’il est question de politique en matière d’enseignement supérieur et de recherche, on n’échappe pas à « l’excellence » : campus d’excellence, pôles d’excellence, initiatives d’excellence, laboratoires d’excellence, équipements d’excellence, chaires d’excellence, prime d’excellence scientifique… Cette épidémie frappe plus largement l’Europe. Ainsi l’Allemagne a lancé une « initiative d’excellence ». La citation suivante extraite du récent document de l’Union européenne intitulé « Europe 2020 Flagship Inititaive – Innovation Union » résume assez bien l’idéologie sous-jacente :

Our education systems at all levels need to be modernized. Excellence must even more become the guiding principle. We need more world-class universities, raise skill levels and attract top talent from abroad.

We need to get more innovation out of our research. Cooperation between the worlds of science and the world of business must be enhanced, obstacles removed and incentives put in place.

On y trouve une double référence : aux classements internationaux d’universités, et à la « stratégie de Lisbonne ». On peut dire que cette politique de l’excellence a véritablement démarré dans les années 2000 avec l’explosion de la mondialisation. Initialement, la stratégie de Lisbonne lancée en 2000 visait à faire de l’Union Européenne « l’économie de la connaissance la plus compétitive et la plus dynamique du monde d’ici 2010, capable d’une croissance économique durable, accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale ». Cette stratégie volontariste apparaît en échec, à strictement parler, mais elle a été réactualisée, et la politique de recherche et développement reste au centre du dispositif.

Qu’il s’agisse des palmarès internationaux ou de la stratégie de Lisbonne, on voit immédiatement l’ambigüité du concept d’excellence : s’agit-il de formation, de recherche, ou d’innovation ? Se place-t-on dans une perspective scientifique, économique, ou démocratique ? L’abus du mot excellence ne vient-il pas conjurer le sentiment de déclin de l’Europe et, pour ce qui nous concerne ici, ne vient-il pas masquer notre incapacité à avoir de « véritables universités » en France ?

Les palmarès internationaux d’universités

L’histoire commence en 2003 lorsqu’un petit groupe de chercheurs de l’université Jiao Tong de Shanghai publie le premier classement mondial des universités. Il existait des palmarès nationaux comme celui de US News and World Report, depuis 25 ans, dont les critères sont beaucoup plus la qualité de l’enseignement et le sort des étudiants que la recherche. Le classement de Shanghai coïncide avec l’irruption de la Chine dans la compétition économique mondiale à un niveau qui menace directement les économies occidentales.

Le fait que ce jugement vient de Chine, futur « maître du monde » dont le développement fascine et effraye quelque peu, a beaucoup contribué au retentissement du classement de Shanghai, tout particulièrement dans notre pays, compte tenu de la place modeste qu’y occupe la France. Ce classement dont les critères et les modalités ont un peu évolué depuis ses débuts, se base cependant avant tout sur la recherche en science et sur des indicateurs quantitatifs comme le nombre de prix Nobel et de médailles Fields, le nombre de professeurs figurant dans la liste des chercheurs les plus cités… C’est un choix délibéré car, pour les auteurs du classement, seules les données de recherche sont suffisamment fiables et internationalement comparables pour pouvoir faire un classement universel.

On pourrait remarquer qu’avec le faible nombre de prix Nobel français, il était de toute façon difficile de figurer en haut du classement. Rappelons que sur les 50 dernières années, sur quelques 350 prix Nobel attribués en sciences, la France en a reçu 15 tandis que les USA en avaient 195 et le Royaume Uni 47. Par ailleurs les universités de langue anglaise sont sur-représentées dans l’index HiCi de Thomson ISI. Ainsi, il y a autant de highly cited researchers dans l’université de Harvard ou celle de Stanford que dans la France entière…  Si ce classement a été ressenti de façon aussi cuisante en France, c’est qu’il mettait en évidence le manque de visibilité internationale des universités françaises et aussi de nos gloires nationales, les grandes écoles, qui apparaissent comme des « têtes d’épingle » à l’international.

Les réactions officielles ont été assez éloignées du concept d’excellence. La ministre et les haut-fonctionnaires ont surtout mis en avant la question de la taille des établissements. Ils ont insisté sur la nécessité de fédérer universités et grandes écoles en de grands ensembles qui seraient visibles de Shanghai. Sans craindre le ridicule de vouloir constituer des ensembles approchant ou dépassant 100.000 étudiants pour espérer égaler des universités américaines comme Harvard (20.000 étudiants), Stanford (15.000) ou le MIT (10.000).

Dans un entretien publié par Le Mensuel de l’Université en 2007, le directeur général des enseignements supérieurs de l’époque déclare : «  l’université de Toulouse III, université scientifique et de santé de haut niveau, est actuellement au fond des classements internationaux ; or si l’on prend en compte l’ensemble de la production des universités toulousaines, ce pôle ainsi constitué se retrouverait certainement dans les 60 premières universités mondiales ». Rien n’est moins sûr. Mais, surtout, il faut s’étonner qu’une université scientifique de 30.000 étudiants, 1500 enseignants chercheurs et 750 chercheurs, ait besoin de se fondre dans un ensemble hétéroclite de 80.000 étudiants pour devenir visible dans un classement international qui privilégie pourtant les sciences et la recherche.

Il eut été préférable de s’interroger sur l’état de notre système d’enseignement supérieur et de recherche, écartelé entre universités, grandes écoles et organismes. La France n’a pas de véritables universités ; celles-ci sont mal positionnées, mal gouvernées, ce n’est pas une question de taille. Et si les universités américaines sont si bien classées, c’est que, favorisées par la langue, elles savent attirer les « vedettes » par les salaires et les conditions de travail.

Après le classement de Shanghai, est apparu en 2004 un autre classement à vocation mondiale publié par le Times Higher Education Supplement (THE). Il s’agissait d’un classement plus « subjectif » principalement fondé sur la réputation (auprès des universitaires, des employeurs) mais aussi sur des indicateurs de qualité de l’enseignement (nombre d’étudiants par professeur) ou de la recherche (nombre de citations par professeur).

Le classement THE fait la part belle à la Grande-Bretagne qui a 29 universités classées dans le top-200, contre 58 pour les USA et 4 établissements français (3 écoles et une seule université !). On voit apparaître ici une loi des palmarès : « on n’est jamais si bien classé que par soi-même ». C’est ainsi que l’Ecole des Mines de Paris n’a pas craint le ridicule de fabriquer, en 2007, un classement qui faisait apparaître 5 grandes écoles françaises (dont l’Ecole des Mines) dans les 10 premiers du classement, à côté de Harvard, de Stanford et du MIT. Le critère adopté était le nombre d’anciens élèves occupant un poste de dirigeant de l’une des 500 premières entreprises mondiales. Mais voilà, après tout, une autre conception de l’excellence ! Sur un registre voisin, on peut lire dans le supplément Education du Monde, daté du 10 novembre 2010, un palmarès établi après enquête auprès de DRH d’entreprises : sur les 10 meilleures universités selon les recruteurs, 8 sont des écoles de commerce ; les deux autres sont Dauphine et Sciences Po !

L’idée est née d’un classement européen qui serait moins défavorable aux universités de l’Union européenne. Une institution allemande, le Center for Higher Education Development (CHE) a proposé une méthode de classement qui se démarquerait des palmarès classiques, où l’on utiliserait différents indicateurs que l’on n’intègrerait pas dans un seul indicateur de rang pour chaque université. Le CHE copilote avec le Center for Higher Education Policy Studies (CHEPS) de Twente (Pays-Bas), un consortium d’institutions européennes (dont, en France, l’OST) qui travaille à produire un tel classement multidimensionnel « U-multirank » dont on a eu récemment le dernier rapport d’avancement .

On pourrait parler aujourd’hui d’une « saison des palmarès » car, à la rentrée, outre la mise en ligne du classement de Shanghai 2010, on a eu publication du classement QS (Quacquarelli Symons) puis du classement THE (Times Higher Education) dont les journaux se sont disputés la primeur, avant d’avoir connaissance du classement du CHE pour les sciences qui est une contribution au projet « U-multirank »(( Voir “De l’excellence en milieu universitaire » in JFM’s Blog. )) .

Les classements déterminent de façon brutale des gagnants et des perdants. C’est un jeu à somme nulle. On stigmatise ceux qui ne sont pas bien classés. On a un cercle vicieux qui tend à renforcer la réputation des institutions déjà réputées et à bloquer les jeunes institutions.

Dans l’ouvrage de Franck et Cook, The winner-take-all society (( Franck R. & Cook P. The winner-take-all-society. The Free Press, New-York (1995). )) , on trouve l’anecdote suivante : une enquête américaine auprès des étudiants plaçait la faculté de Droit de Princeton dans les dix premières facultés de Droit ; le seul problème c’est que Princeton n’a pas de faculté de Droit…

Les classements peuvent être aberrants et destructeurs dans des systèmes universitaires nationaux initialement unifiés. La diversité des institutions est très liée aux sociétés et aux cultures nationales, à leur histoire, aux ressources nationales… Si l’on prend trop exclusivement en considération la recherche, les universités techniques, les écoles d’ingénieurs ou les formations professionnelles (vocational institutions) sont dévalorisées alors qu’elles sont très importantes. Et puis, comment un classement complètement dominé par les pays riches peut-il contribuer à construire des systèmes universitaires de qualité dans les pays émergents ?

On pourrait débattre longtemps de la valeur des différents classements, discuter leurs critères et leurs méthodes . Il existe des observatoires qui suivent de près les classements internationaux, comme l’IREG (International Observatory on Academic Ranking and Excellence) ou le Ranking Forum of Swiss universities. Mais la question est plutôt de savoir quelles conclusions on tire des classements et quelles politiques s’appuient sur eux. La vérité est « qu’à travers les classements et les palmarès, se construisent des catégories d’appréhension du monde » . Les classements sont d’autant plus « efficaces » qu’ils reçoivent l’appui des médias qui cultivent à partir d’eux des jugements globaux. Ainsi on a vu s’installer partout la notion de world class university . La politique universitaire n’est pas réellement conçue à partir des classements, mais ceux-ci sont invoqués pour la justifier, et ceci de façon parfois caricaturale :

A la fin 2009, devant un conseil national de l’UMP, le président Sarkozy déclarait : « Pour l’autonomie des universités qui nous a valu neuf mois d’occupation l’année dernière, nous n’avons pas reculé d’un demi-centimètre. Et pour la première fois depuis vingt-cinq ans, dans le classement des universités de Shanghai, les universités françaises remontent. C’était possible, nous l’avons fait ».

Lors d’une récente conférence de l’OCDE sur l’enseignement supérieur, le président (vice chancellor) de California State University, est allé jusqu’à parler des classements internationaux comme d’une maladie (« a disease »), expliquant qu’ils encouragent des politiques simplistes où les indicateurs deviennent des objectifs. Dans le même registre on pourrait citer la formule de l’anthropologue britannique Marilyn Strathern :

When a measure becomes a target, it ceases to be a good measure.

La course à l’excellence

Le rapport Aghion sur « l’excellence universitaire » , fait à la demande de la ministre de l’Enseignement supérieur et de la recherche, explore la problématique de l’excellence au regard des expériences internationales. Il y est beaucoup question « d’excellence académique » sans que ce concept soit clairement défini. On nous dit : « conscients du risque de décrochage, l’Allemagne, l’Espagne, la France et l’Union européenne ont mis en place des initiatives d’excellence qui présentent des caractéristiques communes : focalisation forte de financements pluriannuels sur l’excellence pour renforcer compétitivité et attractivité ».

Ceci renvoie plutôt à la stratégie de Lisbonne et à « l’excellence économique ». La seconde partie du rapport Aghion met d’ailleurs l’accent sur « les performances universitaires en matière d’insertion professionnelle, de flexibilité et de satisfaction au travail ». On s’éloigne notablement de l’excellence académique en matière de recherche, et on met l’accent sur l’innovation, les sciences dures et la technologie. Quand on voit que les sciences humaines et sociales sont quasiment absentes des critères des différents classements internationaux, on comprend que ces questions ne sont pas de pure forme.

La politique qui en découle se caractérise par la volonté de concentrer les moyens sur un petit nombre de pôles et de projets. Déjà en 2008, Valérie Pécresse déclarait par avance : « Je souhaite que l’ensemble des universités françaises soient regroupées autour de 15 pôles » . Dans la partie du rapport sur le « Grand emprunt » consacrée aux investissements nécessaires « en faveur du développement de la connaissance, du savoir et de l’innovation », le rapport embraye immédiatement sur  « la visibilité à l’étranger de la qualité et du dynamisme de nos meilleurs établissements d’enseignement supérieur et de recherche » :

« Or leur évaluation et l’impact global des travaux de recherche français ne sont pas à la hauteur de nos ambitions, malgré quelques domaines d’excellence. Ainsi, pour critiquables qu’ils soient, les classements et indicateurs internationaux font état de prestations médiocres ».

« Cette position défavorable dans la compétition mondiale s’explique en partie par la faible diversité des modes de financement de nos établissements d’enseignement supérieur, presque exclusivement publics (..). Mais la position défavorable de la France dans la compétition mondiale  reflète également la trop petite taille de nos établissements ».

Ceci conduit, en particulier, à proposer de concentrer un capital de 7,7 milliards d’euros sur « cinq à dix groupements d’établissements d’enseignement supérieur et de recherche sélectionnés par un jury international ». En réalité, il est bien inutile de réunir un tel jury ; on connaît déjà les établissements en question : ce sont ceux qui hébergent la majorité des chercheurs des organismes de recherche et qui reçoivent d’ores et déjà l’essentiel des crédits récurrents et des crédits de l’Agence Nationale de la Recherche !

L’idée centrale est donc qu’il faut réserver l’argent public à un petit nombre de pôles et de projets, qui seront par ailleurs en position de drainer des fonds privés, en complément ou en remplacement de crédits publics. Il est probable, en effet, que les crédits attribués aux pôles et projets d’excellence soient plus que compensés, à l’avenir, par une baisse importante du budget ordinaire de l’enseignement supérieur, comme c’est le cas aujourd’hui en Grande-Bretagne. Sans doute doit-on éviter le saupoudrage des crédits. Mais le saupoudrage est souvent une conséquence de l’insuffisance globale du financement lorsqu’on ne veut rien sacrifier. La question est de savoir s’il est rationnel et juste de sacrifier tout ce qui n’est pas « classé dans l’excellence ». Tout le monde ne peut pas être « excellent » (sinon le mot n’a plus de sens) et que devient-on si l’on n’est pas « excellent » ?

Nous ne discuterons pas ici de la question générale du financement de l’enseignement supérieur qui devrait être accru dans des proportions beaucoup plus importantes que les 11 milliards du « Grand emprunt ». On notera d’ailleurs que cet argent est une dotation en capital qui ne procurera guère que 300 millions annuels supplémentaires. Il est clair que ceci suffira pas à créer des universités à l’anglo-saxonne . Mais la politique « d’excellence » qui se met en place aura des conséquences bien réelles pour les laissés pour compte.

Une politique discutable

Posons-nous d’abord la question : est-ce que la concentration est indispensable à la recherche d’excellence ? Sans doute dans les domaines qui nécessitent de très grands équipements, ceux-ci sont-ils nécessairement concentrés sur quelques campus. Mais il y a beaucoup de recherches qui n’exigent pas de tels moyens. On peut citer l’exemple des mathématiques dont le niveau international n’est pas contesté. La discipline est organisée en un réseau de départements à l’anglo-saxonne, qui innerve la majeure partie du territoire national. On trouve de l’excellence mathématique dans beaucoup d’universités. A quoi servirait-il de la concentrer sur 5 à 10 pôles, sinon à dévitaliser le reste. On peut étendre l’exemple des mathématiques aux sciences humaines et sociales, mais aussi à l’informatique et à bien des domaines de la physique ou de la chimie qui n’exigent pas de très gros équipements.

Voici quelques exemples :

- Le mathématicien franco-vietnamien Ngô Bao Châu qui a reçu la médaille Fiels en 2010 est aujourd’hui à Chicago après un passage à Princeton et Orsay. Mais il a commencé sa carrière post-doctorale comme chercheur au laboratoire de mathématiques de l’université Paris 13 où il a passé 6 ans  de 1998 à 2004, période où sa recherche a fait un pas décisif. Il avait été auparavant moniteur à Paris 13 pendant 3 ans.

- Gérard Ferey, médaille d’or 2010 du CNRS, chimiste spécialiste des solides poreux,  a commencé ses travaux à l’IUT du Mans où il a été en poste de 1967 à 1996 comme assistant, maître-assistant puis professeur, avant de créer l’Institut Lavoisier à l’université de Versailles Saint-Quentin.

- Didier Fassin, sociologue et médecin, qui a obtenu la chaire d’anthropologie sociale dans le prestigieux Institute for advanced studies de Princeton, avait fait sa carrière à l’université Paris 13 comme maître de conférences, puis professeur en même temps que directeur de recherche cumulant à l’EHESS.

Est-ce que la productivité de la recherche sera améliorée en concentrant dans la même université ou le même PRES un brillant département de philosophie et un groupe de physique nucléaire performant ? Si l’on admet qu’il doit y avoir un lien entre enseignement et recherche, est-il souhaitable de transformer la grande majorité des universités en déserts scientifiques ? Ajoutons que dans le système français où les professeurs sont des fonctionnaires recrutés suivant des normes nationales encore relativement homogènes, on trouve de bons éléments ailleurs que dans quelques pôles, et ce serait un gaspillage de ressources humaines que de les marginaliser a priori.

Cette politique de concentration est également contestable du point de vue économique. Cette stratégie de création de « clusters » n’est-elle pas d’ailleurs un peu dépassée à l’époque du web mondial ? N’est-ce pas une démarche fermée destinée à aménager des positions de pouvoir ? D’ailleurs il ne suffit pas d’avoir quelques centres de recherche producteurs de brevets. C’est une vision réductrice de la relation entre les universités et l’économie.

C’est l’ensemble des forces productives qui comptent et la formation de travailleurs ayant une qualification de niveau post-bac est un enjeu considérable pour l’avenir. C’est la reconnaissance de cet enjeu qui a motivé le lancement aux USA en juillet 2009 d’un plan ambitieux de 12 milliards de dollars sur 10 ans en faveur des community colleges. Par ailleurs l’aménagement du territoire suppose d’encourager le transfert technologique à tous les niveaux entre les universités, les centres de recherche et le tissu économique. Cette nécessité semble reconnue puisqu’on parle aujourd’hui de créer des « pôles universitaires de proximité » en complément des pôles d’excellence. Mais outre le caractère vague et assez peu crédible du projet annoncé, cette conception dichotomique avec, d’un côté l’excellence, de l’autre l’utilitaire et le professionnel, renforcera encore la ségrégation dans le « ghetto français ».

Délimiter a priori quelques institutions proclamées « pôles d’excellence » est mauvais pour la démocratie. La concentration élitiste engendre l’exclusion. On notera, en passant, que la démocratisation de l’accès aux études est un paramètre inexistant dans les classements internationaux d’universités. Il faut sans aucun doute admettre une différenciation de nos institutions d’enseignement supérieur, mais il faut maintenir entre elles un maximum de fluidité (en permettant notamment le passage de l’une à l’autre) et donner à chacune ses chances et son importance en fonction de sa situation. N’oublions pas, quand même, que nous sommes, en France, déjà très concentrés et très différenciés, que ce soit pour la recherche par le biais des grands organismes et des agences de moyens , ou pour la formation avec l’existence des grandes écoles. Ajoutons que ces « pôles d’excellence » seront aussi des pôles de l’excellence sociale, moins sensibles aux exigences démocratiques .

Lorsqu’on proclame que les universités doivent répondre plus étroitement aux besoins de l’économie et contribuer plus directement aux processus d’innovation, on a tendance à privilégier les formations scientifiques et techniques au détriment des sciences humaines et sociales . C’est un contresens majeur sur le rôle des universités. Celles-ci ne sont pas des entreprises qui fournissent un produit bien défini, selon un processus de production standardisé. Beaucoup des qualités appréciées dans la « société de la connaissance » (esprit d’entreprise, capacité managériale, leadership, vision, travail en équipe, adaptabilité, application concrète de compétences techniques) ne sont pas des caractéristiques premières, mais dérivent de qualités plus fondamentales qui résultent elles-mêmes d’une formation générale dans un contexte pluridisciplinaire.

Dans la course à l’excellence, les humanités, les sciences humaines et sociales, les arts, ne cessent de perdre du terrain. C’est le cas aux Etats-Unis où, en 2004, 8% des diplômes de bachelor étaient obtenus dans le champ des humanities contre 18% dans les années 1960 . En Grande-Bretagne le nouveau gouvernement conservateur a annoncé des coupes sévères dans le budget de l’enseignement supérieur qui serait réduit de 40% d’ici 2014-15 ; mais la science, la technologie, l’engineering et les mathématiques seraient épargnés ainsi que la recherche.Il faut en conclure que les sciences humaines et sociales seraient durement frappées. Qu’en sera-t-il de la France ?  La philosophe américaine Martha Nusbaum nous met en garde : « Avides de réussite économique, les pays et leurs systèmes éducatifs renoncent imprudemment à des compétences pourtant indispensables à la survie des démocraties » .

Les critères de l’excellence

L’excellence académique s’apprécie sur la base d’indicateurs quantitatifs de performance qui méritent d’être discutés, y compris d’un point de vue interne. Il y a une tendance lourde à gérer les services publics comme des entreprises et à utiliser des « indicateurs de production » comme mesure de la performance, sans que l’on se pose vraiment la question de la pertinence de la transposition de ces techniques du monde de l’entreprise à celui des laboratoires et des universités. Des chercheurs en sciences de gestion, qui n’ont rien de radicaux, ont montré depuis longtemps que les indicateurs de production chiffrés sont particulièrement inadaptés lorsqu’il s’agit d’évaluer une activité complexe.

Dans la LOLF qui régit désormais le budget de l’Etat, les crédits du budget sont présentés par objectifs, chacun assorti d’indicateurs de performance. Pour l’enseignement supérieur et la recherche, les indicateurs de la LOLF sont ceux qu’on retrouve dans beaucoup de classements internationaux : nombre de publications ; indice de citations à deux ans ; nombre de brevets ; participation aux programmes cadre européens ; nombre de chercheurs, d’enseignants et d’étudiants étrangers ; pourcentage de diplômés ; taux d’insertion de sortants…. On peut parler de dérive lorsqu’on voit ces indicateurs budgétaires macroscopiques devenir des indicateurs de qualité pour chaque établissement, pour chaque équipe, voire pour chaque individu, et s’établir comme des normes auxquelles les uns et les autres vont chercher à satisfaire, indépendamment de leurs motivations et de leurs démarches propres.

Pour émarger aux « projets d’excellence », les chercheurs vont passer un temps considérable  à justifier leurs demandes de moyens, car on va exiger d’eux des informations de plus en plus détaillées et de plus en plus quantifiées. Ce qui ne garantit rien car les chercheurs inventent des contre-stratégies qui sapent les systèmes de contrôle mis en place. Par contre les indicateurs influent sur les organisations d’une façon souvent négative.

On peut s’interroger, de manière générale, sur la pertinence des indicateurs numériques de production. Un premier problème est que l’on n’attribue de valeur qu’à ce qui est mesurable. On induit ainsi une grande dépendance vis-à-vis des indicateurs quantitatifs, et l’on marginalise des activités ou des qualités qui sont difficiles à mesurer mais qui peuvent être plus importantes. Par ailleurs, les différents acteurs cherchent avant tout à « être bons sur les indicateurs ».

Quand un système d’indicateurs se met en place, il est rationnel pour les acteurs de développer des stratégies de conformisme. C’est le cas notamment pour la recherche sur projets où la principale qualité de celui qui répond à un appel d’offres doit être de se couler dans les intentions de ceux qui ont lancé le programme. Le postulant ne risque rien à « promettre la Lune » car il y a rarement de véritable évaluation ex-post des objectifs précis du programme, et l’on pourrait dire que les indicateurs utilisés sont des indicateurs de « performance virtuelle ». D’après certaines études , le seul facteur décisif de succès d’une université sur le long terme est la qualité des universitaires et des chercheurs, ainsi que le niveau et la qualification des étudiants, ce qui renvoie à la qualité du recrutement des uns et de la sélection des autres.

La pondération des différents indicateurs est très délicate. Les conséquences que l’on doit en tirer ne sont pas claires. Si l’on en croit certaines études , les indicateurs ne sont pas toujours le moyen de repérer les institutions d’excellence : ainsi, le pourcentage de publications cosignées entre des chercheurs d’institutions « d’excellence » et des chercheurs d’institutions moins prestigieuses aurait doublé depuis la fin des années 90. D’autres études existent sur la « réactivité » aux indicateurs : cette réactivité a pour conséquences une redéfinition du travail et une prolifération des stratégies de jeux (gaming strategies). De façon paradoxale, les mécanismes de financement par l’Etat, associés aux indicateurs de performance déterminent la politique des établissements beaucoup plus que la compétition scientifique internationale. Lorsqu’on invoque celle-ci, c’est d’ailleurs par la médiation des classements qui utilisent eux aussi des indicateurs de performance dont certains relèvent davantage du « marketing » que de la science.

On peut admettre que le budget de l’Etat fasse usage d’indicateurs à un niveau élevé d’agrégation. Mais il est très dangereux d’en faire des normes de pilotage des universités, des départements, des équipes de recherche… Il faut regarder ces indicateurs pour ce qu’ils sont : des éléments de diagnostic, discutables et incertains, souvent biaisés et formatés de façon à justifier des évolutions annoncées (self-fulfilling prophecies).

On peut penser, comme Michèle Lamont dans son livre « How professors think in the curious world of academic judgement »  qu’aucune technique inspirée du management de la qualité ne pourra mieux faire qu’une délibération collective des pairs. Il faut alors se pencher sur la production des jugements dans les communautés académiques disciplinaires. C’est ce que fait Michèle Lamont pour les sciences humaines et sociales. Cette analyse fine fait une grande place aux facteurs psychologiques et aux cultures d’évaluation, de recrutement, de classement, dans ces communautés (et pas seulement aux enjeux de pouvoir).

>> Article initialement publié sur le JFM’s blog

>> Illustrations FlickR CC : Ryan Somma, PhOtOnQuAnTiQuE, Kristian M

]]>
http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/feed/ 4
Les chercheurs doivent-ils boycotter Elsevier? http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/ http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/#comments Tue, 09 Nov 2010 12:30:15 +0000 Roud http://owni.fr/?p=35056 Titre original : Faut-il boycotter Elsevier ?

On a déjà longuement discuté des problèmes liés aux revues scientifiques et des possibilités offertes par l’accès libre. Mais certaines pratiques  récentes du grand éditeur Elsevier posent vraiment la question aujourd’hui d’un boycott pur et simple.

Elsevier est un acteur quasi-incontournable de l’édition scientifique, publiant 250 000 articles par an dans plus de 2000 journaux (si j’en crois Wikipedia). Poids lourd de l’édition scientifique, sa responsabilité est grande, tant à l’égard de la Science – Elsevier édite par exemple les Compte Rendus de l’Académie des Sciences de notre beau pays- que des scientifiques qui, rappelons-le, travaillent  quasiment gratuitement pour les éditeurs scientifiques du fait du système de revue par les pairs.

Des pratiques douteuses

Cependant, force est de constater que l’attitude d’Elsevier pose des problèmes de façon récurrente. Pour ne citer que trois affaires parmi les plus récentes :

Une stratégie de packages inacceptable

On le voit, Elsevier est donc régulièrement pris les mains dans le pot à confitures. Mais c’est paradoxalement des pratiques tout ce qu’il y a de plus légales et d’éthiques qui posent problème aujourd’hui  à mon sens. Car des événements récents prouvent aujourd’hui qu’Elsevier considère les chercheurs, qui sont à la fois ses clients, ses serviteurs et ses vaches à lait, pour des imbéciles.

Elsevier se livre d’abord de plus en plus à des pratiques plus proches du vendeur de chaînes câblées que de l’éditeur scientifique. Un exemple parmi d’autres : Elsevier vend des “packages” d’abonnements de revues aux universités et se livre actuellement à un saucissonnage tout à fait inacceptable :  il sépare actuellement les revues récentes et trendy du package basique, pour  les inclure dans d’autres packages incluant d’autres revues plus que mineures.

Du coup, l’université voulant se mettre à la page devra acheter quasiment tous les packages pour avoir accès à la totalité des bonnes revues. Et, en période de vaches maigres, certaines universités refusent désormais purement et simplement; sans être dans le secret des Dieux, j’imagine que quelque chose de similaire s’est passé récemment dans le cas de Paris VI qui a résilié il y a quelques jours son contrat avec Elsevier.

Une position  cynique sur le financement de la recherche publique

L’autre événement qui a de quoi faire sortir le scientifique lambda de ses gonds, c’est une tribune dans le Telegraph.  Oh, rien d’inhabituel en ces temps de propagande obsédés par la dette publique, un discours classique de coupe dans les dépenses, soutenant le plan d’une terreur British appelée George Osborne. Sauf que le plan en question prévoit des coupes drastiques dans le secteur éducatif, et spécifiquement universitaire : - 40 % de dépenses dans ce domaine ! Et cette tribune d’entrepreneurs, soutenant ces coupes, est signée …  par Anthony Habgood, le Chairman de Reed Elsevier. Peut-on faire plus imbécile et plus cynique qu’un “entrepreneur” dont le business model repose sur l’expertise et le  travail bénévole de personnes dont l’activité est financée en grande partie sur des fonds publics et qui soutient en parallèle une coupe drastique de ces mêmes dépenses publiques ?

Elsevier, du fait de son poids énorme, se comporte en monopole, se permet de donner des leçons de rigueur à l’État britannique d’un côté tout en pressurisant le secteur universitaire de l’autre. Il se trouve que nous, chercheurs, avons aussi le pouvoir de donner une leçon d’économie à Elsevier. Tout quasi-monopole non naturel étant néfaste pour l’économie, nous rendrions probablement service à la société en général en refusant désormais de travailler avec Elsevier, en refusant de référer les papiers soumis à une revue du groupe Elsevier, en refusant d’y envoyer nos papiers, ce qui in fine, devrait forcer Elsevier à mettre la clé sous la porte (d’une façon ou d’une autre).

En ce qui me concerne, je suis assez choqué par tout cela et désormais, je ferai mon possible pour m’abstenir de référer des papiers pour Elsevier, et je n’y enverrai plus mes papiers. Je privilégierai en priorité les journaux en accès libre et les journaux de sociétés savantes (comme Science ou Physical Review).

>> Photo FlickR CC : Campaign Against Arms Trade, martineno

>> Article initialement publié sur Matières vivantes

Retrouvez tous les articles d’OWNIsciences

]]>
http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/feed/ 6
Elsevier, un éditeur scientifique à boycotter ? http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/ http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/#comments Tue, 02 Nov 2010 16:03:51 +0000 Roud http://owni.fr/?p=33207 Titre original : Faut-il boycotter Elsevier ?

On a déjà longuement discuté des problèmes liés aux revues scientifiques et des possibilités offertes par l’accès libre. Mais certaines pratiques  récentes du grand éditeur Elsevier posent vraiment la question aujourd’hui d’un boycott pur et simple.

Elsevier est un acteur quasi-incontournable de l’édition scientifique, publiant 250 000 articles par an dans plus de 2000 journaux (si j’en crois Wikipedia). Poids lourd de l’édition scientifique, sa responsabilité est grande, tant à l’égard de la Science – Elsevier édite par exemple les Compte Rendus de l’Académie des Sciences de notre beau pays- que des scientifiques qui, rappelons-le, travaillent  quasiment gratuitement pour les éditeurs scientifiques du fait du système de revue par les pairs.

Des pratiques douteuses

Cependant, force est de constater que l’ attitude d’Elsevier pose des problèmes de façon récurrente. Pour ne citer que trois affaires parmi les plus récentes :

Une stratégie de packages inacceptable

On le voit, Elsevier est donc régulièrement pris les mains dans le pot à confitures. Mais c’est paradoxalement des pratiques tout ce qu’il y a de plus légales et d’éthiques qui posent problème aujourd’hui  à mon sens. Car des événements récents prouvent aujourd’hui qu’Elsevier considère les chercheurs, qui sont à la fois ses clients, ses serviteurs et ses vaches à lait, pour des imbéciles.

Elsevier se livre d’abord de plus en plus à des pratiques plus proches du vendeur de chaînes câblées que de l’éditeur scientifique. Un exemple parmi d’autres : Elsevier vend des “packages” d’abonnements de revues aux universités et se livre actuellement à un saucissonnage tout à fait inacceptable :  il sépare actuellement les revues récentes et trendy du package basique, pour  les inclure dans d’autres packages incluant d’autres revues plus que mineures.

Du coup, l’université voulant se mettre à la page devra acheter quasiment tous les packages pour avoir accès à la totalité des bonnes revues. Et, en période de vaches maigres, certaines universités refusent désormais purement et simplement; sans être dans le secret des Dieux, j’imagine que quelque chose de similaire s’est passé récemment dans le cas de Paris VI qui a résilié il y a quelques jours son contrat avec Elsevier.

Une position  cynique sur le financement de la recherche publique

L’autre événement qui a de quoi faire sortir le scientifique lambda de ses gonds, c’est une tribune dans le Telegraph.  Oh, rien d’inhabituel en ces temps de propagande obsédés par la dette publique, un discours classique de coupe dans les dépenses, soutenant le plan d’une terreur British appelée George Osborne. Sauf que le plan en question prévoit des coupes drastiques dans le secteur éducatif, et spécifiquement universitaire : - 40 % de dépenses dans ce domaine ! Et cette tribune d’entrepreneurs, soutenant ces coupes, est signée …  par Anthony Habgood, le Chairman de Reed Elsevier. Peut-on faire plus imbécile et plus cynique qu’un “entrepreneur” dont le business model repose sur l’expertise et le  travail bénévole de personnes dont l’activité est financée en grande partie sur des fonds publics et qui soutient en parallèle une coupe drastique de ces mêmes dépenses publiques ?

Elsevier, du fait de son poids énorme, se comporte en monopole, se permet de donner des leçons de rigueur à l’État britannique d’un côté tout en pressurisant le secteur universitaire de l’autre. Il se trouve que nous, chercheurs, avons aussi le pouvoir de donner une leçon d’économie à Elsevier. Tout quasi-monopole non naturel étant néfaste pour l’économie, nous rendrions probablement service à la société en général en refusant désormais de travailler avec Elsevier, en refusant de référer les papiers soumis à une revue du groupe Elsevier, en refusant d’y envoyer nos papiers, ce qui in fine, devrait forcer Elsevier à mettre la clé sous la porte (d’une façon ou d’une autre).

En ce qui me concerne, je suis assez choqué par tout cela et désormais, je ferai mon possible pour m’abstenir de référer des papiers pour Elsevier, et je n’y enverrai plus mes papiers. Je privilégierai en priorité les journaux en accès libre et les journaux de sociétés savantes (comme Science ou Physical Review).

>> Photo FlickR CC : Campaign Against Arms Trade, martineno

>> Article initialement publié sur Matières vivantes

]]>
http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/feed/ 12
La vidéo en ligne: un accélérateur d’innovation plus puissant que l’imprimerie http://owni.fr/2010/09/16/la-video-en-ligne-un-accelerateur-dinnovation-plus-puissant-que-limprimerie/ http://owni.fr/2010/09/16/la-video-en-ligne-un-accelerateur-dinnovation-plus-puissant-que-limprimerie/#comments Thu, 16 Sep 2010 15:01:21 +0000 Sylvain Lapoix http://owni.fr/?p=28366 Cliquer ici pour voir la vidéo.

C’est un cercle vertueux qui s’autoalimente : une audience amène la lumière et la motivation qui appellent la foule. La logique des vidéos virales. La logique des TED Talks qui, depuis 2006, livrent en Creative Content des conférences des plus grands innovateurs et penseurs de la planète. Une logique qui, selon Chris Anderson, le créateur de TED.com, pourrait être la nouvelle logique d’une éducation massive, populaire et créative.

La « catalyse de l’innovation par la foule » / « crowd acceleration innovation »

Pour cet ancien journaliste, pas de mystère aux performances vidéos du jeune Anjelo (alias Lil Demon), break dancer de 6 ans : le temps consacré pour arriver à sa maîtrise technique, la diffusion de ses acrobaties et leur succès participent du même principe. Sous la forme d’une grande roue de fête foraine, Anderson énumère les réservoirs qui alimentent ce qu’il nomme « catalyse de l’innovation par la foule » (« crowd accelerated innovation ») : la foule, la lumière et le désir.

Cliquer ici pour voir la vidéo.

Sans la « lumière », visibilité nécessaire au phénomène, pas de diffusion. Sans le « désir », pas de motivation pour les heures de répétition et d’essais-erreurs nécessaires au perfectionnement. Et sans la « foule », pas de progrès, faute « d’écosystème favorable à l’innovation », où chacun assume vis-à-vis de la création et des autres son rôle de commentateur, créateur, sceptique, enthousiaste ou chasseur de tendances… Trois indicateurs qui, sur Internet, s’alimentent mutuellement : la lumière et le désir donnent accès à la foule de l’audience qui, directement (via les réseaux sociaux) ou indirectement (via les hits, liens entrants ou « vues » sur Youtube) offrent plus de lumière et de désir (de reconnaissance, de partage, etc.).

La nouvelle révolution de la transmission après Gutenberg

Un mécanisme d’amélioration qui ne fonctionne qu’en mode ouvert. « C’est en livrant ce que vous considérez comme votre plus précieux secret que des millions de gens pourront l’améliorer », s’enthousiasme Anderson, prenant exemple sur ses conférences : publiées en Creative commons, les vidéos de TED.com ont donné lieu à 300 millions de visionnages entre juin 2006 et juin 2010, des traductions en 70 langues et plusieurs milliers de vidéos estampillées TEDx, marque d’usage libre dérivée du cycle de conférence initial.

Une révolution qui, pour Anderson, concurrence rien moins que Gutenberg : précédent l’invention de l’imprimerie, colportant au bout du monde les idées et les opinions, toute l’histoire de l’Humanité s’était construite à l’aune de la discussion. La démocratisation de l’accès à Internet, l’explosion récente des limites de la bande passante et du stockage et l’effondrement du prix des caméras transforment le web en vecteur permanent de millions de discussions. Aussi bien dans leur propos que dans leur contenu non verbal : « le ton, les expressions du visage, le contact visuel, la réaction du public… Énumère Anderson. Ce sont des éléments clés de la motivation. Tout ça, sur un écran de quelques pouces de large. »

Faire de la foule de consommateur une université de contributeurs

Et ce vecteur a un potentiel d’application hors du commun, « car il montre plus que des paroles », il met en scène des « compétences ». La plate-forme de vidéos scientifiques Jove a ainsi répondu à un problème typique de la recherche contemporaine : comment répliquer une expérience décrite dans un article de revue scientifique ? « Cela prend parfois plusieurs mois, des milliards de dollars pour y arriver », assure-t-il. Là où une vidéo « montre » une manipulation cellulaire, un processus expérimental en quelques images, une poignée de mouvement et les couleurs et légendes nécessaires.

Une logique qui ouvre pour Chris Anderson un nouveau paradigme d’éducation :

Doit-on rester dans cet harassant schéma pyramidal ? Pourquoi pas un cycle pédagogique auto-entretenu où chacun peut participer ?

Un nouveau mode d’échange qui s’appuierait sur la mutation de chacun du consommateur passif au contributeur: « Qui est le prof ? Vous. »

Avec quelques caméras Flip et une connexion Internet, le bidonville de Kibera, dans la banlieue de Nairobi au Kenya, a pu monter son propre TEDx, exposer ses initiatives de vie locale et échanger l’expérience de ses talents : une école de cinéma, des initiatives pour recycler le contenu d’une décharge voisine, pour relancer la culture sur les terres souillées, monter une télévision… Une démonstration puissante du slogan de TED : « des idées qui valent la peine d’être partagées » (« Ideas worth spreading »).« Cette logique est profitable pour toutes les institutions », assure-t-il.

De sa nouvelle théorie, Anderson tire des enseignements pour sa propre initiative : le site TED.com permettra bientôt de répondre directement, en vidéo, de poster ses propres « TED talk »… Dans le simple but d’élargir la base.

Nous voulons passer d’une logique de une personne à beaucoup d’autres, à une logique du beaucoup à beaucoup. Si nous pouvons faire émerger le meilleur du meilleur d’un pool plus important, alors, la roue tourne.

Une vidéo initialement publiée sur TED.com.

Crédit photo CC Flickr WoodleyWonderWorks.

]]>
http://owni.fr/2010/09/16/la-video-en-ligne-un-accelerateur-dinnovation-plus-puissant-que-limprimerie/feed/ 2