Focus sur l’internet: enjeux et solutions sur ses briques matérielles, sociale et régulatrices.


# textes / références sur le sujet internet / biens communs / pour se cultiver 😉
Bien commun : moteur du développement pérenne de l’internet    
Mardi 4 mai 2004, par  jacques-françois marchandise
Construction mondiale  unique, rassemblant des acteurs hétérogènes en taille et en nature, sans  réel cadre institutionnel, l’internet des pionniers change de nature  dès lors qu’il se généralise et devient l’infrastructure générique des  communications. Outre les données, produites et consommées, ce sont  maintenant le téléphone et la télévision qui sont transportés, et  au-delà, un ensemble de télécommunications domestiques ou industrielles  qui n’entrent pas dans les radars de Google et ne poseront pas de  problèmes de droits d’auteur.
Ce changement rapide d’échelle et d’enjeux attise les rapports de  forces qui ont toujours été à l’œuvre ; et dans une vision pessimiste, on peut craindre que les intérêts qui convergent aujourd’hui pour rendre l’internet possible s’affrontent demain.
Amorcée  dans l’ombre, à la faveur de la libéralisation des télécoms, la course à  la maîtrise des infrastructures bat son plein, redistribuant les rôles  entre opérateurs classiques et alternatifs et acteurs publics. Dans le  champ de la connaissance et de la création, les modèles économiques  s’affrontent sur fond de mutation rapide des industries du  divertissement et de l’information. La course au haut débit, qui tire la  croissance du réseau, mêle à plaisir les arguments consuméristes et  ceux de l’aménagement du territoire.
Parmi les mille et une promesses de l’internet (société de l’information, société des citoyens en réseaux, plateforme commerciale  mondiale, …), la continuité des dispositifs techniques sur la base des  standards ouverts est probablement la plus héroïque et la plus concrète  par les possibilités offertes à tous. Aujourd’hui il faut une vigilance  de tous les instants pour que les standards ouverts ne soient pas  supplantés par les standards de fait de tel ou tel acteur dominant, pour  que la fertilité logicielle ne soit pas confisquée par la  brevetabilité, pour que la version 6 du protocole internet (IPv6)  permette une large distribution des adresses malgré les freins  géopolitiques et industriels à sa mise en place, pour que les  passerelles établies avec les opérateurs mobiles et d’autres  propriétaires de réseaux et de données ne transforment pas la continuité  du Net en une multitude de jardins clos que l’on traverserait de péages  en octrois.
Au-delà du consensus technique, les visions utopiques ont été le  carburant du développement du réseau, construction politique étonnante  fondée sans les Etats, lieu de la réinvention de nombreuses formes  collectives (des « communautés » aux forums ou aux projets collaboratifs)  et de nouvelles contractualisations sociales. Sa place devient  exorbitante, il est maintenant un fait de civilisation, ancré dans les  pratiques, et qui fait défaut à ceux qui ne peuvent en être ; il  accueille en son sein les places de marché, en même temps qu’il définit  un « espace public » ; il est, parfois abusivement, le cadre et le levier  de toutes les innovations, celles du commerce, de l’administration, de  l’éducation ou du développement territorial.
Pour qu’il devienne un facteur de civilisation, il nous faut  aujourd’hui prendre explicitement en compte le Bien commun, c’est-à-dire  la vision de l’intérêt général qui sublime les intérêts particuliers.  C’est cette notion qui fait de la Toile une maison commune pour les  collectifs informels, les entreprises commerciales, les esprits libres  et les acteurs publics. Parce que nous sommes tour à tour citoyen,  consommateur, éducateur, administré ou travailleur ; cette vision  partagée du Bien commun est probablement le moteur du développement  pérenne de l’internet.
Fondation Heinrich Böll
 En 1991, Linus Torvalds, un étudiant en informatique finlandais, eut l’idée de développer un système d’exploitation, autrement dit un logiciel dont le rôle est de piloter l’ordinateur. Au départ, Torvalds voulait simplement équiper l’ordinateur qu’il venait
d’acquérir de certaines fonctions manquantes. Toutefois, après quelques mois de bricolage, il se dit que «son» système pouvait aussi servir à d’autres. «Je travaille sur un système (libre) d’exploitation (juste un passe-temps…)», écrivit-il sur Internet. Il sollicita des retours d’expérience, demandant en particulier de quelles fonctionnalités les autres utilisateurs pourraient souhaiter voir doté un tel système. Quelques semaines plus tard, il mit le logiciel en ligne. Ceci permit à tout un chacun de télécharger le code écrit par Torvalds, de l’utiliser et de l’adapter à ses besoins, en fonction de ses propres
connaissances en programmation.
L’annonce suscita un intérêt considérable, d’autant plus que les systèmes d’exploitation d’alors étaient soit très limités (DOS par exemple), soit très chers. De plus, ils étaient développés par des entreprises sur lesquelles les utilisateurs n’avaient pas la possibilité d’exercer une quelconque influence. L’initiative de Linus Torvalds fit sensation.
Il laissait les codes sources librement accessibles, faisait explicitement appel aux retours d’expérience et à la coopération des utilisateurs, et mettait les résultats à la disposition de tous. Il ne fallut que deux ans pour que plus de cent personnes achèvent ensemble de développer le système esquissé par Torvalds, lequel fut baptisé Linux en hommage à son créateur.
À ce moment, le projet GNU initié par Richard Stallman (avait déjà développé de nombreux outils libres pour systèmes
d’exploitation. Leur combinaison avec le noyau développé par Torvalds entraîna la naissance d’un système d’exploitation pratique d’utilisation et entièrement libre: GNU/Linux. La licence libre G NU GP L (General Public Licence ) permit de défendre le caractère libre du nouveau système, et donc son caractère de bien commun.
Aujourd’hui, Linux est avec Windows et Mac OS un des trois systèmes les plus utilisés dans le monde. Il a été distribué à des millions d’exemplaires. Plus encore que par les particuliers, Linux est apprécié par les entreprises, qui l’installent notamment sur leurs serveurs pour s’assurer que ceux-ci fonctionneront de manière fiable et continue.
Le système d’exploitation libre est également privilégié là où les exigences de performance sont particulièrement élevées. 90% des 500 superordinateurs fonctionnent aujourd’hui sous Linux.
Le succès de Linux ne s’explique pas seulement par le fait que le logiciel lui-même est un bien commun, mais avant tout par la «communauté» qui soutient son développement.
La manière de travailler ouverte, décentralisée et apparemment chaotique de Torvalds et de ses compagnons est entrée dans l’histoire des logiciels sous le nom de «modèle du bazar», par opposition au «style cathédrale», hiérarchique et soigneusement
planifié, qui correspond non seulement au mode de construction des cathédrales du Moyen Âge, mais aussi à la majorité des logiciels développés par des entreprises.
Pour caractériser les modes de participation au développement des projets de logiciels libres, on évoque souvent la règle des «90-9-1»: 90% se contentent d’utiliser le système, 9% environ participent occasionnellement à son développement, et 1% seulement s’impliquent de manière régulière et intensive. Le passage de certains utilisateurs à une collaboration occasionnelle ou intensive relève d’un choix personnel: la participation n’a rien d’obligatoire, mais elle n’est pas non plus entravée. Chacun décide par lui-même si et comment il veut s’investir.
Souvent, la collaboration débute lorsque quelqu’un rapporte un «bug», c’est-à-dire quelque chose qui ne fonctionne pas correctement; il propose éventuellement un «patch» ou une «rustine logiciel» pour faire disparaître l’erreur, ou bien il teste le système et documente le problème, contribuant ainsi au perfectionnement de ce bien commun.
Les participants expérimentés examinent alors le nouveau code ainsi produit. Ils décident s’il peut être intégré dans le système sans entraîner la perte d’éléments existants ou bien s’il faut apporter des corrections. P our Linux, il existe à peu près une centaine de ces «mainteneurs». Ils ont la responsabilité de certaines parties du système
et veillent à ce que tout fonctionne. Plus longue et plus intensive sera la collabora- tion d’un utilisateur, plus facilement ses propositions de modifications seront adoptées par les mainteneurs compétents.
Être mainteneur implique évidemment davantage de responsabilité et d’influence sur le développement du projet, mais cela ne donne aucun pouvoir sur les autres. Ce sont plutôt les mainteneurs qui sont dépendants de la collaboration
libre des autres utilisateurs.
La communauté Linux est parvenue à mettre en oeuvre un style de développement de logiciels ouvert et libre qui requiert peu de formalités (directives) et aucune structure hiérarchique. Elle a ainsi réfuté la «loi de Brooks», qui faisait autorité en matière
de développement de logiciels, selon laquelle agrandir une équipe au-delà d’un certain nombre de personnes allonge le temps nécessaire au développement du logiciel, étant donné que l’investissement en communication interne croît de manière exponentielle.
À l’inverse, pour le développement sur le modèle du « bazar», c’est la loi suivante qui vaut: «Pour peu que le coordinateur du développement dispose d’un moyen de communication au moins aussi bon que l’Internet, et pour peu qu’il sache comment mener ses troupes sans coercition, il est inévitable qu’il y ait plus de choses dans plusieurs têtes que dans une seule.» (Eric Raymond)
Protéger Mickey Mouse
Au Congrès des É tats-Unis, il y eut de nombreuses tentatives de rendre imprescriptible la protection des droits d’auteurs. D’après la veuve du politicien et ancien chanteur Salvatore Phillip «Sonny» Bono, qui avait succédé à son mari au Congrès et qui avait repris sa croisade, celui-ci souhaitait voir consacrée la validité «illimitée» de ces droits par le Copyright A ct, mais cela ne fut pas possible pour des raisons constitutionnelles.
La Constitution des É tats-Unis stipule en effet que les droits d’auteurs doivent être limités dans le temps. Ce qui a incité Jack Valenti, lobbyiste de l’industrie cinématographique, à proposer – de manière ironique – le compromis selon lequel les droits
d’auteur seraient valables «pour l’éternité moins un jour» («forever less one day»).
En 1998, le Congrès adopta une loi qui prolongeait de 20 ans les différentes périodes de protection du copyright. Dans la majorité des cas, cela signifiait une protection du copyright durant la vie de l’auteur plus 70 ans, et, dans le cas d’oeuvres réalisées par des entreprises, pour 95 ans. En l’honneur du musicien décédé, cette loi fut nommée le «Sonny Bono Copyright Term Extension Act», et critiquée dans le public comme la «loi de protection de Mickey Mouse».
Les intérêts de la Walt Disney Corp. n’étaient cependant pas seuls en jeu. Les droits sur les oeuvres d’Ernest Hemingway ou encore sur la musique de G eorge et Ira G ershwin se trouvèrent également laissés à leurs détenteurs pour vingt années supplémentaires.
Eric Eldred, qui souhaitait créer une bibliothèque en ligne libre d’accès, déposa un recours devant la Cour Suprême contre cette loi. Son argument était qu’elle allait à l’encontre des limites temporelles posées par la Constitution à la protection du droit
des auteurs. Mais la Cour refusa de se saisir de ce recours. Eldred avait perdu. Selon son avocat et futur créateur des Creative Commons Lawrence Lessig, «la Cour Suprême ne rend pas de jugement défavorable aux intérêts des puissants».
Cette histoire de la «loi de protection de Mickey Mouse» a valeur générale: ces dernières années, le pouvoir politique a toujours tranché en faveur du renforcement des droits individuels des auteurs tout comme des droits commerciaux des industries culturelles. Pourtant, le succès de Walt Disney ne repose-t-il pas dans une large mesure sur le fait d’avoir puisé librement dans le patrimoine des contes et des légendes, devenus entretemps des modèles littéraires du domaine public? Disney a, parmi d’autres, redonné vie à des personnages emblématiques comme Blanche Neige, la P etite Sirène, P eter
Pan ou encore A lice au P ays des Merveilles. Il les a modifiés, «remixés», réincarnés.
Le résultat lui a fait gagner de l’argent. Ce succès commercial repose donc lui aussi sur le recours à un héritage culturel commun. Il en résulte un «devoir de restitution»
envers la collectivité. Ou bien doit-il être possible de revendiquer des droits exclusifs d’exploitation pour 120 ans – c’est-à-dire bien au-delà de la mort du créateur – sur quelque chose qui tire origine de notre culture commune? Disney devrait bien plutôt
laisser Mickey Mouse et Donald Duck à la libre disposition du public, les investissements ayant déjà été plusieurs fois couverts.
Une société doit pouvoir compter sur sa capacité créatrice illimitée de produire de nouveaux personnages et de nouvelles histoires. Les créateurs doivent pouvoir puiser librement dans les richesses du patrimoine culturel. Notre culture est un
réservoir inépuisable d’histoires, d’images, de musiques et de bien d’autres choses encore – pourvu que l’accès à ces biens ne soit pas entravé ou raréfié. La culture dépend de ce que chacun reverse au pot commun, et ne cherche pas à se prévaloir de manière inéquitable – «pour l’éternité moins un jour» – de droits privés sur les biens culturels.
Qu’il s’agisse de choses matérielles ou immatérielles, qu’elles relèvent de la sphère naturelle, culturelle ou sociale, il est nécessaire, afin d’éviter leur sur-utilisation ou leur sous-utilisation, de soumettre toute forme de propriété à ces deux conditions:
  • Premièrement, il doit être garanti qu’aucune utilisation n’affectera la pérennité des biens communs, à travers leur destruction ou leur surexploitation.
  • Deuxièmement, il doit être garanti qu’aucune personne ayant un droit légitime aux biens communs existants ou qui en dépendrait ne se voit exclue soit de l’accès, soit de l’utilisation de ces biens.
Note essentielle: La technologie ouvre de nouvelles dimensions au développement des biens communs, mais aussi aux moyens de les rendre artificiellement rares. Ce qui jusqu’alors se raréfiait rapidement – par exemple la disponibilité du spectre électromagnétique pour les radios – s’est multiplié grâce à la numérisation. Un spectre ouvert est possible ! À l’inverse, des choses qui  pourraient être disponibles pour tous sans perte de qualité sont raréfiées artificiellement par les nouvelles technologies: à l’image des barbelés et des murs qui clôturaient jadis les nations, les mécanismes de protection contre la copie créent aujourd’hui une «clôture numérique» autour du savoir, des idées et de la culture
Open Access – L’enrichissement par les biens communs obéit à un principe simple L’Open A ccess est une réalité en plein essor dans le domaine de la science. Une date clé de son histoire est la Déclaration de Berlin de 2004. Celle-ci décrit les deux conditions que les publications en Open A ccess doivent respecter:
  • 1. Leurs auteurs et les propriétaires des droits afférents concèdent à tous les utilisateurs un droit gratuit, irrévocable et mondial d’accéder à l’oeuvre en question, ainsi qu’une licence les autorisant à la copier, l’utiliser, la distribuer, la transmettre et la montrer en public, et de réaliser et de diffuser des oeuvres dérivées, sur quelque support numérique que ce soit et dans quelque but responsable que ce soit, sous réserve de mentionner comme il se doit son auteur (les règles usuelles de la collectivité continueront à disposer des modalités d’attribution légitime à l’auteur et d’utilisation responsable
de l’oeuvre publiée, comme à présent), tout comme le droit d’en faire des copies imprimées en petit nombre pour un usage personnel.
  • 2. Une version complète de cette oeuvre, ainsi que de tous ses documents annexes, y compris une copie de la permission définie dans ce qui précède, est déposée (et, de fait, publiée) sous un format électronique approprié auprès d’au moins une archive en ligne, utilisant les normes techniques appropriées (comme les définitions des Archives Ouvertes [Open Archives] ), archive gérée et entretenue par une institution académique, une société savante, une administration publique, ou un organisme établi ayant pour but d’assurer le libre accès, la distribution non restrictive, l’interopérabilité et
l’archivage à long terme.»
Cela était et demeure révolutionnaire. Les producteurs de savoirs, lesquels sont en même temps dans le domaine de la science des utilisateurs de savoirs, ont pris eux-mêmes les choses en main face aux hausses de prix vertigineuses des revues scientifiques, et ont créé de nouvelles règles et une nouvelle donne dans le monde des publications académiques. Grâce à l’Open A ccess, une grande partie des savoirs que le secteur de l’édition s’était jusqu’alors légalement accaparé par contrat entre directement dans le domaine des biens communs.
 Avec l’Open A ccess, il ne s’agit pas de res nullius , mais de res communes.
 La règle est claire et simple: ceux qui offrent les savoirs à la publication, les auteurs, ne voient pas leurs droits moraux sur leurs ouvrages limités. En revanche, chacun aura le droit de consulter et de se servir librement des ouvrages en Open
Access.
Plus explosif encore, la Déclaration de Berlin sur l’Open A ccess ne se limite pas aux publications scientifiques, mais inclut tous les contenus culturels. Cela ne signifie en aucun cas que les créateurs, qui dépendent du revenu de leurs oeuvres, devraient tout donner gratuitement. De grandes organisations de recherche comme la Deutsche Forschungsgemeinschaft  (DFG) ont avec raison attiré l’attention sur la différence qui existe entre des oeuvres réalisées dans un cadre public ou avec un financement public d’une part, et d’autre part des oeuvres d’artistes et de journalistes indépendants. Mais
ces derniers eux aussi devraient évaluer s’ils ne se trouveraient pas mieux de mettre à profit le potentiel d’Internet plutôt que de s’en remettre aux revenus proportionnellement faibles généralement attachés aux formes d’exploitation commerciale.
L’Open Access est un paradigme générateur de nombreux avantages pour les biens communs dans l’espace numérique. Il faut l’organiser.
 Les droits moraux des auteurs incluent les droits suivants:
◆  le droit d’être reconnu en tant qu’auteur;
◆  le droit de décider si, quand et comment l’oeuvre sera publiée;
◆  le droit de protéger l’ouvrage contre toute atteinte à son intégrité artistique.
Aussi convaincante que soit l’idée elle-même, il faut se poser le problème de ses conditions concrètes d’application. Qui prendra en charge les coûts qui subsisteront même avec l’Open A ccess? Les institutions scientifiques peuvent-elles obliger les auteurs à mettre leurs travaux financés sur des fonds publics dans une «archive publique» parallèlement
à leur publication commerciale ou peu de temps après? Doit-il même encore exister des publications commerciales de travaux scientifiques, alors que leur existence même a été rendue possible par l’accès libre?
Les changements de paradigmes sont comparables à des naissances difficiles. Mais l’idée de l’Open A ccess ne doit plus être entravée dans son développement et son passage à l’âge adulte. Une époque s’ouvre devant nos yeux où le savoir universel sera librement disponible. Le savoir deviendra alors ce qu’il aurait toujours dû être: un bien commun.
L’Open A ccess ne doit pas exclure la possibilité pour une société de permettre également une exploitation commerciale du savoir. Simplement, ce ne seront plus les exploitants commerciaux légaux qui octroieront à la société des licences d’utilisation, mais l’inverse: la société accordera à des exploitants commerciaux des licences d’utilisation limitées. Des licences au reste assujetties au principe éprouvé du «droit des riverains», issu du domaine de l’eau: il doit toujours en rester suffisamment à disposition de tous les riverains. Et dans le domaine du savoir, des logiciels et de la culture, nous sommes tous des riverains.
Le droit des riverains
Selon le principe du droit des riverains, le propriétaire d’un terrain sur lequel se trouverait une source ou une autre forme de réserve d’eau ne peut réduire les droits d’utilisation des autres riverains. Dans le cas où il n’y aurait pas suffisamment
d’eau disponible pour tous, les droits d’utilisations sont le plus souvent partagés proportionnellement (en fonction de l’emprise foncière). Ces droits d’utilisation ne peuvent être aliénés indépendamment des terrains qui leur servent de support. De
plus, l’eau ne peut être exportée en dehors du bassin versant concerné. Ce principe trouve son origine dans la Common Law anglaise. Au Canada, en Australie et dans l’Est des États-Unis, il a été incorporé à la législation moderne.
Licences libres et principe du copyleft
Qui fournit un logiciel propriétaire à des amis ou à des connaissances commet une infraction. En effet, cette action implique de réaliser une copie du logiciel; or la réalisation d’une copie est interdite par le droit des auteurs. Il n’est pas possible non plus de modifier d’une manière ou d’une autre le logiciel. P our cela, il faut avoir accès au code source, la version des codes de programmation informatique compréhensible non seulement par les machines, mais aussi par les gens. Mais le code source n’est généralement pas fourni avec le logiciel. Quoi qu’il en soit, même celui qui réussirait à modifier
le logiciel n’aurait le droit de se servir de cette version améliorée que pour son usage personnel. Il est formellement interdit de la partager avec d’autres personnes.
Pour Richard Stallman, un «hacker» (autrement dit un programmeur talentueux) de la première heure, tout ceci ne faisait aucun sens. Il voulait permettre aux utilisateurs de ses logiciels d’en faire les usages évoqués ci-dessus, et souhaitait lui-même utiliser uniquement des logiciels qui laissent eux aussi ces possibilités ouvertes, à lui comme aux autres. Stallman forgea le terme de «logiciel libre» pour désigner des logiciels qui accordent à tous leurs utilisateurs les libertés suivantes:
◆ Liberté 0 La liberté de recourir au programme pour quelque fin que ce soit. (Les informaticiens ont l’étrange habitude de compter à partir de 0 plutôt que de 1.)
◆ Liberté 1 La liberté de rechercher comment fonctionne le programme et de l’adapter à ses propres besoins.
◆ Liberté 2 La liberté de transmettre le programme à d’autres et d’en effectuer des copies pour d’autres.
◆ L iberté 3 La liberté d’améliorer le programme et de rendre ces améliorations accessibles pour le bénéfice de tous.
Les libertés 1 et 3 impliquent d’avoir accès au code source. Et les libertés 2 et 3 ignorent le droit des auteurs, dans la mesure le consentement explicite de l’auteur du programme n’a pas été sollicité. Stallman rédigea donc lui-même une licence, qu’il
attacha aux programmes qu’il avait lui-même écrits, et qui accordait à tous les utilisateurs les quatre libertés en question. A vec cette licence, il n’y avait plus besoin de demander l’autorisation des auteurs: elle était déjà accordée.
Stallman se rendit pourtant rapidement compte que les quatre libertés ne suffisaient pas, dès lors que chaque personne qui modifiait un programme ou le développait en devenait ipso facto co-auteur. De sorte que les utilisateurs devraient solliciter leur
accord afin de pouvoir travailler sur la version améliorée et la transmettre à d’autres.
Dans le cas où le nouvel auteur refuserait son autorisation, la liberté des utilisateurs se trouverait à nouveau mise à mal. A fin de s’assurer que toutes les versions de programmes basées sur ses propres logiciels demeureraient des logiciels libres, Stallman
Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :