[p2p-research] Fwd: global governance and the many

Michel Bauwens michelsub2004 at gmail.com
Mon Oct 19 18:15:42 CEST 2009


a proposal for distributed governance of the internet, in french, by xavier
comtesse

---------- Forwarded message ----------
From


: Xavier Comtesse <xavier.comtesse at avenir-suisse.ch>
Date: Mon, Oct 19, 2009 at 3:42 PM
Subject: global governance and the many
To: Michel Bauwens <michelsub2004 at gmail.com>


 Michel…a paper on governance…sorry it’s in french…could be still for some
use…all the best…Xavier Comtesse

**

 *Introduction*

 *En 2020, la moitié de l’humanité sera née après le Web. Cette population
pensera et agira avec et par Internet. Son modèle de gouvernance sera lié à
celui d’Internet. Nous devons aujourd’hui déjà en tenir compte dans toutes
les réformes institutionnelles que nous projetons de faire car ce modèle
aura forgé la pensée globale. Tentons une explication.*

Internet et le Web comme ils sont connus aujourd’hui proviennent d’une
succession de choix opérée tout au long d’une relative courte histoire :
celle de l’interconnexion des ordinateurs.

Si dans les années 60, l’informatique était basée sur le modèle des
ordina-teurs centraux (mainframe computer mode), la question de les mettre
en réseau pour des besoins de communi-cation entre eux, se posa très
rapide-ment. A cette époque, l’organisation centralisée des données était la
seule pratiquée. La question de l’interopéra-bilité entre ordinateur devait
être résolue.

Une seconde problématique importante pour l’époque, était que les
connections entre les ordinateurs devaient être robustes et que si une ligne
de communication faisait défaut ou tombait en panne, les échanges de données
devaient en tous les cas trouver un autre chemin pour parvenir à
destination. On a souvent évoqué à ce sujet la volonté de l’armée américaine
d’avoir un système en réseau capable de résister à une offensive soviétique
de type nucléaire. On était en plein milieu de la guerre froide, de la
conquête de l’espace et de l’affaire de la baie des cochons à Cuba. Que ce
soit un mythe ou pas, cette volonté de créer d’emblée un système redondant
disposant de plusieurs parcours possibles pour réunir émetteur et récepteur
de données, allait marquer profondément l’organisation d’Internet tel que
l’on connaît le réseau aujourd’hui.

Partant ainsi d’une philosophie centralisée dans le traitement et la gestion
des données et des informations par ordinateur, on allait basculer en
quelques années vers une gestion et donc une architecture distribuée en
réseau. Ce changement de paradigme technologique s’explique aussi par
d’autres facteurs.

Le premier est certainement un facteur humain. Très vite la communautés
scientifique s’est emparé d’Internet afin d’échanger des informations sur
leurs recherches. C’est pourquoi, les pionniers de l’épopée Internet qui
étaient des scientifiques et des ingénieurs américains ont favorisé le
modèle d’organisation qu’ils connaissaient et maîtrisaient le mieux, à
savoir celui des milieux académiques fait de collaborateurs et de
compétitions. Il s’agissait d’être à la fois, le premier qui découvre (en se
basant sur le principe de « first takes all ») et de partager au plus vite
sa découverte pour pouvoir progresser avec les autres. Par ce mécanisme
d’échange/compétition, le monde scientifico-technologique a imprégné le
développement d’Internet.

Un second facteur est lié à l’esprit entrepreneurial américain. Le
développement d’Internet n’a pas résisté longtemps aux entrepreneurs qui ont
vite compris les opportunités de marché qu’ils pouvaient en tirer. En effet,
jamais dans l’histoire du commerce, les entreprises n’avaient eu un tel
potentiel de toucher autant de clients à la fois. Surtout qu’aux Etats-Unis,
même si on est petit, seul ou jeune, on peut s’attaquer à des géants de
l’économie. Il est important de comprendre ce point car il garantit à tout
moment de l’évolution d’une technologie, la possibilité de voir surgir en
quelque sorte, de nulle part, une start up ou une invention qui peuvent
remettre en question l’évolution technologique en place. Par exemple, la
vision de J. Licklider qui en 1962 dans un article scientifique, présente en
quelques mots le concept de ce qui deviendra, plusieurs décennies plus tard,
Internet ou encore l’invention de Mosaic par l’étudiant Marc Andreessen de
l’Université d’Illinois, qui fut le premier navigateur Internet permettant à
l’invention imaginée par l’informaticien britannique Tim Berners-Lee et
l’ingénieur belge Robert Cailliau du CERN de se développer. Ainsi le Web
(www) a explosé trouvant un large écho dans le grand public et reste l’une
des applications la plus connue et la plus répandue d’Internet. A tel point
qu’aujourd’hui, on confond souvent Internet (le réseau des réseaux) et le
Web (plateforme d’échange et de liens).

Cet esprit entrepreneurial « décom-plexé » a donné une couleur à
l’architecture d’Internet et à sa gouvernance à travers un autre élément,
celui de la procédure RFC (Request For Comments). Cette procédure mise en
place dès les années 70, à l’époque du projet ARPANET (souvent dépeint comme
l’ancêtre d’Internet) est en fait une documentation décrivant les
propositions et les méthodologies choisies tout le long du développement des
réseaux de communication entre les ordinateurs. Ainsi la RFC est à la fois
une méthode de travail mais également une philosophie d’approche évolutive
et distribuée pour le développement d’Internet. Il n’y a pas de centralité
mais bien une légitimité des processus évolutifs. On favorise en quelque
sort le pragmatisme. D’ailleurs ce même type de représentation de la
légitimité de l’action se retrouve dans le système juridique anglo-saxon qui
organise notamment la loi par l’apport de la jurisprudence. Chaque action
prend dans cette manière de penser, une importance souvent plus grande
qu’une décision. Dans ce contexte, on perçoit mieux pourquoi l’approche de
l’Europe continentale basée sur une centralité des décisions en matière des
nouvelles technologies d’information et de communication (NTIC) a échoué.

En effet dans les années 80, l’Europe avec le Vidéotex, va développer une
approche plus centralisée autour de protocoles bien établis (X-25 et autres)
et décider de manière intergouverne-mentale au sein de l’Union
internationale des télécommunications (UIT) de son évolution. Cette approche
s’avéra un échec retentissant car elle cherchait à définir une nouvelle
architecture exclusive avant même de la voir évoluer chez les usagers. Par
exemple, il était impossible de faire fonctionner deux appareils comme le
Minitel ou le Vidéotex sur un même réseau. Ils s’excluaient mutuellement. La
représen-tation américaine tentait au contraire d’impliquer tous les réseaux
publics ou privés dans une supra- architecture. C’est sans doute là que
réside le trait de génie des américains. L’invention du mot Internet qui
signifie littéralement « Inter Networking » vient précisément de cette
volonté de laisser à la fois chacun développer son propre réseau et de
trouver une solution les intégrant tous. Dès 1973, la formulation du mémo
RFC 675 sur la spécification d’un programme de contrôle de transmission
(TCP) donna la voie à suivre. En effet, les mémos RFC 791, 792 et 793 émis
en 1974 allaient ouvrir définitivement le monde à l’inter-connexion. Connues
sous l’appellation TCP/IP, ces spécifications permirent rapidement à ce que
n’importe quel réseau puisse communiquer avec n’importe quel autre réseau et
échanger ainsi données et informations. Les principes de base d’Internet
étaient posés et il restait à construire l’évolution du réseau des réseaux
et ses nombreuses percées technologiques et applicatifs à venir.
 *
*

*Courte histoire d’Internet*

 1962   J.Licklider 1 <#_ftn1> énonce pour la première fois une vision
claire de ce que pourrait être un réseau des réseaux.

1965   Ted Nelson[1] <#_ftn2> évoque pour la première fois le concept
d’hypertexte pour les liens entre données décentralisées.**

1966   Lancement du projet ARPANET2 <#_ftn3>

1969   Publication de la première RFC3 <#_ftn4> et première connexion entre
quatre ordinateurs différents de quatre universités américaines.

1972               Création d’Inter Network Working Group. Première instance
collaborative qui donnera naissance à la gouvernance distribuée.

1973   Développement du protocole TCP/IP 4 <#_ftn5>

1981   Lancement du Minitel en France et du Vidéotex dans le reste de
l’Europe

1989   Naissance du concept de World Wide Web au CERN à Genève

1992   Création d’Internet Society5 <#_ftn6>

1993   Invention de Mosaic, navigateur grand public qui permet l’utilisation
généralisée du Web

1995   lancement d’Alta Vista[2] <#_ftn7>, un des premiers moteurs de
recherche

1996   Le nombre de 10 millions d’utilisateurs d’Internet connectés est
atteint

1997   Création de Google[3] <#_ftn8>

1998   Création d’ICANN6 <#_ftn9> pour la gestion des noms de domaines de
manière privée. Le moteur de recherche Google est lancé

1999   Création de Napster et généralisation de l’usage de la norme MP3 pour
la musique7 <#_ftn10>

2001   Eclatement de la bulle Internet juste avant le lancement de Wikipédia

2002   Les premiers blogs font leur          apparition <#_ftn11>8

2003   Sommet mondial à Genève sur la gouvernance Internet WSIS <#_ftn12>9

2004   Apparition des réseaux sociaux avec Facebook [i] <#_edn1>et
Myspace<#_ftn13>
10

2005   Lancement de YouTube <#_ftn14>11 et second sommet WSIS à Tunis

2006   Lancement des techniques de Mash up

2008   Campagne présidentielle d’Obama et usage intensif d’Internet en
politique



 *Infrastructures et institutions mènent à la gouvernance d’Internet*

 Une des spécificités de la gouvernance d’Internet est son fort lien avec
les choix effectués dans le développement technologique des logiciels ainsi
que des infrastructures. En effet, on ne peut pas aisément détacher la
gouvernance de la technologie dans le cas d’Internet. L’émergence
d’institutions nouvelles sera également liée à cette évolution du couple
techno gouvernance. Un rapide tout d’horizon de cette réalité historique
nous permettra de nous convaincre de cette affirmation.

D’abord, il faut voir que l’ensemble du développement technologique repose
sur l’interconnexion entre ordinateurs (l’architecture des réseaux) au
niveau physique et au niveau des protocoles de communication (TCP/IP) qui
permettent aux ordinateurs de dialoguer et enfin sur les applications
informatiques réunies sur une seule plateforme (le Web).

L’interconnexion physique repose sur une infrastructure de télécommunication
classique celle de la téléphonie avec ou sans fil. Faire passer du son ou
des « bits » est en effet d’un point de vue physique identique à faire
passer de la voix puisque le véhicule utilisé dans les deux cas de figure
est l’électricité ou les ondes électro-magnétiques (WiFi). Pour
l’architecture en réseau du système de communication téléphonique, le
contenu est transparent ou devrions-nous dire plutôt indifférent aux router
et autres technologies de communication. Le système ne lit pas la voix ou
les données, il ne fait que les transmettre. Ce qui compte donc c’est
l’interconnexion physique : « il faut que les fils soient branchés », il
faut être « plugged in » comme diraient les Américains. Avec le
développement foudroyant d’Internet en nombre d’utilisateurs et en quantité
d’infor-mations transmises, la question de la capacité du réseau physique
pour absorber ce trafic exponentiel s’est rapidement posée. La fibre
optique, les routers (appareil électroniques de guidage des informations),
la bande passante (la capacité de faire passer un maximum d’informations ou
de « bits » à la seconde) et le « backbone » (la structure physique du
système) deviennent des éléments clés du développement des interconnexions
physiques d’Internet.

Les investissements publics mais aussi privés (puisqu’une grande partie des
entreprises de télécommunications ont été privatisées depuis deux décennies)
ont soutenu ce développement expo-nentiel.

Mais ce ne fut pas le seul dévelop-pement technologique important. Les
protocoles ou les applications informatiques permettant logiquement et
électroniquement de faire fonctionner le réseau, furent aussi déterminants
notamment par les choix qui seront finalement adoptés par le plus grand
nombre. En effet, TCP/IP, le fameux protocole, introduisit l’idée de faire
fonctionner ensemble tous les réseaux, à savoir que quelque soit le réseau
adopté nationalement, localement ou par une entreprise, on allait pouvoir
faire dialoguer les réseaux entre eux. C’est ainsi que naît l’idée
d’Internet, un réseau des réseaux, une interaction entre réseaux qui
eux-mêmes permettent l'interférence entre ordinateurs de quelque type qu’ils
soient et donc des usagers entre eux. Ainsi, les ordinateurs « branchés »
peuvent indépendamment (à partir de leur propre système et de leur
branchement à un réseau) échanger des données avec d’autres ordinateurs
« branchés » n’importe où sur la planète ou dans l’espace (satellite, WiFi,
etc.).

L’autre innovation majeure du protocole TCP/IP tient à l’adoption de la
philosophie « end to end » pour gérer l’ensemble. En d’autres termes, TCP/IP
favorise les utilisateurs finaux pour la gestion des données et des
applications informatiques. Cela signifie qu’il faut une « intelligence » au
niveau de l’utilisateur final pour gérer le dialogue, l’échange. On a ainsi
totalement quitté une philosophie centralisée au profit d’un système
distribué. Dans le système Internet, nous avons de véritables ordinateurs
autonomes au bout du réseau. Tout le système au milieu, celui de
l’intermédiation est dans une position neutre. Il ne connaît en principe pas
ce qu’il transmet. Un des raisons dominantes qui a amené à ce choix tient
dans le « design » même des protocoles de transmission puisque ces derniers
transmettent les données, les informations par paquets distincts, de
l’émetteur jusqu’au récepteur, sans jamais s’occuper du contenu des paquets.

Au contraire de la téléphonie classique, une communication est faite de
dizaines de milliers de petits « paquets » transmis dans le réseau d’une
manière indépendante les uns des autres. En téléphonie, une liaison unique
et pérenne est d’abord établie avant que la conversation vocale puisse
prendre place. Dans le cas de TCP/IP, il n’en est rien. L’émetteur va
envoyer par exemple une image découpée en dizaines voire en centaines de
« paquets » à l’adresse du destinataire. L’ordinateur ce celui-ci aura comme
tâche de recomposer ensuite l’image envoyée. On peut facilement remarquer ce
processus dans la réalité quand on se branche sur YouTube par exemple car
nous assistons parfois à des interruptions intermittentes lorsque la bande
passante (la capacité du réseau) est faible. De plus, il faut noter que
chaque « paquet » dans son parcours entre expéditeur et récepteur ne suivra
pas forcément le même chemin dans le dédale des réseaux, des fils  ou des
transmissions sans fil de communication. Cela tient à l’adoption dès son
origine de rendre la communication, l’échange de données, indépendantes du
parcours. Cette approche est évidemment de type distribué. C’est fascinant
de constater à quel point ces choix historiques concordent dans la
définition d’une réalité totalement nouvelle dans un système des
télécommunications qui était jusqu’à l’arrivée d’Internet fortement
centralisé.

Enfin, le Web cette plateforme informatique unique va autoriser les usagers
à créer leur propre service Internet et à mettre ainsi à disposition des
autres usagers leurs informations, leurs transactions, leurs applications
informatiques, etc. Le Web est en quelque sorte une couche de liens « soft »
sur un réseau « hard » fait de liaisons physiques, de serveurs et de
routers. Cette couche de logiciels identique pour tous, facilite grandement
les échanges, les communications entre usagers.

Par ailleurs, les concepts clés qui sous-tendent le Web sont le système
d’adresse lié au nom de domaine[8] <#_ftn15>, les liens hypertexte[9]<#_ftn16>,
les navigateurs [10] <#_ftn17>et les moteurs de recherche[11] <#_ftn18>.
Grosso modo, les informations d’un service Web sont repérables d’abord par
la page d’entrée qui est joignable par son nom de domaines et toutes les
parties du service sont depuis ce point d’entrée organisé en hypertexte.
Chaque partie, chaque « page » ou « objet » d’un site Internet peuvent être
liés à chaque autre partie de n’importe quel site. Cette structuration est
évidemment importante car contrai-rement à un livre, les choses ne sont pas
conçues de manière purement linéaire, consultable en table des matières ou
en arborescence. Cette déstructuration-restructuration des liens en
hypertexte rend non seulement chaque site Internet très interactif mais
autorise également des liens interactifs entre différents sites Internet. En
liant chaque document, la structure hypertexte a fait du Web tout entier, un
seul et unique site. En quelque sorte, tout se réfère à tout par des liens
(en général les mots de liaison sont en bleu), transparents pour les usages.
En effet d’un simple clic, le système nous propulse dans un autre site tout
en gardant les traces de notre parcours. Si bien que l’on peut - naviguer -
d’un site à un autre par des liens préétablis. Dès lors que le Web forme un
« grand livre » d’informations et d’applications, la question de la
recherche de ce que l’on veut devient central. Avec Alta Vista d’abord et
ensuite bien d’autres jusqu’à Google (1998) et aujourd’hui Bing de Microsoft
(2009), les moteurs de recherche sont devenus un outil clé totalement liés
au développement du Web donc d’Internet.

L’histoire, courte et mouvementée, des moteurs de recherche est liée au fait
qu’ils sont indispensables. En effet, rechercher une information sans passer
par eux, s’avère fastidieux dans une structure de type hypertexte. Tout est
lié à tout ce qui fait que tout disparaît dans l’ensemble. Trois éléments
clés du Web vont faire de lui un objet à la gouvernance personnalisée et
donc totalement distribuée. A savoir, chacun peut créer son site, chacun
peut lui donner le nom qu’il veut (ou presque) et chacun peut lier ses
informations et applications à ce qu’il veut. Un système pareillement
décentralisé est une forme d’ « empowerment » des usagers.

On pourrait même parler d’une nouvelle ère de la
« connaissance distribuée ». Tentons ici une explication.

Wikipédia, YouTube, Facebook, etc… sont des sites Internet qui font appel à
la créativité de leurs usagers. En offrant la possibilité à chacun de
contribuer à une œuvre collective comme celle de rassembler la connaissance
(Wikipédia), de filmer des évènements (YouTube) ou de créer de nouveaux
rapports sociaux (les réseaux sociaux comme Facebook), ces sites Internet
vont largement au-delà d’une simple mise à disposition d’informations ou
d’applications en transformant le tissu social par de nouvelles pratiques.
Ce changement de paradigme annonce une nouvelle ère, celle de la
connaissance distribuée. La gratuité, l’initiative individuelle, la
libéralisation des droits d’auteurs, le nouveau bien commun, etc. sont des
concepts revisités par le monde Internet et qui ensemble annonce un
changement de gouvernance.

Il ressort de ces nouvelles pratiques, une refonte de la société. Les
institutions en charge de la gestion et du développement d’Internet le
savent bien, elles qui sont les gardiennes du temple de l’empowerment des
gens ordinaires. Le principe « end to end » en est le fondement. Il s’agit
dès lors de préserver et si possible d’élever ce principe en un nouveau
dogme sociétal. L’intelligence doit être maintenue au bout de la chaîne, les
autres maillons ne servant qu’à le renforcer, le fluidifier. Ce n’est pas
évident. La tentation des intermédiaires (compagnie de télécommunications,
États nations, organisations interna-tionales de régulation, etc.) est
toujours grande de pouvoir regagner du pouvoir. Les exemples récents de
l’Iran, de la Chine et de la Corée du Nord sont là pour nous le rappeler.


 *
*

* *

*Le Web 2.0 : une rupture*

 Avec l’organisation des réseaux sociaux, des communautés de pratique, des
forums d’usagers, etc. l’organisation sociale a pris une nouvelle
orientation. Cette tendance qualifiée de « distribuée » s’impose au regard
des orientations centralisées ou fédérées qui jusqu’alors dominaient
largement l’organisation sociétale.

Dans le monde Internet, on a très vite parlé de Web 2.0 ou de Web
participatif pour parler de cette rupture. La question de l’organisation
sociétale n’était pas jusqu’alors un enjeu pour Internet et ses
utilisateurs. En effet, Internet avait focalisé ses applications sur
l’échange et la communication et guère sur l’organisation sociétale de ses
usagers. Cependant, la création de site Internet particulièrement dédiée aux
réseaux sociaux va rapidement changer la donne.

L’engouement généré pour des sites comme Myspace ou Facebook ont surpris
tout le monde d’autant plus que la société civile était déjà traversée par
de nombreuses couches d’organisation formant un tissu sociétal dense comme
les organisations religieuses, les associations sportives, culturelles,
caritatives, les clubs de toute sorte, les partis politiques, les syndicats,
les ONG, etc.

Ce phénomène pourrait trouver une explication : d’abord, il y a une question
d’ego ou d’existence. En créant ou en s’inscrivant dans un réseau social :
on existe, on s’expose, on communique et on échange. Basée sur une approche
volontaire, gratuite, non coercitive et non contraignante, les réseaux
sociaux offrent une assez grande liberté d’appartenance et un bas niveau
d’entrée, d’implication ou de contrainte. Après l’inscription, la
participation est volontaire et il n’y a aucune implication si l’on sort du
réseau. Ce lien entre une forte visibilité et une faible contrainte est
essentiel. C’est en tout les cas ce qui faisait défaut dans les autres
formes d’organisation sociétale précédente. Ensuite, la contribution
volontaire est très largement payée en retour. Si vous demandez une
information ou vous cherchez un renseignement pour vos propres besoins alors
il se trouve toujours quelqu’un pour y répondre et souvent dans un laps de
temps très court. Du coup, votre propre contribution paraît minime au regard
de ce que le réseau peut vous offrir. En fait, l’ensemble des connaissances
du réseau est tellement supérieur à vos propres connaissances que celui-ci
semble les étendre à l’infini. Cet état de fait rend les réseaux sociaux
objectivement très attrayants. Ici encore, les réseaux sociaux se
distinguent des formes d’organisation sociétale antérieures car ils sont
avant tout basé sur votre propre « empowerment ».

Enfin, par la création d’un espace/temps complètement renouvelé, les
participants peuvent explorer leur propre modernité globalisée. L’espace est
à la fois sans frontière territoriale et sans frontière thématique. On parle
de tout avec tout le monde. Les territoires virtuels ainsi recomposés
offrent un degré de liberté jusqu’alors non exploré par les citoyens du
monde. L’ailleurs est souvent ici et inversement. C’est déroutant et
réconfortant. Le monde mue vers de nouveaux découpages spatiaux directement
liés aux pratiques. Il n’y a pas de pré découpage, de séparation imposée,
tout dépend de la volonté de chacun et du collectif dans lequel on entre et
d’où l’on sort tout aussi vite. Le temps lui aussi se recompose. Temps
partiel, temps différé, temps réels, etc. tout s’organise dans une
temporalité maîtrisée. On choisit son mode, on structure son temps. C’est à
la fois magique, ludique et puissant. Plus question de fuseau horaire,
d’agenda quotidien, de rendez-vous fixe, d’horloge ; ce qui compte, c’est la
décision temporelle de la communication. L’e-mail diffère, Twitter agende,
le chat est en « live », le RSS en flux continu, le SMS trace, etc. le temps
décale, se décide. Evidemment, cette recomposition de l’espace-temps dans
les relations sociales crée la nouveauté mais aussi la potentialité. Etre
acteur de son temps et de son espace devient ainsi la dernière grande
aventure des temps modernes. La jeunesse l’a bien compris en devenant
planétaire tant dans ses choix musicaux que télévisuels ou informationnels.
Participer aux réseaux sociaux, c’est donc aussi découvrir ces nouveaux
espaces. La montée en puissance rapide des réseaux sociaux peut s’expliquer
ainsi. Il est bien clair que d’autres facteurs jouent aussi un rôle comme la
gestion d’une carrière à travers le network, la rencontre de personnes dans
des rendez-vous amoureux ou encore la recherche d’idées, de projets
nouveaux. Toujours est-il que le Web 2.0 a engendré un processus nouveau qui
renforce l’organisation distribuée de la société.



*Les institutions de la gouvernance Internet*

 Dans la courte histoire d’Internet (40 ans sépare ARPANET des réseaux
sociaux) un nombre limité d’institutions ont participé à sa genèse et à son
développement. Aujourd’hui, les institutions forment ensemble une petite
« galaxie » en charge de sa gouvernance comme par exemple la régulation, la
certification, l’évaluation, l’attribution des noms de domaines et des
adresses IP, etc. Le pouvoir très distribué s’exprime avant tout dans le
processus, l’anticipation et l’évolution de ce phénomène. Comprendre cette
logique permet d’évaluer le fonctionnement de la gouvernance distribuée car
Internet est devenu central dans la manière de façonner notre avenir et à
travers lui, notre histoire et l’établissement de nos choix de vie.

Tentons ici l’exercice. La gouvernance d’Internet implique trois types
d’acteurs : les gouvernements, le secteur privé et la société civile
agissant sur trois niveaux différents selon la définition du Professeur
Yochai Benkler [12] <#_ftn19> de la Law School de Havard à savoir,

·         Le niveau des « infrastructures physiques »

·         Celui des « règles » (codes, normes et standards) de communication


·         Et enfin celui du « contenu » des données, des informations et des
applications qui circulent dans le réseau.

 Cela nous donne la matrice suivante :





 *Matrice au niveau d’intervention des acteurs de la gouvernance*





* *

*Infrastructures*

* *

* *

*Règles*

* *

*Contenus*

* *

* *

*Gouvernement*

* *



Réseau public





UIT

OMC

(…)





Administration

En

ligne



* *

* *

*Privé/Entreprises*

* *



Réseau privé





ICANN

VeriSign





Google

Apple

Microsoft

(…)



* *

* *

*Société*

*civile*



WiFi







Internet Society

W3C



Sites Internet

Réseaux sociaux

Blogs

Podcasts







Reprenons en détail les éléments de cette matrice en les étudiants selon le
découpage infrastructures-règles-contenus.



*Les infrastructures physiques *

 Au début d’ARPANET dans les années 60/70, le Département de la Défense
américaine (DoD) met à la disposition des chercheurs l’infrastructure
physique (backbone). Puis comme les utilisateurs pour l’essentiel des
centres de recherche américains (puis mondiaux) augmentent, c’est le Fond
National scientifique américain (NSF) qui dès 1984 prend progressivement le
relais alors que le Département de la défense américaine crée ses propres
réseaux sécurisés et distinct du réseau NSFnet[13] <#_ftn20>. En 1990, le
réseau ARPANET est officiellement arrêté. En 1991, NSFnet qui avait pris
beaucoup d’importance dans les milieux académiques s’ouvre aux acteurs du
secteur privé. Dès lors notamment sous la pression de la libéralisation des
télécommunications, le privé devient petit à petit le principal acteur des
réseaux et ceci également au niveau des infrastructures. A part de rares
exceptions comme la Chine, les infrastructures Internet sont aujourd’hui la
propriété du secteur privé et géré par lui.

Les usagers par le biais d’abonnements ont eu accès aux services de
transmission de données comme le IPSS X.25, l’ADSL, l’ISDN ou encore les
câbles des réseaux de télévision privées. En payant une redevance
directement aux entreprises de télécommunications, les usagers ont été
« branchés » aux réseaux via des  « fournisseurs »  de service comme AOL,
Free, Orange, Sunrise, etc.  Cependant, cette double offre  «services » et
« accès au réseau » fut dans biens des cas remplacée par un seul
intermédiaire, la compagnie de télécommunications ou de télévision par
câble, pour leur abonnement unique qui procure les deux services voir
d’avantage.

Cette simplification masque en fait une compétition qui s’est fortement
accrue étant donné que pratiquement seul le branchement devient payant. Les
contenus sur Internet sont largement gratuits, en dehors bien sûr de
quelques services tels que le e-commerce, l’e-banking, etc.

Il ne faut pas oublier qu’au niveau des infrastructures il est nécessaire
d’installer de nombreux serveurs disséminés dans le monde pour garantir une
qualité des services et optimiser la rapidité des réponses. Ainsi les
principaux acteurs de contenu Internet tels que Google, Yahoo. Youtube, etc.
s’appuient sur des « backbones » mis en place par des entreprises
spécialisées comme par exemple Akamai. En bref, les infrastructures sont
aujourd’hui avant tout l’affaire du secteur privé.
 *
*

* *

*Les règles*
 *
*

Il en est tout autrement en ce que concerne l’élaboration des règles du jeu.
Ici plusieurs niveaux de gouvernance font intervenir plusieurs centaines
d’acteurs. C’est par exemple le cas pour l’évolution des règles, des codes,
des normes et des standards. **

Pour simplifier, il y a cinq différents champs d’action  pour la régulation.

1.    L’attribution des noms de domaine et des adresses physiques liées
(aujourd’hui ICANN en est responsable)

2.     L’architecture de gouvernance d’Internet (avec notamment IAB qui est
aujourd’hui une composante d’Internet Society)

3.    L’évolution des normes scientifiques et technologiques à travers les
RFC  est supportée par principalement trois groupes technologiques IETF
(Internet Engineering Task Force), l’IEEE (Institute of Electrical and
Electronics Engineers) et les entreprises actives dans le domaine des
standards

4.    L’évolution de la société civile représentée par des organisations
tels que W3C, Internet Society

5.    La gouvernance de la gouvernance qui est discutée dans les grandes
conférences internationales : WSIS. Forum IUT, Forum IEFT, TED, LIFT, etc.

Dans chacun de ces cinq champs, des controverses entre acteurs ont lieu car
de toute évidence, la gestion de cette galaxie d’institutions chargée
deconduire une gouvernance distribuée n’est pas évidente malgré le fait
qu’elle a produit depuis plusieurs décennies un système extrêmement
efficace.

Un rapide survol de quelques exemples de controverses permettra de saisir la
complexité du processus de gouvernance.

·                La question centrale du système de l’attribution des noms
de domaine (DNS) qui est principalement aux mains d’une entreprise
californienne à but non lucratif ICANN sous contrat avec le Département du
Commerce américain (DoC) biaise un peu le système qui voudrait être ouvert
et distribué. L’UIT (Union Internationale des Télécommunications) ou un
autre organisme international plus neutre seraient un choix plus judicieux
pour certains observateurs.



·                La question des choix technologiques souvent issue de
processus peu transparents, pose également problème. La société civile a
depuis quelques années pris un peu de pouvoir face aux choix des entreprises
du secteur privé, mais il existe des positions dominantes comme celles de
Google ou Microsoft qui sont souvent attaqués par la société civile.



·                Enfin, la question du contrôle démocratique de la
gouvernance elle-même fait problème comme l’a montré la conférence mondiale
de la société de l’information (WSIS) à Genève en 2003 et à Tunis en 2005.
La question de la gouvernance reste aujourd’hui largement ouverte même si le
processus a démontré une remarquable efficacité malgré une organisation en
apparence chaotique.
 *
*

* *

*Les contenus*

 Au niveau des contenus, une grande liberté est généralement adoptée par les
acteurs gouvernementaux, privés ou de la société civile. La censure est
relativement faible à l’exception de certains pays comme la Chine et sur
certaines thématiques comme le terrorisme, le négationnisme, la pédophilie
ou plus récemment sur l’usage de Facebook dans les administrations ! Mais
habituellement le fondement américain de la liberté d’expression du
« premier amendement » de la Constitution fait loi. La liberté est ainsi
largement garantie et ceci d’autant plus, que le principe du « end to end »
interdit en principe le contrôle des contenus par les gestionnaires et les
intermédiaires en charge des infrastructures d’Internet.

On pourrait même ajouter qu’au-delà de l’esprit de liberté qui règne sur
Internet, il y a une véritable volonté d’ « empowerment » des usagers si
bien que dans certains domaines comme ceux de l’information ou de la
connaissance, on assiste à une authentique redistribution des tâches, des
actions, des responsabilités et des propositions. Aujourd’hui par exemple,
les professionnels des médias n’ont plus le monopole absolu de l’information
car pratiquement tout le monde à la possibilité de participer comme source
d’informations (YouTube, ...) à l’industrie média. C’est une révolution en
soi. Il en est de même dans le domaine de la connaissance avec Wikipédia et
la mise en ligne de livres par Google, Amazon, etc. La connaissance est
partagée et distribuée gratuitement ou presque. Cette distribution vers les
usagers de l’information et de la connaissance représente le cœur même du
pouvoir distribué et de l’émergence des nouvelles « soft » institutions.

*Les acteurs*

Comme nous l’avons vu, il existe trois type d’acteurs : les gouvernements
(et les organisations internationales de type intergouvernemental), les
entreprises du secteur privé et les organisations de la société civile

Au niveau des gouvernements. IIs participent souvent de manière passive au
développement d’Internet tout en tentant de maintenir une certaine
souveraineté sur leur territoire (l’exemple de Google Street View est là
pour confirmer cette attitude. Les Etats-Unis, au contraire, opèrent de
manière plus influente et même souvent au-delà de leur propre territoire.
Ceci s’explique en partie par le rôle pionnier que les Etats-Unis ont joué
dans le développement d’Internet mais pas seulement. Leur empreinte est
partout. Leur hégémonie économique aussi. Dès le début, le Département de la
Défense avec ARPANET puis le Département du Commerce avec la gestion des
noms de domaines (DNS) et enfin le Fond national de la recherche
scientifique (NSF) avec le réseau NSFnet ont été les principaux acteurs du
développement d’Internet. Aujourd’hui encore, le gouvernement américains
mais surtout les « soft » institutions américaines (comme W3C, Internet
Society…) pèsent de tout leurs poids dans le développement d’Internet.

Les autres gouvernements et notamment les Européens et les Chinois agissent
pour l’essentiel à travers l’Union International des Télécommunications

(UIT) et essaient d’internationaliser la gouvernance d’Internet. Les Forums
mondiaux WSIS[14] <#_ftn21> en 2003 et 2005 organisé par l’UIT ont été des
moments forts de cette confrontation.

Mais à cette occasion, les positions n’ont guère changé à l’exception
peut-être de la création du « Working Group on Internet Governance » (WGIC)
qui a tenté de clarifier les différentes positions des acteurs notamment
gouvernementaux. Ainsi l’ONU par l’intermédiaire de son agence UIT essaie
d’internationaliser la gouvernance dans une vision plus centralisée de
celle-ci. C’est aujourd’hui, loin d’être le cas.

Au niveau des entreprises du secteur privé. Là aussi les poids lourds sont
américains. Google, YouTube, Yahoo, Facebook, Microsoft mais aussi Apple,
Cisco, etc. jouent les premiers rôles en imposant souvent leurs règles.
Quelques contributions européennes font malgré tout un peu contrepoids
(Linux, Skype, Nokia et bien sûr le Web qui sont d’origine européenne) Du
fait que le domaine est toujours en plein évolution, les innovations
technologiques décident souvent la voie à suivre. Dans le futur, un
rééquilibrage est à prévoir car la Chine possède actuellement plus
d’internautes que la population totale des Etats-Unis ! Ce renversement des
équilibres viendra sans doute chambouler les comportements des usages et
peut-être de la gouvernance.

En effet, dans le monde Internet les facteurs déterminants sont le trafic et
le nombre de visiteurs uniques par site, de pages vues, de clics (hits). Le
pouvoir appartient aux usagers qui imposent un modèle économique fondé
souvent sur la publicité. Cette logique massivement utilisée sur Internet a
amplifié la course au trafic. Google en est l’expression symptomatique. Ce
phénomène a placé la société civile dans une position de choix. Elle peut
peser de tout leur poids dans la balance sur les choix et directement agir
sur les équilibres du commerce et de la gouvernance. Même s’il faut parfois
relativiser ce balancier, leur voix est largement entendue. Il arrive même
qu’une entreprise ou un gouvernement agissant contre leurs intérêts et
aussitôt une fronde des internautes est menée les obligeant à reconsidérer
leur pratique. Par exemple lorsque Facebook a voulu mettre en place un
système de contrôle qui ciblait les utilisateurs en fonction des
informations émises dans leur profil a créé une polémique. En effet, les
utilisateurs ont demandé à être explicitement mieux avertis par un message
et une page sur l’usage et le devenir des données personnelles. Facebook a
du justifier ses actes auprès de ses membres et a du faire marche arrière
face à la levée de bouclier des usagers. Ce qui s’est passé dans une
certaine mesure en Iran lors des évènements qui suivirent les élections
présidentielles en 2009, a montré que le gouvernement a vainement essayé de
contrôler l’accès Internet sur son territoire sans pouvoir déjouer les
manœuvres astucieuses des internautes. Dans cette gouvernance
extraordinairement directe[15] <#_ftn22>, les pouvoirs centraux doivent
composer avec ceux du type distribué.

------------------------------

1 <#_ftnref1> voir également « libraries of the futur  »(1965) J, Licklider

[1] <#_ftnref2>
http://fr.Wikipédia.org/wiki/Ted_Nelson<http://fr.xn--wikipdia-f1a.org/wiki/Ted_Nelson>

2 <#_ftnref3> fr.Wikipédia.org/ <http://fr.xn--wikipdia-f1a.org/>

3 <#_ftnref4>fr.Wikipédia.org/wiki/Request_for_comments<http://fr.xn--wikipdia-f1a.org/wiki/Request_for_comments>

4 <#_ftnref5>www.commentcamarche.net/.../tcpip.php3

<#_ftnref6>

5 www.isoc.org/

<#_ftnref7>

[2] http://fr.Wikipédia.org/wiki/AltaVista<http://fr.xn--wikipdia-f1a.org/wiki/AltaVista>

[3] <#_ftnref8>
http://fr.Wikipédia.org/wiki/Google<http://fr.xn--wikipdia-f1a.org/wiki/Google>

6 <#_ftnref9> www.icann.org/tr/french.html

7 <#_ftnref10> www.napster.com/

<#_ftnref11>8  http://fr.Wikipédia.org/wiki/<http://fr.xn--wikipdia-f1a.org/wiki/>
Blog

<#_ftnref12>9  http://www.itu.int/wsis/

<#_ftnref13>10http://www.myspace.com/www.facebook.com

<#_ftnref14>11 http://fr.Wikipédia.org/wiki/<http://fr.xn--wikipdia-f1a.org/wiki/>
YouTube

[8] <#_ftnref15>http://fr.Wikipédia.org/wiki/<http://fr.xn--wikipdia-f1a.org/wiki/>
Nom_de_domaine

[9] <#_ftnref16>
http://fr.Wikipédia.org/wiki/<http://fr.xn--wikipdia-f1a.org/wiki/>
Hypertexte

[10] <#_ftnref17>http://fr.Wikipédia.org/wiki/Navigateur_web<http://fr.xn--wikipdia-f1a.org/wiki/Navigateur_web>

[11] <#_ftnref18>
http://r.Wikipédia.org/wiki/<http://r.xn--wikipdia-f1a.org/wiki/>
Moteur_de_recherche

[12] <#_ftnref19> www.Benkler <http://www.j.benkler/>.org « from consumers
to users …http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf

[13] <#_ftnref20> National Science Foundation Network acronyme pour est
réseau américain de la recherche en sciences. Voir
en.Wikipédia.org/.../National_Science_Foundation_Network<http://en.xn--wikipdia-f1a.org/.../National_Science_Foundation_Network>

[14] <#_ftnref21> World Summit on Information Society

[15] <#_ftnref22> Voir « Economie directe » Cédric Van der Poel et Xavier
Comtesse (2007), www.rezonance,ch

------------------------------

<#_ednref1>



-- 
Work: http://en.wikipedia.org/wiki/Dhurakij_Pundit_University - Research:
http://www.dpu.ac.th/dpuic/info/Research.html - Think thank:
http://www.asianforesightinstitute.org/index.php/eng/The-AFI

P2P Foundation: http://p2pfoundation.net  - http://blog.p2pfoundation.net

Connect: http://p2pfoundation.ning.com; Discuss:
http://listcultures.org/mailman/listinfo/p2presearch_listcultures.org

Updates: http://del.icio.us/mbauwens; http://friendfeed.com/mbauwens;
http://twitter.com/mbauwens; http://www.facebook.com/mbauwens
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://listcultures.org/pipermail/p2presearch_listcultures.org/attachments/20091019/3ad538fb/attachment-0001.html>


More information about the p2presearch mailing list