Second batch of French articles

This commit is contained in:
maxigas 2018-01-12 15:57:46 +01:00
parent f4fe56c5a5
commit 188d2ed365
5 changed files with 1840 additions and 0 deletions

View file

@ -0,0 +1,491 @@
# Du hardware libre aux technologies réappropriées
***Elleflâne***
Le concept de hardware est assez nouveau, très large, en perpétuelle
rénovation et radicalement différent de celui du logiciel. Il existe une large
controverse sur ce qu'il est et sur ce qu'il n'est pas, et en l'absence d'une
définition approuvée de tous, chacun l'interprète à sa façon. Par exemple,
pour moi, le hardware va du composant électronique, du condensateur, du
transistor, du led, du circuit intégré, d'un artefact jusqu'au velo-charrue,
de la description d'un processus industriel jusqu'à la fabrication d'une
brique réfractaire, un ordinateur, une imprimante 3D, un mécanisme pour
l'épuration de l'eau écrit en code source ouvert, un processus de recyclage de
plastique, la création d'une fraiseuse CNC, une méthode d'analyse de terres
contaminées grâce à des capteurs ou le code d'un microcontrôleur.
Mais si nous adoptons une vision plus arrêtée, nous pouvons dire que
l'histoire du hardware libre est parallèle à celle de l'informatique. En 1970,
le Homebrew Computer Club [^1] s'est avéré être un hybride composé par le
mouvement radical étudiant, par des entrepreneurs du domaine informatique de
la communauté de Berkeley et par des amateurs de l'électronique. Il est
ironique de voir comment bon nombre de ces garages regorgeant autrefois de
créativité sont aujourd'hui des musées, comme le Bill Hewlett et Dave Packard,
qui ont géré le premier dispositif HP.
Dans les années 90, de la même manière que les programmes de logiciels
pouvaient être interchangeables, les FPGA [^2] permettaient également
l'échange électronique de conceptions libres. L'Open Design Circuits [^3],
lancée par Reinoud Lamberts, est la première communauté Web à avoir créé un
hardware libre dans l'esprit des logiciels libres. Et même s'il n'existait
aucun logiciel libre adéquat pour la conception électronique, ce portail a
impliqué de nombreuses personnes qui ont assis les bases pour une communauté
plus large.
En 2002, le "Challenge to Silicon Valley" [^4], lancée par Kofi Annan, a
introduit plusieurs projets de développement de hardware en mettant en avant
la nécessité de développer des technologies adaptées aux différentes réalités
socioculturelles et économique. Cette ligne de développement des technologies
s'est également associée à la lutte mondiale contre la brèche numérique à
travers les initiatives de ICT4Development. Celles-ci ont été en général le
résultat de partenariats entre l'académie et les organisations du secteur
tertiaire pour implanter des technologies adaptées aux besoins des pays
définis de manière erronée comme "en développement".
Toutefois, aujourd'hui encore, le panorama de la production de hardware est
essentiellement marqué par les limites imposées par les brevets industriels et
la propriété industrielle [^5]. Celles-ci sont l'ensemble de droits que
possède une personne physique ou morale sur une invention. Elles accordent
deux types de droits: le droit à utiliser l'invention, la conception ou le
signe distinctif, et le droit à en interdire l'accès à un tiers. Le droit
d'interdire (*lus prohibendi*) permet au titulaire du droit de demander le
paiement d'une licence, appelée redevance ou royaltie, qui possède des limites
temporelles et territoriales.
## Hardware libre: jusqu'où et de quelle manière ?
Toutes les étapes suivantes doivent faire partie de la mise en place de
hardware libre: une conception, un processus de fabrication, des matières
premières, une distribution, un modèle d'activité, un entretien, une mise en
œuvre, une reproduction, une force de travail, un accès à la documentation et
à la technique de fabrication. Partant de ce contexte, si nous tentons de
définir ce qu'est le hardware libre, nous devons comprendre comment les étapes
de production additionnées aux types de résultats tangibles possibles peuvent
être interprétés par des licences libres.
Richard Stallman lui-même [^6], président de la Free Software Foundation [^7]
et créateur de la licence GNU GPL [^8] qui garantit les 4 libertés suivantes
(liberté d'utilisation, d'étude et de modification, de distribution et de
redistribution des versions modifiées), affirme que *"les idées du logiciel
libre peuvent être appliquées aux archives ou aux fichiers nécessaires à leur
conception et à leur spécification (schémas, PCB, etc.), mais non au circuit
physique en soi" [^9].
Il convient également de noter qu'il existe le hardware statique, composé par
les éléments tangibles des systèmes électroniques et le hardware libre
reconfigurable, décrit grâce à un langage de description composé par des
fichiers de texte qui contiennent le code source. De ce fait, les mots
"hardware libre" et "conception de hardware libre" sont deux choses
différentes. La conception et l'objet physique ne peuvent se confondre bien
qu'ils se fondent parfois l'un dans l'autre.
Tous ces facteurs entraînent une confusion lorsqu'il faut définir de quelle
façon le hardware libre l'est vraiment. S'il est certain que chaque composant
et chaque étape de production peuvent s'adapter aux quatre libertés
spécifiques du logiciel libre, il convient également de dire qu'aujourd'hui
aucun projet ne peut englober toute la chaîne depuis le strictement
libre. Nous utilisons donc actuellement le terme de hardware libre/open
hardware sans avoir à appliquer les quatre libertés de manière restreinte dans
tous ses domaines. Il existe de nombreuses initiatives consolidées dans ce
domaine, bien que les modèles d'utilisation et de rapprochement soient
différents selon les motivations sociales, économiques et politiques de chaque
collectif ou communauté derrière leur développement.
Une multitude de licences différentes tentent de clarifier ces questions. Par
exemple, le Free Hardware Design [^10], est un concept qui peut être copié,
distribué, modifié et fabriqué librement. Cela ne veut pas dire que la
conception ne peut être vendue, ou que toute les pratiques de conception du
hardware soient libres de coût. Le Libre Hardware Design est comme le free
hardware design, mais il éclairci le fait que le mot libre se réfère à la
liberté et non au prix. Pour l'Open Source Hardware [^11], toute l'information
de conception est à la disposition du public en général, et elle peut se baser
sur du free hardware design ou sur une conception restreinte d'une certaine
manière. L'Open hardware [^12], une marque enregistrée par l'Open Hardware
Spécification Program, s'avère être une forme limitée de Open Source Hardware,
dans la mesure où la seule exigence est de mettre à disposition une quantité
d'informations restreintes concernant la conception pour pouvoir par exemple
procéder à une réparation. Enfin, en guise de synthèse, Patrick McNamara
définit pour l'Open Hardware les niveaux d'ouverture suivants:
1. Interface ouverte: l'utilisateur dispose de toute la documentation
lui permettant de savoir comment une pièce de hardware libre doit
remplir la fonction pour laquelle elle a été conçue.
2. Conception ouverte: la documentation disponible est suffisamment
détaillée pour qu'un tiers puisse créer un dispositif fonctionnel et
compatible.
3. Mise en œuvre ouverte: met à disposition la liste de tous les
matériaux nécessaires à la construction du dispositif.
Comme les licences spécifiques pour hardware libre sont encore en
développement, le panorama actuel est marqué par une grande variété. Certains
groupes utilisent la GNU GPL [^13] comme le Free Model Foundry [^14] qui
permet la simulation de modèles, de composants et de vérification, ESA Sparc
[^15] qui développe une CUP pour 32 bits ou Opencores [^16], une communauté
qui développe des IP cores. D'autres groupes utilisent la licence Open Source
initiative du MIT [^17] comme le Free-IP Project [^18] et LART [^19]. Quant à
la licence GNUBook [^20], elle se base sur la licence GPL mais avec des ajouts
qui concernent les droits environnementaux et humains.
Il existe également des groupes qui développent de nouvelles licences comme la
Simputer GPL [^21], la Freedom CPU [^22], l'OpenIPCores [^23], l'OHGPL [^24],
l'Open NDA [^25], l'OpenPPC [^26] (basée sur l'Apple Public Source Licence) et
la Hardware Design Public Licence [^27] du groupe Open Collector [^28]. Parmi
celles-ci, nous distinguons la licence Hardware du Cern OHL [^29] écrite à
l'origine pour les conceptions du CERN (Accélérateur de Particules) logées
dans le Dépôt Open Hardware.
## Modèle d'activité et durabilité dérivées du hardware libre libre
Selon le magazine Wired, une bible du techno-positivisme, l'Open Hardware
devient une "commodity", à savoir une marchandise. Même s'il n'existe pas
encore un modèle clair d'activité, il est sous-entendu qu'il peut répondre à
des niches de marché qui jusqu'alors n'ont pas été couvertes, en appliquant la
logique de la "long tail" ou large queue de distribution de biens et de
services (du style Amazon) à la dimension quasi infinie du
hardware. Concernant la commercialisation, la conception de hardware libre
peut être mise en œuvre par une entreprise et ensuite être commercialisé, la
seule contrainte est de conserver une conception libre.
En 2010, Torrone et Fried [^30] ont compilé 13 exemples de compagnies qui
vendaient du Hardware Open Source et qui facturaient, toutes réunies, 50
millions de dollars. À l'heure actuelle, il existe plus de 200 projets de ce
type et l'on prévoit que la communauté de Hardware Open Source facturera 1000
millions de dollars en 2015. Adafruit [^31], Arduino [^32], Chumby [^33],
Liquidware [^34] et Makerbot [^35] ont respectivement des bénéfices qui
atteignent plus de 1 million de dollars. Tout cela démontre qu'il existe de
réelles possibilités de générer des gains économiques avec des projets basés
sur une activité ouverte et partagée avec la communauté. Ce qui est moins
clair, c'est: Est-il possible d'envisager une réelle politique anticapitaliste
basée sur un projet économique et de redistribution des biens en lien avec des
logiques de durabilité et de décroissance ?
Il existe un modèle de durabilité intéressant pour l'Open Hardware qui réside
dans le crowdfunding [^36] et qui consiste à recevoir de petites quantités de
donations/travail d'individus ou groupes pour initier un projet. Huynh et
Stack ont créé par exemple, l'Open Source Hardware Reserve Bank [^37] pour
couvrir les coûts associés aux révisions continues du hardware libre durant le
processus de conception estimés à près de 40% du budget initial nécessaire. Le
projet cherche à réduire les risques pour que les projets de hardware libre
puissent passer à la phase de production. Enfin, ils facilitent également
l'expérimentation en permettant la construction et la distribution de petites
quantités de produits considérés comme "non évolutifs" étant donné "qu'une
mauvaise idée d'activité" est différente "d'une mauvaise idée de hardware
libre".
Le Open Money est un autre exemple. Il permet simplement aux hackers et non à
des investisseurs de capital-risque ou à d'autres compagnies d'investir dans
des projets spécifiques en dupliquant le nombre de pièces produites et en
réduisant leur coût unitaire entre 10 et 30%. Une communauté peut également
autofinancer ses projets grâce au microcrédit. Open Money [^38] et
Metacurrency [^39] proposent par exemple de nouveaux formats de monnaie et
cherchent à promouvoir l'union de monnaies existantes avec des certificats de
microcrédit.
Enfin, l'Open Design Manifeste [^40] unit deux tendances. D'un côté, les
personnes offrent leur savoir-faire et leur temps à des projets pour le bien
commun, qui ne reçoivent généralement pas de soutien par manque d'intérêt
commercial. De l'autre, il fournit un cadre pour le développement de projets
et de technologies avancées qui pourraient aller au-delà des ressources de
quelque entreprise ou pays que ce soit et impliquer des personnes qui, sans le
mécanisme copyleft, ne pourraient collaborer d'une autre façon.
Voyons maintenant quelles sont les problématiques liées à la durabilité du
hardware libre.
D'une part, l'absence de consensus concernant la propre définition du hardware
libre est extrapolée aux possibles modèles d'activités. Un dispositif ouvert
est différent de ce qui existe et prédomine sur le marché dans la mesure où ce
qui est important ce n'est pas le produit fini (hardware manufacturé), mais
les activités intangibles, l'information relative à la conception du hardware
qui s'ouvre à l'utilisation publique. D'autre part et comme nous l'avons vu
antérieurement, les quatre libertés du logiciel libre ne peuvent être
complétement appliquées au hardware , au vu de leur nature différente. L'un a
une existence physique et l'autre non. De ce fait, une conception physique est
unique et sa répartition dépend de sa facilité de reproduction.
De plus, il existe une dépendance technologique envers les composants importés
qui peut se traduire par: les chips sont-ils disponibles ? De ce fait, il
existe des modèles d'exclusion étant donné que toute personne n'est pas
capable de réaliser un hardware libre, dû aux implications causées par le type
d'infrastructure nécessaire. La personne qui souhaite utiliser le hardware
libre conçu par une autre personne, doit le fabriquer en achetant les
composants nécessaires et en reconstruisant le design. Tout ceci a un
coût. Conséquence logiques, seules quelques entreprises possèdent cette
connaissance, et la gardent jalousement pour que les personnes restent de
simples consommateurs de produits.
## Les modèles de production différenciés
Nous observons deux modèles conventionnels de production/distribution. D'une
part, le modèle basé sur la fabrication centralisée, avec un même produit
disponible dans de nombreux lieux, permettant d'augmenter le prix final au
consommateur. D'autre part, un système de fabrication distribuée basée sur un
nombre de petits groupes indépendants qui produisent le même design pour le
distribuer localement. Pour que les deux modèles soient durables, les
initiatives de hardware libre ont besoin de plates-formes qui regroupent et
permettent le contact entre les moyens de production et les personnes qui
souhaitent créer.
Par rapport au modèle de production distribuée, nous voyons qu'il existe
actuellement de nombreuses communautés de hardware libre qui cherchent à
développer des alternatives sans objectifs mercantilistes. Ces groupes
cherchent en général à créer de l'autonomie, faciliter la liberté pour toutes
et renverser les effets sociaux, environnementaux et politiques néfastes liées
à la production de hardware propriétaire.
Il existe par exemple différentes rencontres encouragées par les mouvements
sociaux comme le Hackmeeting [^41], le Hardmeeting [^42], le HacktheEarth
[^43], le Extrud\_me [^44], ou encore le OSHW Conference [^45], le Chaos
Communication Congress [^46] ou les rencontres Dorkbot où l'on peut trouver
des personnes qui développent des projets de hardware libre. Le projet OSWASH
[^47] (Open Source Washing machines) représente parfaitement ce que nous
définissons comme la recherche et le développement de technologies appropriées
pour lesquelles le seul hardware qui fait sens est celui qui est libre, celui
qui a été réapproprié au privé et rendu aux biens communs.
Au niveau de l'État espagnol des lieux comme le Medialab Prado [^48], la
Laboral [^49] ou Hangar [^50], parient en général sur le développement du
hardware libre. Ainsi dans Hangar (Barcelone), nous trouvons BeFaco [^51], qui
développe du son avec hardware libre et FABoratory [^52], spécialisé dans la
fabrication d'imprimantes 3D. À Calafou, nous pouvons trouver le HardLab
Pechblenda [^53], un laboratoire de son électronique et biohacking depuis la
perspective transféministe. Enfin, depuis la XarxaCTiT [^54] (Réseau de
Science, Technique et Technologie) de la Coopérative Intégrale Catalane [^55],
nous développons une plate-forme d'échange de savoirs et de besoins au niveau
local, en créant un réseau d'associés, de producteurs, prosommateurs et
consommateurs de hardware libre et de technologies appropriées.
Dans une vision diamétralement opposée et en pariant sur une stratégie globale
pendant que cet écosystème complet de fabrication distribuée continue à
émerger, Chris Anderson [^56] suggère de fabriquer des projets d'Open Hardware
en Chine en utilisant Alibaba.com [^57]. Cette entreprise créée en 1999 est
devenue une compagnie pesant 12000 millions de dollars avec 45 millions
d'utilisateurs enregistrés et 1,1 million d'employés. Fabriquer en Chine est
un phénomène connu comme le phénomène Shanzai. À l'origine, ce terme décrivait
*"des bandits qui se révoltaient contre une autorité et qui commettaient des
actes qu'ils jugeaient comme justifiés".*
Le mouvement Shanzai représentait en 2009, 20% des téléphones mobiles vendus
en Chine et 10% des téléphones mobiles vendus dans le monde entier. Certains
fabricants ont tellement de succès qu'ils préfèrent favoriser leurs propres
marques au lieu de fabriquer des produits "pirates". Ce qui est intéressant
dans ces entreprises, c'est qu'en "piratant" des produits de marque, elles ont
établi une culture d'échange d'informations sur ces produits et ont généré du
hardware de conception ouverte, en se donnant du crédit les unes aux autres
quant aux améliorations apportées. C'est la communauté qui établit elle-même
cette politique et qui exclut ceux qui ne la suivent pas. Les Shanzai
comprennent et répondent aux besoins et aux goûts locaux, en établissant et en
maintenant des bases locales de fabrication et de distribution, appelées les
fabrications localisées. Toutefois, les conditions de travail surtout dans la
création de composants électriques sont déplorables et elles supposent un
risque physique pour la santé [^58]. L'on ne peut pas dire non plus qu'elles
cherchent la justice sociale pour ses chaînes de travailleuses. L'Open Source
Hardware Work Licence (en attente d'écriture) doit exiger des conditions de
travail respectueuses des personnes, de leur liberté et de leur entourage.
## Conclusions
Utiliser et créer du hardware libre protège et défend la souveraineté
technologique car cela permet aux personnes d'avoir une certaine indépendance
technologique en évitant qu'aucune ne dépende d'une autre comme fournisseur de
ressources nécessaires pour son développement. La réutilisation et
l'adaptation de conceptions permettent d'innover et d'améliorer, de minimiser
les coûts et les temps de conception, de faciliter le transfert de la
connaissance et d'éviter que s'accentue l'analphabétisme numérique pour des
motifs économiques.
En permettant aux personnes de savoir comment cela fonctionne, comment
entretenir et réparer la technologie dont elles ont besoin, elles peuvent
cesser d'être de simples consommateurs technologiques. Utiliser et créer un
hardware libre, active et entraîne plus de bien-être qu'utiliser un autre type
de hardware même s'il faut passer en premier lieu par on ne sait combien de
déception dans son apprentissage. Outre la propre conviction politique, la
liberté représente la possibilité, la capacité d'apprendre et de construire
son propre monde, cela nous rend moins aliénées et nous éloigne encore plus de
la participation à la structure capitaliste.
L'adéquat et l'inadéquat ne sont pas des attributs en soi d'une
technologie. Leur qualification est le résultat de l'évaluation de ses
caractéristiques par rapport à (1): un état d'organisation de la production et
d'un système économique ; (2) des niveaux de distribution des ressources et
(3) un état de développement du système technologique en utilisation. Nous
analysons la façon dont se désertifie une société à travers la techCnologie:
obsolescence programmée, dépendance technologique et introduction de
technologies inappropriées. Leur dévastation et leur récupération sont quasi
impossibles si elles restent à l'intérieur des puissantes chaînes du système
capitaliste.
Car le monde du hardware libre libre est très complexe, et les liens et abus
qui se réalisent à travers le développement technologique ne semblent pas
respecter les libertés. C'est la raison pour laquelle je mise sur les
Technologies Réappropriées.
Celles-ci sont celles qui s'adaptent le mieux à des situations sociales,
culturelles et économiques. Elles exigent peu de ressources, impliquent un
coût moindre et un impact sur l'environnement très faible. Nous autres, nous
avons besoin d'une technologie réappropriée à l'industrialisation, qui
s'incorpore à nos technologies, nos techniques et notre quotidien, ainsi qu'à
nos traditions ancestrales qui de manière inhérente ont déjà une base
environnementale, durable et holistique. Des Technologies Réappropriées au
progrès, à l'analphabétisme et à l'aliénation, à la science immobile, aux
intérêts du pouvoir, réappropriée car décentralisée, organique, transmutable.
## Bibliographie
Annan, Kofi: Challenge to Silicon Valley. http://news.com.com/2010-1069-964507.html?tag=lh
Avis de Richard Stallman sur le hardware libre. http://features.linuxtoday.com/news_story.php3?ltsn=1999-06-22-005-05-NW-LF
Canals, Xavier: Wikipedias versus blogs. La création collective et l'accès universel au savoir.. http://www.bubok.com/libros/172033/Wikipedias-versus-blogsCasassas
Chaney, D: “L'industrie de la musique dans l'ère numérique: Participation des consommateurs à la création de valeur.”
Kessner, David: Open-source IP could ignite system-on-chip era. http://www.eetimes.com/story/speakout/OEG20000131S0007
Kessner, David: The economics of Free Core development. http://www.free-ip.com/Economics.htm
Khatib, Jamil: Free chips for all - The status of open hardware designs. http://www-4.ibm.com/software/developer/library/openhw.html?dwzone=opensource
Lessig, Lawrence: Culture libre. http://meta.wikimedia.org/wiki/w:es:Cultura_libre_(libro)
Noubel, Jean-François: Intelligence Collective, la révolution invisible. http://www.adin-noticias.com.ar/libros03.htm
Open Hardware and Free Software. http://www.opencollector.org/Whyfree/whyfree.html
Pomerantz, Gregory: Business Models for Open Source Hardware Design. http://pages.nyu.edu/~gmp216/papers/bmfosh-1.0.html
Rojas, León J. M.: Libéralité du savoir depuis la cession des droits de propriété intellectuelle.
Seaman, Graham: Free Hardware Design - Past, Present, Future. http://www.opencollector.org/Whyfree/freedesign.html
Vilbrandt, Carl, concepteur de GnuBook: Extending the Freedoms of Free and Open Information. http://www.opencollector.org/Whyfree/vilbrandt.html
------------------------------------------------------------------------
**Elleflâne:** Diplômée en ingénierie industrielle de l'Université
Nationale de l'Éducation à Distance, ainsi qu'en ingénierie de Design
industriel de l'université Pompeu Fabra. Elle réalise des
courts-métrages, des poèmes, des BDs, des romans fantastiques, des
contes, et invente des artefacts et autres technologies appropries.
Elleflane a également suivi des ateliers au sein de l'ESA (European
Space Agency).
------------------------------------------------------------------------
[1]: http://es/wikipedia.org/wiki/homebrew_Computer-Club
[2]: http://www.webopedia.com/TERM/F/FPGA.html
[3]: http://www.nationmaster.com/encyclopedia.Challenge-to-Silicon-Valley
[4]: http://www.opencollector.org/history/OpenDesignCircuits/index.html
[5]: http://www.oepm.es/es/propiedad_industrial/propiedad_industrial/
[6]: http:/stallman.org
[7]: http://www.fsf/org/
[8]: https://www.gnu.org/licences/licences.es.html
[9]: http://www.linuxtoday.com/infrastructure/1999062200505NWLF
[10]: http://www.opencollector.org/Whyfree/freedesign.html
[11]: http://www.oshwa.org/
[12]: http://www.openhardware.net/
[13]: https://www.gnu.org/copyleft/gpl.html
[14]: http://freemodelfoundry.com/
[15]: http://www.uv.es/leo/sparc
[16]: http://opencores.org/
[17]: http://opensource.org/licenses/MIT
[18]: http://web.media.mit.edu/~rehmi/freeip.html
[19]: http://www.debian.org/News/2000/20001123.en.html
[20]: http://blog.openlibrary.org/tag/gnubook/
[21]: http://www.simputer.org/simputer/license/
[22]: http://f-cpu.seul.org/
[23]: http://opencores.org/
[24]: http://www.opencollector.org/hardlicense/msg00007.html
[25]: https://joinup.ec.europa.eu/software/page/open_source_licences_and_complementary_agreements
[26]: http://www.opencollector.org/hardlicense/hdpl.html
[27]: http://www.opencollector.org/hardlicense/licenses.html
[28]: http://www.opencollector.org/hardlicense/hdpl.html
[29]: http://www.ohwr.org/projects/cernohl/wiki
[30]: http://www.marketwired.com/press-release/adafruits-limor-fried-phillip-torrone-featured-keynotes-for-make-conference-1649479.htm
[31]: https://www.adafruit.com/
[32]: http://www.arduino.cc/
[33]: http://www.chumby.com/
[34]: http://www.liquidware.com/
[35]: https://www.makerbot.com/
[36]: http://en.wikipedia.org/wiki/Crowdfunding
[37]: http://p2pfoundation.net/Open_Source_Hardware-Reserve_Bank
[38]: http://www.openmoney.org/
[39]: http://metacurrency.org/
[40]: http://opendesignnow.org/index.php/visual_index/manifestos/
[41]: http://sindomonio.net/hackmeeting/wiki/2014
[42]: http://giss.tv/dmmdb/index.php?channel=hardmeeting
[43]: https://calafou.org/es/contenthackthearth-2013-jornadas-autosuficiencia
[44]: http://xctit.cooperativa.cat/encuentros/extrud_me-2014/
[45]: http://2013.oshwa.org/
[46]: http://www.ccc.de/en/
[47]: http://www.oswash.org/
[48]: http://medialab-prado.es/
[49]: http://www.laboralcentrodearte.org
[50]: http://hangar.org
[51]: http://www.befaco.org
[52]: http://faboratory.org/
[53]: http://pechblenda.hotglue.me/
[54]: http://xctit.cooperativa.cat/
[55]: http://cooperativa.cat/
[56]: "In the Next Industrial Revolution, Atoms Are the New Bits."
[57]: http://www.openhardware.net/
[58]: http://www.publico.es/418911/la-gente-se-sentiria-molesta-si-viera-de-donde-viene-su-iphone

View file

@ -0,0 +1,237 @@
# Serveurs Autonomes
***Tatiana de la O***
Selon Wikipedia, en informatique "*un serveur est un dispositif informatique
matériel ou logiciel qui offre des* *services* [^0], à différents clients
[…] Il s'agit d'un ordinateur doté d'un programme qui réalise certaines
tâches pour le compte d'autres applications dénommées clients, qu'il s'agisse
d'un ordinateur central (mainframe), d'un ordinateur compact, d'un ordinateur
personnel, d'une PDA ou d'un système embarqué ; toutefois, il existe des
ordinateurs uniquement destinés à fournir les services de ces programmes : ce
sont les serveurs par excellence".* Pour résumer le plus simplement possible,
lorsqu'une personne se connecte avec son ordinateur à Internet et tape sur son
navigateur l'adresse d'une page Web qu'elle souhaite visiter, les contenus de
cette page Web sont logés dans un serveur. Ceux-ci peuvent être de diverses
natures. Dans l'article suivant, nous aborderons les serveurs dénommés
serveurs autonomes.
## Qu'est-ce qu'un serveur autonome ?
Nous pourrions définir les serveurs autonomes comme des serveurs autogérés
dont la durabilité dépend du travail volontaire et/ou rémunéré de ceux qui en
ont la responsabilité lorsqu'ils reçoivent un financement de la communauté des
usagers à laquelle ils servent. Leur fonctionnement ne dépend donc pas d'une
institution publique ou privée. Ceci étant, l'autonomie de ces services peut
varier, certains acceptent des subventions ou sont logés dans des institutions
éducatives alors que d'autres peuvent être cachés dans un bureau ou logés dans
un centre éducatif ou d'art et n'ont pas besoin d'autant de financement.
Les serveurs autonomes font partie des différentes initiatives des collectifs
hacktivistes pour démocratiser l'accès à l'information et la production de
contenus, tout comme d'autres activités comme la création de points d'accès à
des technologies et à Internet, des ateliers de formation, des réseaux libres,
le développement de programmes ou de systèmes opératifs libres, etc.
Il existe plusieurs types et tailles de serveurs autonomes, depuis le plus
petit serveur de courrier et Web jusqu'aux services déjà connus comme le
courrier électronique de Riseup [^1] ou le serveur de pages personnelles
no-blogs.org. De nombreux informaticiens gardent, chez eux, un serveur
connecté à une connexion domestique normale dans lequel ils peuvent accéder au
Web, au courrier, aux *torrents* ou simplement avoir un accès à des archives
pour leurs amis ou la famille. Il n'est pas nécessaire d'avoir une licence
pour avoir un serveur, il faut juste un ordinateur connecté à Internet et un
changement de configuration du router de chez soi. La responsabilité n'est pas
aussi grande lorsque l'on ne fournit pas un service assez large ou
important. Et si peu de personnes sont connectées à ce dernier, il suffit de
peu de bande passante.
Depuis plusieurs années, il n'est plus aussi facile de laisser un serveur
entreposé à l'université ou dans une entreprise. Avec les nouvelles lois de
contrôle des citoyens sur Internet [^2], les amendes pour violation des droits
de copies [^3] et les cas de fraudes [^4], les institutions ne souhaitent plus
loger de serveurs sans aucun contrôle, et de nombreux collectifs choisissent
de rejoindre des data centers commerciaux pour pouvoir donner plus de
stabilité à leur service, étant donné qu'avoir un serveur dans le placard de
la maison implique également et normalement de nombreux épisodes de
déconnexion.
## À quoi servent les serveurs autonomes ?
En parallèle, l'industrie de l'information a réussi à monétiser chaque fois
plus ses utilisateurs et n'a plus besoin de leur demander de l'argent pour les
rentabiliser. Des services de base comme l'hébergement ou le courrier sont
offerts par des entreprises et non par des collectifs "politisés". Par
exemple, de nombreux activistes utilisent le courrier électronique de Gmail ou
publient leurs photos sur Flickr gratuitement. Ces entreprises n'ont nul
besoin de faire régler directement les utilisateurs pour ces types
d'utilisation, puisque ce sont des tiers qui les paient au titre de
l'utilisation des usagers, que ce soit à travers leur exposition à la
publicité, ou en utilisant le contenu que ces usagers créent et stockent dans
les serveurs. ­
Continuer à créer et à utiliser des services autonomes en général et des
serveurs en particulier est important pour diverses raisons que nous
aborderons plus en détail. Grâce aux différents aspects que nous analyserons,
il est facile d'en déduire que défendre et soutenir les serveurs autonomes de
proximité (politique, géographique, de langue) mène à un Internet basé sur les
valeurs communes, où les personnes qui prennent soin de ces services le font
pour soutenir ce que nous faisons et non pour nous vendre aux autorités ou aux
annonceurs. La pratique donne forme aux outils et les outils donnent forment
aux pratiques. La façon de travailler qui a donné son origine au système de
travail collaboratif de Wikipedia n'est pas la même que celles des
applications installées de Facebook, ou du marché d'Android où l'intérêt n'est
rien d'autre que commercial.
## Diversité
En incorporant sa propre idiosyncrasie et sa façon de travailler, ses nouveaux
outils et son propre réseau, chaque nouveau collectif renforce le paysage et
le fait évoluer. Un service de courrier électronique est différent d'un
service de blogs ou un service dédié à des photo-galeries. Certains services
autonomes offrent des services de téléphonie ou de partage d'archives. Il
existe des serveurs féministes ou antimilitaristes, des serveurs pour annoncer
des fêtes ou pour partager de l'art numérique ou des logiciels. Ces mêmes
serveurs développent de nouveaux outils de création motivés par des intérêts
non-commerciaux.
D'autre part, il convient de tenir compte du fait que chaque pays présente
différentes situations légales ou applique différents droits et
responsabilités pour les serveurs. C'est pour ces raisons qu'il est primordial
de développer les serveurs autonomes dans différents pays. Chacun d'eux
développera une manière de s'autofinancer ou des termes de services adaptés
aux besoins de ses sympathisants, et recevra des retours sur le projet et les
services qu'il offre de manière évidemment plus confidentielle que les grandes
corporations multinationales.
## Décentralisation
La centralisation d'information implique des risques difficiles à comprendre
pour les personnes peu versées dans les thèmes technologiques. En augmentant
autant la capacité de stockage et de traitement de l'information, les petits
données offertes par les personnes aux serveurs commerciaux ne sont plus
inoffensives, étant donné qu'en les accumulant, on peut obtenir des données
statistiques claires de consommation, réponses à la publicité, à la
navigation, etc.
Si nous possédons tous des petits serveurs, avec différentes façons de
travailler et différents outils, dans différents pays et entretenus par
différentes personnes, il est difficile de couper tous les services en même
temps ou de savoir qui l'on doit arrêter pour paralyser un soulèvement ou
étouffer un mouvement.
La centralisation de l'information menace la neutralité du réseau, comme nous
l'avons vu à Burma en 2007 lorsque "le gouvernement a déconnecté Internet"
[^5] ou durant les soulèvements des jeunes de Londres, qui ont été jugés grâce
à l'information fournie par Blackberry à la police [^6]. Nous le constatons
également dans les censures fréquentes des pages Facebook [^7] ou dans les
changements de termes de service de Google, Googlecode et autres.
Ce type de centralisation représente bien souvent un terrain bien propice aux
annonceurs d'Internet, comme c'est le cas de Google qui avec une combinaison
de services comme le courrier, les informations, les cartes, les recherches,
les statistiques pour Web et autres, peut contrôler l'activité de millions
d'utilisateurs et offrir de la publicité "customisée" pour chacun d'entre eux.
## Autonomie
Parce que nos fournisseurs de services font partie de notre communauté,
l'opportunité d'être écouté en cas de problème est plus grande . En même
temps, lorsque nous utilisons des services qu'un collectif entretient pour des
raisons politiques, sa position face aux autorités sera également
politisée. Si la police se présente dans un data center pour saisir le
serveur, l'action de la personne qui les reçoit peut faire la
différence. Parfois, celle-ci le remet et en avise le collectif, ou parfois
l'avocat du data center explique à la police qu'elle "ne peut pas le prendre,
mais qu'il va être déconnecté de manière temporaire jusqu'à ce qu'on contacte
l'avocat du collectif qui lui le prendra". Ou comme dans le cas de Lavabit, un
fournisseur de courrier "sûr" qui a fermé ses portes car il ne pouvait
garantir la privacité de ses utilisateurs. [^8]
Le harcèlement publicitaire se réduit également à sa minimale expression, en
se centrant souvent sur la demande de dons pour entretenir le propre
projet. Cette pratique contraste clairement avec les serveurs commerciaux dans
lesquels l'usager est en soi un produit vendu à des annonceurs pour que
ceux-ci puissent réaliser leurs ventes, comme dans le cas de Facebook, où les
annonceurs peuvent choisir très précisément le type de profil d'utilisateurs à
cibler pour leur annonce, ou les annonces invasives de Gmail liées au contenu
des courriers de ses utilisateurs.
## Conseil
Les serveurs autonomes peuvent aussi nous fournir de précieuses informations
lorsque nous devons entretenir notre Web. Ils peuvent nous aider à ne pas nous
auto incriminer et à lancer des campagnes avec des niveaux de sécurité et de
privacité plus élevés. Ils ont pour habitude d'expérimenter de nouvelles
applications qui permettent une plus grande privacité et collaborent également
souvent à leur développement.
## Autoformation
Les serveurs autonomes peuvent aussi s'avérer être un excellent lieu pour
apprendre à entretenir les serveurs, mais aussi pour apprendre à publier sur
le Web, travailler avec du hardware, etc. De nombreuses personnes expulsées du
système éducatif traditionnel trouvent leur place dans ces espaces de
formation, lesquels, malgré le fait qu'ils soient éminemment virtuels, peuvent
très souvent compter sur un petit collectif local derrière eux. Les limites
marquées par le domaine professionnel n'existent pas dans ces collectifs, où
les tâches de chaque individu fluctuent selon leurs intérêts ou les
connaissances acquises, d'une manière plus naturelle qu'en entreprise. Il
manque toujours plus de collaborateurs, et habituellement l'intérêt est
suffisant pour rejoindre un groupe, et le processus d'apprentissage est
extrêmement pratique.
## Résilience
Si les réseaux sont internationaux, atomisés et divers, lorsque la situation
change subitement dans un pays empêchant les serveurs qui y sont situés de
continuer à fournir leurs services, il est plus facile de déplacer les
utilisateurs, les blogs, les archives vers d'autres pays s'il existe une
proximité avec les usagers et un large réseau de serveurs amis.
S'il existe plusieurs serveurs, nombreuses seront les personnes qui sauront
les entretenir, et de ce fait la gestion du service sera moins élitiste, et il
sera plus facile d'acquérir la connaissance nécessaire, le cas échéant, pour
mettre un document on-line, remplacer quelqu'un qui ne peut pas effectuer son
travail, ou lancer une campagne de diffusion massive. Le paysage des serveurs
autonomes change avec les années, mais il existe toujours des collectifs [^9]
qui offrent un appui technique aux mouvements sociaux, et ils sont de plus en
plus nombreux.
Un serveur online est aujourd'hui une usine de valeur numérique, qui coûte un
peu d'argent et qui possède une équipe stable dotée d'une connaissance
spécialisée, outre une communauté plus large qui utilise ses services. Nul
besoin d'être expert pour faire partie de cette communauté, il faut simplement
essayer d'utiliser des services non commerciaux pour notre propre création de
contenus. En utilisant des services non commerciaux, nous évitons de
collaborer par le biais de notre contenu à l'ajout de valeur aux nouvelles
multinationales numériques comme Google ou Facebook, et nous favorisons un
paysage non commercial sur Internet.
------------------------------------------------------------------------
**Tatiana de la O:** Militante des logiciels libres, VideoJay avec PureData et
contributrice de divers projets d'appui électronique auprès des mouvements
sociaux.
------------------------------------------------------------------------
[^0]: http://fr.wikipedia.org/wiki/Service_(économie)
[1]: http://riseup.net
[2]: http://www.spiegel.de/international/europe/the-big-brother-of-europe-france-moves-closer-to-unprecedented-internet-regulation-a-678508.html
[3]: http://www.zdnet.com/france-drops-hadopi-three-strikes-copyright-law-7000017857/ • http://www.zdnet.com/the-pirate-bay-kicked-off-sx-domain-after-dutch-pressure-7000024225/
[4]: http://www.law.cornell.edu/wex/computer_and_internet_fraud
[5]: http://en.rsf.org/internet-enemie-burma,39754.html
[6]: http://www.telegraph.co.uk/technology/blackberry/8689313/London-riots-BlackBerry-manufacturer-offers-to-help-police-in-any-way-we-can.html
[7]: http://socialfixer.com/blog/2013/09/12/beware-your-business-is-at-the-mercy-of-facebook-social-fixer-page-deleted-without-explanation/
[8]: “My Fellow Users, I have been forced to make a difficult decision: to become complicit in crimes against the American people or walk away from nearly ten years of hard work by shutting down Lavabit. After significant soul searching, I have decided to suspend operations. I wish that I could legally share with you the events that led to my decision. I cannot. I feel you deserve to know whats going on--the first amendment is supposed to guarantee me the freedom to speak out in situations like this. Unfortunately, Congress has passed laws that say otherwise. As things currently stand, I cannot share my experiences over the last six weeks, even though I have twice made the appropriate requests. Whats going to happen now? Weve already started preparing the paperwork needed to continue to fight for the Constitution in the Fourth Circuit Court of Appeals. A favorable decision would allow me resurrect Lavabit as an American company.This experience has taught me one very important lesson: without congressional action or a strong judicial precedent, I would \_strongly\_ recommend against anyone trusting their private data to a company with physical ties to the United States.” http://lavabit.com/
[9]: Le lien suivant répertorie une liste de ces collectifs: https://www.riseup.net/radical-servers

View file

@ -0,0 +1,417 @@
# Moteurs de recherches
## Ouvert n'est pas libre, publié n'est pas public. La « gratuité » en ligne est une arnaque!
***Ippolita***
Plusieurs années se sont écoulées depuis qu'Ippolita a commencé à faire la
distinction entre l'ouverture au « libre marché », prônée par les gourous du
mouvement *open source* et la liberté que le mouvement du logiciel libre
continue à poser comme base de sa vision des mondes numériques. Le logiciel
libre est une question de liberté, pas de prix. Il y a dix ans, on aurait pu
penser que le problème ne concernait que les *geeks* et autres
*nerds*. Aujourd'hui, il paraît évident qu'il touche tout le monde. Les grands
intermédiaires numériques sont devenu les yeux, les oreilles, ou au moins les
lunettes de tous les usagers de l'Internet, même de ceux qui n'y accèdent
qu'avec leurs mobiles.
Au risque de paraître grossiers, nous voulons insister sur ce point: l'unique
vocation de l'Open Source est de définir les meilleurs moyens de diffuser un
produit d'une manière *open*, c'est-à-dire ouverte, dans une perspective
purement interne à la logique du marché. L'aspect de l'attitude hacker que
l'on aime, à savoir l'approche ludique et le partage entre pairs, a été
contaminé par une logique de travail et d'exploitation du temps dans un but
lucratif, et non de bien-être personnel et collectif.
Le vacarme au sujet des monnaies électroniques distribuées (ou
crypto-monnaies), tels que Bitcoin, ne fait que renforcer cette
affirmation. Au lieu de jouer dans les interstices pour élargir les espaces et
les degrés de libertés et d'autonomie, au lieu de bâtir nos propres réseaux
auto-organisés pour satisfaire nos besoins et nos désirs, on s'enfonce dans de
la soi-disant monnaie, on gaspille de lénergie et de l'intelligence dans de
très classiques « chaînes de Ponzi » où les premiers gagneront beaucoup sur le
dos de ceux qui les suivent.
Du point de vue de la souveraineté, on est encore dans le sillon de la
délégation technologique de la confiance qui a débuté il y a des siècles: on
n'a (plus?) aucune confiance dans les États, les institutions, le grandes
entreprises, etc. Tant mieux: *Ars longa, vita brevis*: il est bien tard et il
y a beaucoup de choses plus intéressantes à faire. Malheureusement, au lieu de
tisser patiemment des réseaux de confiance affinitaires, on fait confiance aux
Machines [^1], voire de plus en plus aux Mégamachines qui s'occupent de gérer
ce manque de confiance avec leurs algorithmes *open*: il suffit d'y croire. Il
suffit d'avoir foi dans les Données, de tout révéler aux plateformes sociales,
d'avouer nos désirs plus intimes et ceux de nos proches, pour ainsi contribuer
à la construction d'un réseau unique (propriété privée de quelques grandes
entreprises).
Les Gourous du Nouveau Monde 2.0 nous ont bien dressés aux rituels de
confiance. Un Jobs [^2], tout de noir vêtu, tendant un blanc et pur objet du
désir (un iPod par exemple), aurait pu dire autrefois, sur l'autel-scène des
« Apple Keynotes »,: « Prenez [de la technologie brevetée], et mangez-en :
ceci est mon corps livré pour vous tous ». Mais si l'on essaye de faire
attention à la qualité et à la provenance de ce que l'on mange, pourquoi ne
pas réserver la même attention aux outils et pratiques de communications?.
L'analyse de Google comme champion des nouveaux intermédiaires numériques
qu'Ippolita a menée dans l'essai « Le côté obscur de Google » [^3] se
déployait dans la même optique. Loin d'être un simple moteur de recherche, le
géant de Mountain View a affiché dès sa naissance une claire attitude
hégémonique dans sa tentative de plus en plus aboutie « d'organiser toutes les
connaissances du monde ».
Nous voulions montrer comment la logique *open*-ouverte, combinée à la
conception de l'excellence universitaire californienne (de Stanford en
particulier, berceau de l'anarcho-capitalisme), voyait dans la devise
informelle « Don't be evil » [^4], l'excuse pour se laisser corrompre au
service du capitalisme de l'abondance, du turbo-capitalisme illusoire, de la
croissance illimitée (sixième point de la philosophie de Google: « *Il est
possible de gagner de l'argent sans vendre son âme au diable* » [^5]). On
voudrait nous faire croire que plus, plus grand, plus vite (*more, bigger,
faster*) c'est toujours mieux ; qu'être plus connectés nous rend de plus en
plus libres ; que confier à Google nos « intentions de recherche » nous
permettra de ne plus être confrontés à l'effort de choisir, car le bouton
« J'ai de la chance » nous mènera directement à une source dans laquelle nous
pourrons étancher notre soif de savoir... Mais ces promesses s'exaucent de
moins en moins.
Nous avons de plus en plus faim d'info. La soif de nouveauté est devenue
intarissable. La satisfaction est tellement fugace que l'on ne peut s'empêcher
de chercher encore et encore. À cause aussi de sa taille, le roi des moteurs
de recherche est tombé dans l'inutilité dysfonctionnelle et est devenu une
nuisance, voire une source d'addiction. La terminologie d'Ivan Illich fait ici
mouche: à partir du moment où la société industrielle, par souci d'efficacité,
institutionnalise un moyen (outil, mécanisme, organisme) afin d'atteindre un
but, ce moyen tend à croître jusqu'à dépasser un seuil où il devient
dysfonctionnel et nuit au but qu'il est censé servir. Tout comme l'automobile
nuit au transport, l'école nuit à l'éducation et la médecine nuit à la santé,
l'outil industriel Google devient contre-productif et aliène l'être humain et
la société dans son ensemble.
Bien entendu, ce qui vaut pour Google vaut tout aussi bien pour d'autres
*monopoles radicaux* à l'œuvre: Amazon pour la distribution, Facebook pour la
gestion des relations interpersonnelles, etc. De plus chaque service 2.0 a
tendance à développer ses moteurs et outils de recherche internes donnant
l'impression que le monde, dans toute sa complexité, est à portée d'un clic.
Avec les smartphones cette superposition devient encore plus évidente: si l'on
utilise Android, le système d'exploitation *made in Google*, on se retrouve
complètement plongé dans la vision du monde de Google. Tout qu'on peut y
rechercher et trouver passe, par défaut, par eux.
Dans tous les cas on retrouve la même dynamique à l'oeuvre. Son meilleur
apôtre, c'est Facebook et son monde dans lequel tout est publié, partagé,
exposé... Rien toutefois n'y est public, tout est privé. Nous avons de moins
en moins de contrôle sur les données que nous produisons avec nos recherches,
tous les « J'aime », les posts, les tags, les tweets. Loin d'être souverains,
nous ne sommes que les sujets des principes énoncés par la plate-forme à
laquelle nous confions (littéralement: nous faisons confiance) nos
données. Sans vouloir rentrer dans un débat juridique, dans lequel nous ne
serions pas du tout à l'aise [^6], il suffira de
rappeler que personne ne lit vraiment les contrats d'utilisation (TOS, *Terms
Of Service*) que l'on accepte lorsquon utilise ces services. Dans ces mondes
cloisonnés prolifèrent des règlements de plus en plus prescriptifs dont les
principes poussent le politiquement-correct à l'excès [^7].
La multiplication des règles que personne ne connaît va de pair avec la
multiplication de fonctionnalités (*features*) que peu de gens utilisent. De
toute manière, personne ne saurait vraiment dire comment celles ci se mettent
en place « en exclusivité, pour tout le monde », soit par simple ignorance ou
paresse, soit à cause des interdits entrecroisés des NDA (*Non-Disclosures
Agreement*), Brevets, Trademarks, Copyrights.
Le genre de souveraineté qu'Ippolita aime, c'est l'*autonomie*, le fait de
« se fixer ses propres règles ». Si les règles ne sont pas connues,
l'autonomie est impossible. On commence à peine à comprendre comment opère la
*Filter Bubble*: la pratique du profilage en ligne. La « bulle » des
résultats personnalisés nous engloutit dans une zone d'hétéronomie permanente
qui sélargit constamment, et dans laquelle les choix sont apanage des
Algorithmes Souverains. Bien entendu, il ne s'agit pas d'une contrainte, nous
sommes complètement libres de nourrir la souveraineté algorithmique avec tous
nos mouvements en ligne, et souvent nous accomplissons à la tache avec
enthousiasme. Celle ci représente la promesse de liberté automatisée:
publicités contextuelles, et étude des sentiment des utilisateurs, afin que
chacun reçoive une annonce personnalisée, sur mesure, du produit à acheter
dun clic et à jeter au plus vite pour pouvoir acheter quelque chose dautre.
Nous, utilisateurs, sommes donc des consommateurs quil faut connaître sur le
bout des doigts afin de prévoir et assouvir nos désirs, afin de satisfaire nos
« vices » avec des objets aussitôt obsolètes. Rappelons que le profilage est
un produit de la criminologie. Suivre sa logique, même à des fins mercantiles,
c'est *se rapporter à l'autre* comme à un criminel.
Sur ce point Google s'est encore montré le premier. Son moteur de recherche se
fonde sur le *Page Ranking*. À lorigine, tout lien entrant sur un site était
considéré comme lexpression dun vote de préférence ; les résultats étaient
basés sur ceux pour lesquels avait « voté » la « majorité ». Très vite, les
algorithmes ont été modifiés par des filtres contextuels [^8]. A travers les
résultats de lalgorithme global de *top rank* et à partir des données
dérivant du profilage de lutilisateur (recherches précédentes, historique de
navigation, etc.), une véritable idéologie de la transparence est apparue
[^9]. Et on ne peut la concrétiser quen pillant littéralement les individus
et en jetant leur intériorité (ou pour le moins, ce qui en émane à travers la
machine) en pâture dans un système en ligne. Ces contenus accumulés avec des
procédures de *tracking* [^10] sont répartis en sections de plus en plus fines
pour apporter à chaque internaute un service-produit sur mesure, répondant en
temps réel aux préférences quil a exprimés.
La question du profilage est devenue d'autant plus d'actualité depuis les
« scandales » de PRISM et compagnie (quelqu'un se rappelle d'Echelon?
[^11]). Une écrasante majorité des utilisateurs des services 2.0, comprenant
les moteurs de recherches, acceptent les paramètres par défaut. Quand des
modifications interviennent [^12], presque tous les utilisateurs conservent le
nouveau paramétrage. Nous appelons cela le pouvoir « par défaut »: la vie en
ligne de millions dutilisateurs peut être entièrement bouleversée, simplement
en opérant quelques réglages.
Tel est le côté obscur des systèmes de recherches issus du profilage! Il est
ainsi possible quun beau jour, en tapant son identifiant et son mot de passe,
on trouve lorganisation de lespace de son compte personnel totalement
modifiée, un peu comme si en rentrant à la maison, on découvrait que la
décoration a changé et que les meubles ne sont plus à leur place. Cest ce
quil faut toujours avoir présent à lesprit lorsqu'on parle de solutions
technologique pour tout le monde, c'est-à-dire pour la masse: bien que
personne ne veuille en faire partie quand nous utilisons ces outils
commerciaux et gratuits, nous sommes la masse. Et nous nous soumettons au
pouvoir « par défaut »: cela implique que quand on change le défaut, on
affiche notre « diversité », car notre choix de changer est bien enregistré
dans notre profil [^13].
La *Pars Destruens* est bien entendu la plus simple à étaler. Il n'est pas
trop difficile d'articuler des critiques radicales. D'autre part, le simple
fait de sentir la nécessité de trouver des alternatives aux moteurs de
recherches actuellement disponibles ne garantit aucunement daboutir à un
résultat satisfaisant. Le cas de la navigation sécurisée, que nous enseignons
lors de nos formations à lautodéfense numérique, est un bon indice pour
évaluer la qualité de nos recherches et de notre rapport à la toile en
général.
On pourrait remplir de longues pages expliquant l'usage de telle ou telle
extension de Firefox [^14] qui aidera à échapper au flicage, bloquera les
pubs, ou bien interdira aux mineurs d'arriver sur des sites « dangereux »
(selon, notre avis d'adultes-parents-éducateurs souvent biaisé par la
rhétorique réac' de la « toile dangereuse ») . Il est possible deffacer tous
les cookies et les LSO (*Localised Shared Object*), de se connecter de façon
anonyme avec des VPN (*Virtual Private Networks*), de cryptographier chaque
communication, dutiliser TOR et d'autres outils encore plus pointus, de façon
à que Google & Co ne sachent plus rien de nous.
Oui, mais... plus jessaie de me protéger, plus je me distingue de la masse et
plus il est aisé de me reconnaître. Si mon navigateur est bardé dextensions
destinées à éviter le profilage, à rendre anonyme et à cryptographier, et si
jutilise uniquement un système dexploitation bien particulier GNU/Linux pour
accéder à la Toile (quelle saveur? Ubuntu, Debian, Arch, Gentoo, *from
scratch...* il y aura toujours quelquun de plus « pur »!), je suis plus
facile à reconnaître paradoxalement quun internaute qui utilise des systèmes
moins sophistiqués et plus communs [^15].
La cryptographie suscite aussi beaucoup de critiques, surtout parce quelle
est fondée sur le même principe de croissance illimitée toujours plus
puissant, toujours plus rapide que le turbo-capitalisme libertarien. En
augmentant la puissance de calcul et la vitesse des réseaux, on augmente
lefficacité des systèmes cryptographiques les plus récents ; en même temps,
les vieux verrous deviennent rapidement obsolètes.
Ce mécanisme de croissance-obsolescence entre dans une logique militaire
dattaque et de défense, despionnage et de contre-espionnage. Noublions pas
quil sagit toujours à la base de systèmes conçus pour des applications
militaires et quils sont aussi parfois destinés à faire en sorte que les
communications ne soient pas interceptées par le camp ennemi. La
cryptographie, en somme, est une bonne pratique, surtout pour les passionnés
dinformatique qui adorent les casse-tête logiques, mais son approche nest
pas satisfaisante.
La *Pars Construens* devrait donc commencer par la reconnaissance humble  de
que la technologie n'est ni bonne, ni mauvaise, ni (surtout pas!)
neutre. L'usage des technologies dépend des personnes. En soi, une
technologie, même la meilleure du monde (mais selon quels critères?), ne
garantit strictement rien. L'approche méthodologique que nous aimons suggèrer
est celle d 'évaluer, non pas le « quoi » (quelles alternatives aux moteurs de
recherches?) mais le « comment »: la façon dont les instruments technologiques
se créent et se modifient à travers leurs utilisation, les méthodes avec
lesquelles les individus et les groupes s'adaptent et changent leurs propres
comportements.
Deuxième admission d'humilité: les questions sociales sont avant tout des
questions humaines, de relations entre les êtres humains, chacun dans son
propre environnement. Malgré la haute résolution des écrans tactiles, malgré
la vitesse instantanée des milliards de résultats des presque omnipotents
moteurs de recherche, la civilisation 2.0 est très semblable aux civilisations
qui lont précédée, parce que les êtres humains continuent de chercher à
attirer lattention de leurs semblables. Ils ont toujours besoin de se
nourrir, de dormir, dentretenir des relations amicales, de donner un sens au
monde auquel ils appartiennent. Ils tombent encore amoureux et ont des
déconvenues, ils rêvent et espèrent, se trompent, se pillent, se font du mal,
se tuent.
En un mot, les êtres humains doivent être conscients de la finitude de leur
existence dans le temps (lincompréhensibilité de la mort) et dans lespace
(le scandale de lexistence des autres, dun monde extérieur), même à lère
des moteurs de recherches ciblés et des réseaux sociaux numériques.
Comment ces considérations peuvent-elles nous aider à mieux chercher, c'est à
dire à chercher « différemment »?
L'hégemonie des moteurs de recherche géants repose sur une accumulation de
données sans limite: il devient évident que c'est une question de
taille. *Size matters*! La taille importe! Une information et une recherche
conviviale qui encourage la réalisation de la liberté individuelle au sein
dune société dotée doutils efficaces reste possible. De fait la conclusion
logique d'une critique de linformatique de la domination réside dans le
revers du « small is beautiful ».
Les dimensions jouent un rôle considérable. Au-delà dune certaine échelle,
une hiérarchie fixe est nécessaire pour gérer les rapports entre les êtres
humains et entre tous les **êtres** en général, vivants ou non. Entre les
machines et protocoles, les câbles, membranes, et procédures de stockage et de
recherche. Mais qui contrôlera les intermédiaires? Si l'on fait confiance à
des outils-intermédiaires trop grands pour nos recherches, il faut accepter la
mise en place d'une hiérarchie de domination. Tout est relatif, tout est « en
relation avec ».
Les connaissances emmagasinées dans ce quon appelle le « Big data » [^16],
sont une chimère parce que les connaissances profitables aux êtres humains ne
sont pas à lextérieur et ne sont pas interchangeables ; si elles peuvent être
objectivées, échangées, apprises, traduites et partagées, les connaissances
sont avant tout un processus individuel dimagination. Contrairement à la
mémoire totale irréfléchie des instruments numériques, lidentification, le
devenir soi-même est un processus au cours duquel nous perdons continuellement
connaissance, nous perdons la mémoire et nous la reconstruisons, comme nous
nous reconstruisons dans nos processus vitaux. Si au lieu davoir un nombre
limités de sources, dans lesquelles nous sélectionnons nos parcours, nous
créons notre propre histoire que nous racontons et partageons, nous décidons
de puiser dans une quantité illimité de données d'une façon automatisée par
des systèmes de profilage, la relativité cède le pas à lhomologation. On
nourrit ainsi les Mégamachines.
Ces dernières impliquent des relations de cause à effet de type capitaliste ou
despotique. Elles génèrent dépendance, exploitation, impuissance des êtres
humains réduits à nêtre que des acheteurs asservis. Et que cela soit dit
encore une fois pour les partisans des *commons, ce nest pas une question de
propriété, parce que*:
> la propriété collective des moyens de production ne change rien à cet état
> de choses et nourrit seulement une organisation despotique
> stalinienne. Aussi Illich lui oppose-t-il le droit pour chacun dutiliser
> les moyens de production, dans une « société conviviale », cest-à-dire
> désirante et non œdipienne. Ce qui veut dire: lutilisation la plus
> extensive des machines par le plus grand nombre possible de gens, la
> multiplication de petites machines et ladaptation des grandes machines à de
> petites unités, la vente exclusive déléments machiniques qui doivent être
> assemblés par les usagers-producteurs eux-mêmes, la destruction de la
> spécialisation du savoir et du monopole professionnel [^17].
La question qui se re-pose encore et toujours est donc: comment faire? Quels
désirs avons-nous à l'égard des technologies de recherche? Veut-on *trouver*
immédiatement, ou bien voudrait-on aussi parcourir un chemin? Peut-être
veut-on se perdre avec des copains, ou toute seule ; peut-être s'immerger dans
des profondeurs inconnues et pas facilement *partageables* avec un clic, un
tag, un post.
Des moteurs de recherche « en situation », qui assument une perspective pas du
tout « objective », mais explicitement « subjective », en expliquant le
pourquoi et le comment. La multiplication des petits moteurs de recherches,
voilà une possibilité souvent peu explorée! Un critère possible quant à leur
évaluation pourrait alors être leur capacité de sadresser à un groupe
particulier avec des exigences particulières. Cette aspiration minoritaire
impliquerait logiquement la volonté de répondre non pas d'une façon
quasi-instantanée aux requêtes de tout le monde, c'est-à-dire d'une masse
soumise au profilage, mais de se borner à creuser les limites d'une
connaissance toujours inachevée. Cela conjurerait la mise en place des
prétentions totalitaires, ce bien connu côté obscur des Lumières et de tous
les projets de connaissance globale.
Le recours à l'expertise des composants de notre « réseau social », et pas
seulement en ligne, reprèsente une autre possibilité incroyablement efficace
si le but est celui de se créer une référence fiable sur un sujet
particulier. Il s'agirait alors de choisir attentivement à qui « faire
confiance ».
L'adoption d'un style sobre est peut-être l'alternative la plus puissante pour
contrer la prolifération de solutions technologiques que nous n'avons jamais
demandé mais auxquelles nous avons tant de mal à nous soustraire. En effet,
l'imposition de l'obsolescence programmé s'applique aussi au domaine de la
recherche, en commençant par léquivalence « à majeure quantité plus de
qualité », fruit d'une aveugle application de lidéologie du progrès à tout
prix . Avoir un grand nombre d'objets, dans le monde 2.0, signifie aussi avoir
accès à un nombre de résultats en croissance infinie et exponentielle, de plus
en plus taillés sur nos préférences plus ou moins explicitement
affichées. Suivant la même logique, la durabilité d'un résultat devrait aussi
être prise en compte: une foulée de résultats valables pour peu de jours,
heures voire minutes devraient avoir moins dintérêt par rapport à des
résultats plus solides face au temps qui passe.
Séchapper de l'economicisme religieux de la consommation obligée signifierait
donc mettre en place une sorte de décroissance, dans la recherche en ligne,
comme dans tout autre domaine technologique. Ces processus d'auto-limitation
et de choix attentifs ne pourront aucunement être « heureux » dans le sens de
dépourvus d'effort ou quasiment automatisés. Aucune addiction, et encore moins
l'addiction à une technologie « gratuite » de la réponse immédiate, peut être
interrompue sans conséquences. En d'autre mots, si notre désir se centre sur
un moteur « libre » qui soit à 99,99 % aussi rapide, puissant et disponible
que Google, alors la seule possibilité sera de mettre en place un autre Moloch
comme celui de Mountain View.
À ceux qui éventuellement voudraient sentir le sacrifice dans cette tension
qu'on pourrait nommer écologiste, on répondra sur le ton de lallégorie et
reviendrons au thème de la nourriture : pourquoi s'engouffrer n'importe quelle
saleté industrielle au lieu de bien choisir les ingrédients de ses repas?
Pourquoi se gaver de résultats quand on pourrait développer notre propre
goût? La vie est trop brève pour boire du mauvais vin en quantité!
Il y a beaucoup dexpérimentations autogérées déjà actives, il suffit d'ouvrir
grand les yeux, de sentir l'air autour de soi, de tendre ses oreilles, de
toucher, de mettre la main à la pâte et de goûter en entraînant son goût aux
bonnes choses: bref, il suffit de se mettre à leur recherche. S'attendre à ce
que les autres le fassent à notre place est une drôle d'idée, autant croire
que les Grands Moteurs de Recherche nous fournissent immédiatement et
gratuitement et sans aucun effort la réponse correcte. Il n'y a aucun oracle
omniscient, seulement des personnes auxquelles on décide de se confier.
------------------------------------------------------------------------
**Ippolita:** Groupe de recherche interdisciplinaire qui creuse les
«technologies de la domination» et leurs effets sociaux en pratiquant les
écritures conviviales. Parmi ses essais copyleft: "Open n'est pas
Libre. Communautés numériques entre éthique hackers et marché global"
(Elèuthera, 2005), "The Dark Side Of Google" (Feltrinelli, 2007, traduit en
français, castillan et anglais), "Dans l'aquarium de Facebook. La irrésistible
ascension de l'anarcho-capitalisme" (Ledizioni, Milan, 2012, traduit en
français, castillan, anglais), "La Toile est libre et démocratique. FAUX!" (en
cours de publication). Ippolita propose des formations d'auto-défense
numérique et de validation des sources. http://ippolita.net
------------------------------------------------------------------------
[^1]: Voir Giles Slade, *The Big Disconnect: The Story of Technology and Loneliness*, Prometheus Books, NY, 2012, en particulier le troisième chapitre, «Trusting Machines».
[^2]: Par exemple, https://upload.wikimedia.org/wikipedia/commons/b/b9/Steve_Jobs_Headshot_2010-CROP.jpg
[^3]: Ippolita, *Le* *côté* *obscur* *de Google*, Payot&Rivages, Paris, 2011 (2008); ed. or. it. *Luci e Ombre di Google,* Feltrinelli, Milano, 2007. Free copyleft download: http://ippolita.net
[^4]: Ne sois pas malveillant / Ne fais pas le mal.
[^5]: Dix repères clés: http://www.google.com/intl/fr/about/company/philosophy/
[^6]: Surtout parce que le droit implique des lois et des juges qui sanctionnent leurs contrevenants d'autant plus facilement qu'ils ne peuvent pas se payer de bons avocats. Voir Carlo Milani, « Topologies du devenir libertaire. II Droits? », dans *Philosophie de l'anarchie. Théories libertaires, pratiques quotidiennes et ontologie*, ACL, Lyon, 2012, pp. 381-384.
[^7]: Si Google fait de la Philosophie, Facebook affiche des Principes https://www.facebook.com/principles.php.
[^8]: Voir Ippolita, *Le côté obscur de Google*, cit., « V. En prime, d'autres fonctions ingénieuses », pp. 153-178.
[^9]: Les travaux de Danah Boyd donnent sur la question un point de vue très clair, son site http://www.zephoria.org/ mérite une visite. Pour un perspective plus philosophique, voir Byung-Chul Han, *Transparenzgesellschaft*, Matthes & Seitz, Berlin, 2012.
[^10]: Le site http://donttrack.us/ expose très clairement, en une brève présentation, le système de traçage des recherches. Il nous donne aussi l'occasion de faire une première allusion aux « alternatives », DuckDuckGo en étant une. Un moteur de recherche qui affirme de ne pas faire du *tracking*. Le scepticisme méthodologique que nous prônons nous impose de faire remarquer que c'est bien possible: il faut juste faire confiance à DuckDuckGo...
[^11]: Et pourtant, on sait bien depuis la publication en 1999 du report européen de Duncan Campbell *Interception Capabilities* que l'espionnage numérique se fait à léchelle globale: http://www.cyber-rights.org/interception/stoa/interception_capabilities_2000.htm
[^12]: Comme cela a été le cas plusieurs fois en 2012 et 2013, lorsque Google a redéfini ses paramètres de confidentialité et d'entrecroisement-partage des données entre ses différents services.
[^13]: Vous pouvez facilement le vérifier: demandez à vos amis et collègues s'ils ont changé les paramétrage par défaut de Google. Normalement (au début de l'année 2014) le *Safe Search filter* que Google met en place pour vous éviter de tomber sur des résultats « illicites » est réglé sur la « moyenne », à savoir il filtre le contenu à caractère sexuel explicite dans vos résultats de recherche. Il devient de plus en plus compliqué de détecter ce genre de paramétrage. La raison est bien expliquée par une source explicitement *corporate*: la stratégie de *business* optimale pour les géants du profilage en ligne est d'offrir des systèmes de réglage de la confidentialité difficiles à utiliser. Voir « Appendix: a game theoretic analysis of Facebook privacy settings », dans Robert H. Sloan, Richard Warner, *Unauthorized access. The Crisis in Online Privacy and Security*, CRC Press, 2014, pp. 344-349.
[^14]: Voir par exemple Manuel Security in a box: https://securityinabox.org/fr/firefox_principale
[^15]: Un panorama en a été esquissé dans Ippolita, *J'aime pas Facebook,* Payot&Rivages, 2012, *Troisième Partie. Les libertés du réseau*, « Réactions et anthropotechniques de survie », pp. 235-250. Voir aussi projet Panopticlick de la EFF et Ixquick: https://panopticlick.eff.org/ • https://www.ixquick.com/eng/
[^16]: Voir https://fr.wikipedia.org/wiki/Big_data
[^17]: Gilles Deleuze, Félix Guattari, « Appendice, Bilan-programme pour machines désirantes », *LAnti-Œdipe*, Éditions de Minuit, Paris, 1975, p. 479.

View file

@ -0,0 +1,244 @@
# Bibliothèques numériques publiques (en tant qu'infrastructure)
***Marcell Mars***
Dans le catalogue des grandes avancées historiques, les bibliothèques
publiques font partie de l'un des phénomènes dont nous sommes les plus
fiers, sûrement conjointement avec l'éducation et la santé publique, la
déclaration universelle des droits de l'Homme, la méthode scientifique,
Wikipedia et le logiciel libre.
Il s'agit d'une de ces structures quasi invisibles que nous remarquons
simplement lorsqu'elles tendent à disparaître. Durant de nombreuses
années, les bibliothèques publiques étaient considérées comme le lieu
depuis lequel il était possible d'accéder à la connaissance, même s'il
dépendait souvent des motifs toujours instables des états de "bien-être"
ou des ressources limitées de quelques riches mécènes.
Internet a bouleversé nos interprétations sur ce que nous considérions
comme dû et possible. Le rêve de pouvoir toutes accéder à toute la
connaissance est devenu quasi réalité. Cela ne semblait être qu'une
question de diffusion. Savoir entrevoir le moment où les courbes de
distribution des ordinateurs personnels et l'accès à Internet finiraient
par s'unir pour faire en sorte que cet accès universel à la connaissance
devienne réalité. Toutefois, le développement des bibliothèques
publiques dans l'ère Internet semble aller directement dans la direction
opposée, ce qui les rend plus facilement enclines à la disparition.
De nombreuses bibliothèques publiques ne peuvent recevoir, et souvent ne
pas acheter non plus, les livres édités par des grandes maisons
d'édition [^1]. Les livres qui font
d'ores et déjà partie de leur catalogue doivent parfois être détruits
une fois qu'ils ont été empruntés 26
fois [^2] (?!?). La bataille du marché
dominé par de nouveaux acteurs tels que Amazon, Google et Apple se perd.
Mais les révolutions émancipatrices font également partie des phénomènes
dont nous pouvons être les plus fières. Mettre tout en œuvre pour que
les personnes puissent compter sur les moyens nécessaires pour atteindre
leurs rêves. Nous ne pouvons renoncer aux bibliothèques publiques durant
l'ère Internet, ni au rêve d'un accès universel à toute la connaissance
humaine. Ainsi, des activistes, des documentalistes, des citoyens, des
artistes, des hackers et beaucoup d'autres sont sur le point de créer
les conditions nécessaires pour rendre leurs rêves réalité et, au
passage, pouvoir compter, comme l'a dit Melvil Dewey, sur des "écoles
libres et des bibliothèques libres pour chaque
personne". [^3]
La proposition est la suivante: Mettons en place un catalogue de tous
les livres que nous avons d'ores et déjà téléchargés et partageons-le !
En fin de compte, une bibliothèque publique, c'est:
- Un accès libre aux livres pour chaque membre de la société
- Des catalogues de livres et des documents mis à disposition
- Des bibliothécaires
Avec des livres prêts à être échangés, méticuleusement classés, chaque
personne peut devenir bibliothécaire. Si nous sommes toutes
bibliothécaires, les bibliothèques publiques peuvent se trouver
n'importe où. C'est tout simple.
La point de vue du projet Mémoire du monde réside dans le fait que le
patrimoine documentaire mondial appartient à toute personne, et il
devrait être intégralement préservé et protégé en partant d'une
reconnaissance des pratiques et des coutumes culturelles et en étant
complètement accessible à toutes sans barrière d'entrée. De ce fait, les
objectifs spécifiques sont:
Permettre la conservation du patrimoine documentaire mondial à travers
l'utilisation des techniques les plus appropriées comme par exemple
disperser les idées et les informations, encourager à partager des
informations et mettre en place des ateliers, fournir une assistance
directe et également mettre en rapport les personnes et les collectifs
et les projets les plus appropriés pour eux.
Soutenir l'accès universel au patrimoine documentaire en développant la
production de copies numériques ainsi que la compilation de catalogues
accessibles sur Internet, jusqu'à la publication et la distribution de
livres, CD, DVD et autres produits de la manière la plus large et
équitable possible.
Tenir compte des limites existantes propres aux lieux où l'accès a un
impact pour ses conservateurs. Les législations et autres contingences
relatives à l'accessibilité des archives doivent être respectées. Les
sensibilités culturelles, y compris la protection par les communautés
autochtones de leurs archives, doivent être honorées.
Augmenter la prise de conscience au niveau mondial de l'existence et de
l'importance du patrimoine documentaire. Les moyens vont du
développement de registres jusqu'à la production de moyens et de
publications promotionnelles à caractère informatif. La préservation et
l'accès ne se complètent pas uniquement entre eux mais ils influent
également sur la prise de conscience de la valeur du patrimoine
documentaire, étant donné que plus d'accès implique une préservation
plus importante. De ce fait, la production de copies doit être
développée afin de réduire la pression dans la préservation de matériels
uniques.
## Thèmes émergeants
- Développement d'infrastructures collectives et autonomes
- Pratiques politiques autour de l'accès et la création de
connaissances/documentation
- Culture libre et institutions des biens communaux
- Diversité culturelle
- Désobeissance civile
- Souveraineté technologique
## Personnes et collectifs
Peu de choses auraient été possibles si Sean Dockray n'avait pas créé
Aaaaarg.org [^4], Dušan Barok Monoskop [^5], Sebastian Luetgert et Jan Gerber
Pirate Cinema [^6] & pad.ma [^7], Kenneth Goldsmith UbuWeb [^8], Henry Warwick
Alexandria project [^9], Piratbyrån [^10] The Pirate Bay [^11] et si les
hackers derrière Library Genesis [^12] ne nous avaient pas donné la chance de
télécharger leur catalogue contenant quasi un million de livres. Ces personnes
sont des références pour ce projet, et travailler avec elles sur ces sujets
nous rend plus proches. Nous voulions également souligner que Aaron Swartz
[^13] nous manque beaucoup.
## Bibliothèque publique (comme méthodologies pour son développement)
Le programme Mémoire du monde articule entre elles les propositions suivantes
afin de mettre en place une infrastructure distribuée de bibliothèques
publiques:
- Développer un logiciel pour les catalogues point par point [^14] et pour
échanger et partager des livres comme le plugin p2p pour calibre "let's
share books". [^15]
- Construire des scanners de livres DIY [^16] et développer des communautés
autour du scan de livres et autres matériels graphiques d'intérêt (comme
par exemple à Zagreb, Belgrade, Ljubljana et plus récemment à Barcelone,
Berlin et Lüneburg).
- Organiser des événements pour permettre le développement d'outils libres
pour ces bibliothèques publiques, développer la synergie et l'échange de
ressources, d'expériences et de connaissances entre les groupes qui
travaillent sur ces dimensions diverses (archivistes, documentalistes,
libraires, activistes, développeurs, chercheurs, etc.).
Développer efficacement une bibliothèque publique réside dans
l'organisation d'un événement sur plusieurs jours dans un lieu donné,
ainsi que dans l'invitation de personnes et de collectifs intéressés par
des thèmes d'accès à la connaissance, la documentation de la mémoire,
l'éducation populaire, la création de ressources publiques, la
construction de scanners et des amoureux des livres en général. De
nombreux profils et publics peuvent rassembler leurs énergies pour
construire et protéger leurs propres bibliothèques numériques. Voici les
procédures qui entrent dans le processus de création:
- Construire et apprendre à utiliser correctement un scanner de
livres,
- Installer, configurer et apprendre à utiliser des programmes libres
pour mettre en place des catalogues permettant de partager de
manière efficace des collections de livres dûment étiquetées et
désignées,
- Installer, configurer et apprendre à utiliser les serveurs dans
lesquels seront stockés les livres et les documents numériques ainsi
que les catalogues,
- Etayer et partager tout ce qui précède pour permettre à d'autres de
reproduire l'expérience par eux-mêmes,
- Identifier un premier ensemble de livres ou d'autres matériels
graphiques présentant un intérêt particulier. La pertinence qu'ils
ont auprès des collectifs présents doit entrer en ligne de compte
dans leur sélection, en mettant plus particulièrement l'accent sur
les matériels les plus en danger (ceux qui ont le moins de copies et
qui sont donc plus difficiles d'accès et à partager),
- Scanner, étiqueter, remplir les méta données, etc.,
- Diffuser la bibliothèque publique et concevoir des mécanismes pour
arriver à la conserver dans le temps.
Le type de matériels qui seront tout d'abord scannés et étayés ainsi que
les méthodologies qui seront utilisées pour les sélectionner sont des
décisions propres aux collectifs qui sont derrière le développement de
chaque bibliothèque publique. Toutefois, dans le contexte philosophique
et politique du projet Memory of the world, il convient tout d'abord de
mettre en place la création de bibliothèques publiques avec des
matériels qui abordent les mouvements sociaux dans toute leur variété en
donnant la priorité aux matériels qui répandent une transformation
sociale et politique (pensée critique, cultures underground et peu
étayées, langues et thèmes peu présents sur Internet). Basées sur des
expériences préalables, ces bibliothèques fonctionnent mieux
lorsqu'elles ont dans leur catalogue au moins une centaine de livres.
------------------------------------------------------------------------
**Nenad Romić (aussi connu sous le nom de Marcell Mars):** Défenseur des
logiciels libres, explorateur culturel et instigateur social. Marcell est un
des fondateurs du Multimedia Institute -mi2, ainsi que du net.culture club
MaMa à Zagreb. Il est à l'origine du label d'édition sous licence GNU GPL
appelé EGOBOO.bits, ainsi que de la Public Library Memory of the world. Il a
également lancé Skill Sharing, une initiative de rencontres informelles
régulières de personnes enthousiastes au MaMa. Ceci en plus des projets
satellites de Skill Sharing: g33koskop, Nothing Will Happen and 'The Fair of
Mean Equipment'. http://ki.ber.kom.uni.st
------------------------------------------------------------------------
[1]: http://www.digitalbookworld.com/2012/american-library-association-open-letter-to-publishers-on-e-book-library-lending/
[2]: http://www.libraryjournal.com/lj/home/889452-264/harpercollins_puts_26_loan_cap.html.csp
[3]: http://www.americanheritage.com/content/melvil-dewey
[4]: http://aaaaarg.org/
[5]: http://monoskop.org/
[6]: http://www.piratecinema.org/?page=faq
[7]: http://pad.ma/
[8]: http://ubu.com/
[9]: http://www.kether.com/bio/
[10]: http://en.wikipedia.org/wiki/Piratbyrån
[11]: http://thepiratebay.org/
[12]: http://libgen.org/
[13]: http://en.wikipedia.org/wiki/Aaron_Swartz
[14]: http://www.memoryoftheworld.org/es/blog/2012/11/26/catalogo-de-punto-a-punto/
[15]: http://www.memoryoftheworld.org/es/blog/2012/11/27/antes-y-despues-de-calibre/
[16]: http://www.memoryoftheworld.org/es/blog/2012/10/28/our-beloved-bookscanner/

View file

@ -0,0 +1,451 @@
# Décentralisation et réseaux sociaux
***Hellekin***
Encore largement inconnu du public il y a deux décennies, le terme de « réseau
social » apparaît aujourd'hui comme une innovation du *Web
2.0* [^1]footnote1. Toutefois il s'agit d'un concept
bien antérieur au phénomène de concentration mercantile des instruments dédiés
aux réseaux sociaux. En 1933, le sociologue Jacob Levy
Moreno [^2]footnote2 introduisit le sociogramme, une
représentation graphique des relations interpersonnelles où chaque nœud est un
individu et chaque lien une relation sociale. Le terme de « réseau social »
apparut pour la première fois en 1954 dans un article du professeur John
Arundel Barnes [^3]footnote3, concluant son étude des
relations sociales dans un village de pêcheurs Norvégiens.
Howard Rheingold [^4]footnote4, pionnier des
communautés virtuelles et chroniqueur visionnaire des changements sociaux liés
à l'évolution des technologies de l'information et de la communication
souligne comment « *certaines personnes confondent les réseaux sociaux, qui
sont lagrégat des relations humaines, avec les services en ligne pour les
réseaux sociaux tels Facebook et, sans doute, G+ *». Une telle confusion
établit le service comme origine du réseau social, même si son rôle se limite
au-mieux à en faciliter l'émergence.
### Réseau centralisé, décentralisé, distribué ?
Ces concepts ont évolués depuis l'article de Paul
Baran [^5]footnote5 consacré aux diverses topologies
de réseaux de communication [^6]footnote6. Les
caractérisations suivantes en offrent une vue plus sociale que technique.
On dit qu'un réseau est centralisé lorsque son intégrité dépend d'un acteur
sans lequel le réseau ne fonctionne pas. Une telle architecture offre de
nombreux avantages pour l'intégration verticale des services, notamment en
raison du pôle de décision unique et de l'uniformité de la solution
technique. Ce modèle combine simplicité d'utilisation, facilité de
développement et stabilité du système; en revanche il impose une position
unique du prestataire de service lui permettant d'observer ses utilisateurs et
analyser leur comportement. Il offre donc peu ou prou de protection ou de
considération pour le droit à la privauté de ses utilisateurs.
Un réseau décentralisé ne dépend pas d'un pôle unique de décision, mais chaque
membre du réseau n'est pas nécessairement autonome, et peut dépendre de la
disponibilité d'un serveur qui le relie au reste du réseau; la fédération est
le modèle typique du réseau décentralisé, tels le courrier électronique ou les
réseaux de *chat [^7]footnote7*. Ce modèle est parfait
pour des organisations qui peuvent maintenir leur propres infrastructures de
communication et préfèrent contrôler leurs communications. Mais il présente la
même problématique qu'un réseau centralisé concernant le rôle de
l'intermédiaire-tout-puissant (en termes de sécurité informatique, le « *man
in the middle* »).
Lorsque chaque nœud du réseau décentralisé est autonome, on parle de réseau
distribué: c'est le modèle de pair-à-pair (P2P) comme
Bittorrent [^8]footnote8,
GNUnet [^9]footnote9,
Tor [^10],
I2P [^11],
cjdns [^12] ou
Bitcoin [^13]. Ce modèle est le plus robuste
face à l'agression d'un pouvoir centralisé (observation, censure,
manipulation), car il n'offre pas de prise directe ni de cible particulière,
il ne dispose pas de « point unique de défaillance » contrairement aux modèles
sus-cités. En revanche sa réalisation est bien plus difficile qu'un service
centralisé, notamment en raison de l'hétérogénéité et la complexité de
l'environnement.
Ces architectures ne sont cependant pas forcément
opposées [^14]. La contradiction entre elles
réside plutôt dans la décision de protéger la privauté des utilisateurs ou au
contraire établir leur surveillance. L'approche dominant actuellement les
instruments pour les réseaux sociaux dépend radicalement de la surveillance
des utilisateurs et par conséquent recherche une architecture centralisée et
propriétaire, favorable à leur contrôle.
Il ne faut pas non-plus confondre la capacité « d'exporter » des données avec
leur « portabilité » ni leur disponibilité. L'exportation de données d'un
service ou d'une application fonctionne le plus souvent en cercle
fermé. Aliénées de leur contexte, ces données exportées ne sont plus qu'un tas
de fichiers inertes car c'est leur inscription au sein d'un contexte social
qui leur donne vie (leur connexion avec des données similaires ou relatives,
les commentaires d'autres utilisateurs, l'enrichissement des connaissances par
la conversation incessante génèrent une interdépendance entre des sources
diverses.)
Ainsi, au-delà d'un découpage technique souvent abstrait et incomplet
considérant seulement un aspect formel du réseau, il convient de reconnaître
les fondements et la complexité des conséquences éthiques, sociales,
politiques et économiques des technologies qui supportent la sociabilité des
individus et des collectivités.
### Que faire?: **Logiciel libre et réseaux libres**
L'Apocalypse selon Snowden (ses révélations fracassantes sur la NSA) confirme
ce que les programmeurs de logiciel libre martèlent depuis 30
ans [^15]. Pour considérer la sûreté d'un
système il est impératif que celui-ci soit observable. Un système
non-vérifiable est en effet par définition un simple acte de foi en son
créateur comme prévenait déjà très justement Ken Thompson en
1984 [^16]. Un système informatique dont on
ne peut pas étudier le code source ne peut donc pas être considéré comme
sécurisé [^17].
Le logiciel libre [^18], au sens donné par
la *Free Software Foundation [^19]* et le
projet GNU [^20], signifie que son
utilisateur dispose de quatre libertés fondamentales: 0) utiliser le logiciel
selon sa propre volonté ; 1) étudier le fonctionnement du logiciel (à travers
son code source) ; 2) partager le logiciel librement, y compris le
commercialiser ; 3) modifier le logiciel selon ses propres besoins et
distribuer ces modifications librement. Ces quatre libertés fondamentales
permettent à l'utilisateur l'appropriation libre des logiciels, c'est-à-dire
leur contrôle ; cela favorise ainsi l'évaluation du code entre pairs, au même
titre que les travaux scientifiques. Il s'agit donc de logiciel éminemment
politique, développé dans le sens de l'intérêt général.
Le champ du logiciel libre offrant des alternatives aux plate-formes
propriétaires reste encore largement expérimental. Mais son effervescence
montre la viabilité de pouvoir compter sur des outils de gestion des réseaux
sociaux qui ne soient ni propriétaires ni liberticides. Qu'elles soient
héritées du Web, et orientées vers une décentralisation fédérée, ou bien
héritées du pair-à-pair (P2P), visant un modèle plus distribué entre nœuds
autonomes, ces initiatives s'opposent par définition à la surveillance des
utilisateurs et encouragent leur liberté.
Le projet GNU consensus [^21] vise à
favoriser et coordonner le développement de logiciel libre à caractère
social. Considérant qu'une entité
hostile [^22] participe activement au
réseau, le projet recommande que chaque nœud du réseau puisse se prémunir
contre cette menace, et protéger également ses correspondants légitimes. Dans
ce cadre, la plupart des alternatives actuellement disponibles offrent peu de
protection contre les attaquants les plus sophistiqués. Cependant, elles
permettent une transition nécessaire depuis les plate-formes propriétaires qui
elles, sont compromises par définition, puisqu'elles participent de la
surveillance globale.
Le chiffrement systématique des données et la protection du graphe social (les
interactions sociales de chacun) forment partie des éléments nécessaires à une
alternative solide et viable. GNU consensus promeut l'adoption à long terme de
la plate-forme de pair-à-pair GNUnet [^23],
et son complément pour les réseaux sociaux nommée
Secushare [^24], encore en phase de
recherche.
En attendant la disponibilité de GNUnet pour le grand public, le projet
s'attache aussi à identifier les solutions susceptibles de faciliter l'exode
des usagers de services propriétaires vers des solutions libres. Il faut
noter que si ce projet considère GNUnet comme la référence vers laquelle
tendre, il n'exclut pas la diversité des approches. Ainsi, le projet promeut
également des logiciels qui offrent une solution partielle et tente
d'identifier leurs limitations et reconnaître leurs avantages.
La section suivante offre une vue partielle des problématiques envisagées et
des solutions alternatives possibles. Le site du projet GNU consensus offre
une vue plus élaborée et actuelle. Le lecteur peut également se référer à la
liste collaborative maintenue sur le site de Prism
Break [^25] qui offre une correspondance
entre les applications et services propriétaires et les alternatives libres
correspondantes.
### Problématiques et alternatives émancipatrices
**Publication** La forme la plus courante de publication personnelle reste le
blog, et les commentaires tissent des conversations riches au sein de
la « blogosphère » ; le wiki offre également une forme de publication
collective dont l'aspect social est plus discret. Cependant ces deux formes
concernent des communautés plutôt spécialisées et littéraires. D'autre part
elles concernent principalement des interactions publiques.
**Exhibition et rumeur** Facebook est l'exemple le plus connu pour le partage
de ses expériences sociales. Twitter a su combiner la brièveté des SMS avec le
Web pour créer l'un des services les plus populaires et addictifs du
Web. Google+ offre un intermédiaire entre les deux...
La « monétisation » des profils et l'appropriation mercantile des contenus
dépend de la propension des utilisateurs à s'exposer eux-mêmes à la machine de
surveillance en troquant un avantage perçu contre une soumission trop
abstraite, oublieux des conséquences: exhibitionnisme à outrance, délation
banalisée, mise en esclavage volontaire, diversion du capital social vers des
circuits capitalistes superflus. Les conséquences de l'amplification des
conversations au-delà des simples prémisses du « que fais-tu en ce moment ? »
permet la capture d'une grande part de la sociabilité des réseaux à tel point
que nombre des utilisateurs de Facebook confondent aujourd'hui le service avec
« l'Internet ».
Les « clones de Twitter » restent largement incompatibles avec l'original
selon la volonté politique de l'entreprise, mais travaillent à
l'interopérabilité: parmi eux on trouve GNU
social [^26],
Friendica [^27],
Pump.io [^28]. Une solution distribuée
utilisant la même technologie que Bitcoin est également en phase
expérimentale: Twister. [^29]
**Conversation et organisation collective** La plupart des solutions
alternatives existantes se présentent sous forme de silos incompatibles entre
eux. Ces solutions dépassent cependant le motif de la logorrhée pour proposer
des moyens d'organisation collective. On peut citer parmi elles
Elgg [^30] et
Lorea [^31],
Crabgrass [^32],
Drupal [^33], et le Web
Indépendant [^34] qui fait figure à la fois
de pionnier dans la définition et l'adoption des standards du Web Sémantique
et de résistant à la tendance centralisatrice des marchands.
**Téléphonie et vidéoconférence** Skype est passé, depuis son rachat par
Microsoft, dans l'escarcelle des collaborateurs directs de la NSA. Google
Hangouts n'est accessible qu'aux utilisateurs de Google. Dans les deux cas, on
pourra utiliser avantageusement l'alternative de
Jit.si [^35], ou attendre l'arrivée du
Project Tox [^36].
**Messagerie** Le courrier électronique reste l'une des applications les plus
répandues. L'usage de GnuPG permet de chiffrer les messages mais ne protège
pas la source, le destinataire, ni le sujet du message (le projet
LEAP [^37] cherche à solutionner cet
aspect.) La domination de Google sur ce service avec Gmail et GoogleGroups
réduit considérablement son aspect fédératif. En attendant d'utiliser des
solutions spécialisées comme Pond [^38],
I2P-Bote [^39], ou BitMessage, il est
recommandé d'utiliser un service de courriel autonome favorisant la privauté,
tel Riseup [^40] ou
Autistici [^41], ou monter son propre
serveur.
**Partage de vidéos** La suprématie de Youtube (encore Google) en la matière
laisse tout ses concurrents loin derrière. Étant donné l'énorme infrastructure
nécessaire pour le traitement et l'envoi de fichiers vidéos, ce service n'a
que peu d'alternatives.
GNU MediaGoblin [^42] permet à un site de
gérer ses médias et supporte les formats libres de vidéo. Un nouveau projet,
Wetube, promet d'innover et remplacer Youtube par un réseau distribué
utilisant une approche similaire à Twister basée sur une chaîne de blocs, et
offrir aux participants la carotte d'une rémunération correspondant à la bande
passante partagée.
**Partage de musique** La référence propriétaire reste SoundCloud. Il semble y
avoir peu d'intérêt pour fournir une alternative libre à ce service. GNU
MediaGoblin supporte aussi les fichiers audios et pourrait tenir ce rôle. Les
amateurs de musique, eux, peuvent utiliser Bittorrent en faisant attention de
télécharger des torrents légaux et d'éliminer de leurs connexions les nœuds
spécialisés dans la chasse aux internautes ou la dissémination de pourriciel
grâce à des listes de blocage (*blocklists*).
### Autres exemples pertinents pour imaginer de futures applications et implications
**Applications statiques** Le projet
UnHosted [^43] propose de renouer avec la
décentralisation des applications Web en séparant lexécution du code des
données affectées. Celles-ci restent sous le contrôle de l'utilisateur, et les
applications sont exécutées dans le navigateur et non sur un serveur.
**Partage de code** Github offre un contre-exemple de service propriétaire
social. Sa contribution au monde du logiciel libre montre qu'il est possible
de trouver une niche dont l'exploitation commerciale ne passe ni par la
commercialisation des données des utilisateurs ni par aucune restriction à
leur liberté. Il dispose cependant de deux concurrents sérieux, Gitlab et
Gitorious, et il existe même une version P2P, Gitbucket. Le code source de
Gitlab et Gitbucket est disponible sur Github ! Le modèle de Github peut
servir d'inspiration pour « le communisme entrepreneurial » proposé par Dmytri
Kleiner [^44].
**Jeux vidéos en ligne massivement partagés** Les
MMORPGs [^45] sont aussi des lieux de
rencontre et de sociabilité. S'il est plus simple de converser des choses de
la vie sur Second Life, les relations sociales fleurissent sur World of
Warcraft ou MineCraft. Il reste que ces mondes virtuels génèrent une économie
et une frange de société premier-monde qui leur sont propres. Ce sont des
lieux où l'anonymat n'est pas un problème, mais presque une obligation: qui
veut savoir que le grand mage Krakotaur passait sa jeunesse à perforer des
cartes pour le donner à manger à un ordinateur de la taille d'un hall de
palace ? Si le cœur vous en dit, vous pouvez toujours rejoindre
PlaneShift [^46] ou les univers de
développement de CrystalSpace [^47] pour
imaginer l'avenir des jeux immersifs libres.
### Conclusions
Le grand défi des réseaux libres rejoint celui du logiciel libre: celui de
l'autonomie et de sa pérennité. Le soutien financier des développements d'une
part, et le marketing des solutions d'autre part se trouvent au cœur des
problématiques qui limitent leur autonomie. L'infrastructure nécessaire à la
libération des citoyens internautes doit prioritairement venir des
utilisateurs eux-mêmes. Elle peut devenir autonome pour autant que ses
utilisateurs la prennent en charge, comme ils prennent en charge d'autres
ressources nécessaires à la préservation de la communauté. Le développement
durable et la disponibilité d'une infrastructure publique et sociale de
communication ne peut émerger que si la souveraineté technologique est perçue
comme un bien commun par une masse critique de participants.
L'omniprésence du tout-gratuit cache les capitaux colossaux investis par les
entreprises pour capturer leurs audiences. Le tout-gratuit est une manière de
tuer la compétition dans l'œuf: car seuls peuvent participer à ce jeu ceux qui
disposent déjà de larges réserves financières. Pourtant, après les
révélations de Snowden exposant l'étendue de la surveillance globale, on peut
voir certaines conséquences dans l'évolution des habitudes d'usage des outils
de recherche [^48] ou dans le renouveau
d'attention portée par certaines institutions aux alternatives logicielles
libres. Cette tendance doit s'accompagner d'une prise de position de la part
des utilisateurs eux-mêmes dans leurs choix technologiques, matériels et
logiciels, et dans leur décision de supporter les efforts de développements
alternatifs.
La campagne annuelle de financement de Wikipedia annonce que si chaque
personne lisant son annonce contribuait seulement trois dollars, elle serait
terminée en deux heures ! C'est cette réalisation de la puissance des grands
nombres qu'il nous faut rencontrer pour achever une vision démocratique de
l'Internet libre et public. Si le citoyen pris dans son isolement d'individu
ne dispose généralement pas de larges sommes, des campagnes de *crowdfunding*
(financement par la foule) permettent de capitaliser instantanément les fonds
nécessaires à une entreprise donnée.
Le *crowdfunding* reste cependant une forme d'allocation des ressources qui
appartient à la consommation: le « financeur » est un fait un acheteur qui
paie par avance le produit qui lui est proposé. Au contraire, une telle
campagne devrait être un investissement afin de renforcer l'infrastructure
publique générée. C'est l'argument développé par Dmytri Kleiner dans le
Manifeste Télécommuniste. Chaque communauté devrait pouvoir gérer son propre
investissement, comme le proposait déjà en 2009 le projet Lorea.
Certes les choix des technologies à supporter dépend d'une élite apte à
l'analyse technique, et les innovations scientifiques sont permanentes. Mais
le choix éthique ne dépend pas de la compétence technique. Si les techniciens
connaissent l'orientation éthique d'une communauté, ils devraient être
capables de la prendre en compte dans leur analyse. La surveillance globale
est apparue parce qu'elle est techniquement possible, et parce que ce choix
technique s'est effectué sans restriction éthique ni légale, en toute
impunité.
Logiciel libre, services décentralisés, distribués, reproductibles et
communautaires, nœuds autonomes, participation et investissement sont les clés
d'une infrastructure de communication publique, durable et saine, susceptible
non-seulement de préserver la vie privée des citoyens, protéger la liberté des
individus et des peuples en lutte contre des régimes totalitaires, sinon
également de fournir les bases de la démocratie du XXI^ème^ siècle pour
adresser ensemble, dans la pluralité et la diversité des situations
individuelles et collectives, les immenses problématiques planétaires
auxquelles nous sommes tous confrontés. L'avenir des réseaux sociaux commence
à leur source: c'est-à-dire nous-mêmes.
------------------------------------------------------------------------
**Hellekin:** Responsable officiel du projet GNU consensus. Développeur à
temps perdu, activiste à temps plein, il navigue sur les réseaux et les
continents à la recherche de solutions pour l'émancipation et le bien-être de
l'espèce humaine suivant ses idéaux libertaires. Depuis sa base en Amérique
Latine, il contribue à forger une infrastructure publique et communautaire des
réseaux de communication électroniques pour défendre et valoriser les
initiatives locales et décentralisées. GnuPG: 0x386361391CA24A13
------------------------------------------------------------------------
[^10]: https://fr.wikipedia.org/wiki/Tor_!%28r%C3%A9seau%29
[^11]: https://fr.wikipedia.org/wiki/I2P
[^12]: http://cjdns.info/
[^13]: https://fr.wikipedia.org/wiki/Bitcoin
[^14]: Un service centralisé fait souvent usage de la distribution au sein de sa propre infrastructure pour en assurer l'extensibilité à grande échelle.
[^15]: La FSF fête en 2014 le trentième anniversaire de sa création.
[^16]: Thompson, Ken (1984) “*Reflections on Trusting Trust*”, URL: http://cm.bell-labs.com/who/ken/trust.html (Noter l'usage tendencieux du terme 'hacker' dans son acception maligne, et comment ces réflexions s'appliquent aujourd'hui aux abus des agences de renseignement.)
[^17]: La complicité des géants du logiciel propriétaire dans la surveillance globale effectuée par la NSA devrait rendre ce point tout à fait indubitable.
[^18]: Stallman, Richard (1996), “Qu'est-ce que le logiciel libre ?”, URL: https://gnu.org/philosophy/free-sw.fr.html
[^19]: http://www.fsffrance.org/
[^1]:Le Web 2.0 est un concept marchand inventé pour qualifier l'apparition de sites interactifs à caractère social. Le « 2.0 » ne représente ici aucun caractère technique, mais recherche l'empreinte de l'obsolescence de l'existant, c'est-à-dire le Web original, pair-à-pair et décentralisé.
[^20]: https://gnu.org/home.fr.html
[^21]: https://gnu.org/consensus
[^22]: Hors-la-loi: criminels et spameurs, agences de renseignement, corporations et gouvernements totalitaires, etc.
[^23]: https://gnunet.org/
[^24]: http://secushare.org/
[^25]: http://prism-break.org/fr/
[^26]: https://gnu.org/s/social/
[^27]: http://friendica.com/
[^28]: http://pump.io/
[^29]: http://twister.net.co/
[^2]: https://fr.wikipedia.org/wiki/Jacob_Levy_Moreno
[^30]: http://www.elgg.org/
[^31]: https://lorea.org/
[^32]: https://we.riseup.net/crabgrass
[^33]: https://drupal.org/
[^34]: http://indiewebcamp.com/
[^35]: http://jit.si/ pour le service, et http://jitsi.org/ pour le logiciel.
[^36]: http://tox.im/ vise le remplacement de Skype par une solution libre.
[^37]: https://leap.se/fr
[^38]: https://pond.imperialviolet.org/
[^39]: https://fr.wikipedia.org/wiki/I2P#Optionnelles
[^3]: Barnes, John (1954) “*Class and Committees in a Norwegian Island Parish*”, dans Human Relations, (7), pp 39-58.
[^40]: https://help.riseup.net/fr/email
[^41]: http://www.autistici.org/fr/
[^42]: https://gnu.org/s/mediagoblin
[^43]: https://unhosted.org/
[^44]: Kleiner, Dmytri (2010), “Le manifeste télécommuniste”, URL: http://telekommunisten.net/the-telekommunist-manifesto/ • http://translatedby.com/you/the-telekommunist-manifesto/into-fr/trans/
[^45]: MMORPG: Massively Multiplayer Online Role Playing Games, ou jeux massivement multi-joueurs en ligne.
[^46]: http://www.planeshift.it/
[^47]: https://fr.wikipedia.org/wiki/Crystal_Space
[^48]: StartPage, Ixquick et DuckDuckGo ont vu multipliée par 5 l'affluence à leurs moteurs de recherche suite aux différents articles parus notamment dans Der Spiegel et The Guardian en décembre 2013.
[^4]: https://fr.wikipedia.org/wiki/Howard_Rheingold
[^5]: https://fr.wikipedia.org/wiki/Paul_Baran
[^6]: Baran, Paul (1962) “*On Distributed Communications Networks*”, présenté lors du premier congrès des sciences des systèmes d'information, organisé par MITRE
[^7]: Le « bavardage », rendu possible par le faible coût des communications numériques se pratique par exemple grâce aux protocoles *Internet Relay Chat* (IRC) et *eXtensible Messaging Presence Protocol* (XMPP), bien avant l'apparition d'applications propriétaires et restreintes comme MSN ou Facebook *chat*.
[^8]: https://fr.wikipedia.org/wiki/BitTorrent_%28protocole%29
[^9]: https://fr.wikipedia.org/wiki/GNUnet