Deux attitudes à éviter lorsque l’on aborde les techniques numériques
L’interrogation sur les enjeux éthiques des nouvelles technologies doit se garder de deux écueils symétriques, les jugements technophiles d’une part, qui célèbrent un peu naïvement les gigantesques promesses de développement et d’émancipation qu’elles octroieraient pour ainsi dire automatiquement ; les déclarations technophobes de l’autre qui y voient une menace existentielle majeure pour l’humanité, une forme d’abrutissement général, etc.
Face à ces deux attitudes caricaturales, la philosophie critique de la technologie peut nous aider à nous frayer un chemin vers une approche plus nuancée des enjeux éthiques car elle affirme d’une part que la technologie n’est pas autonome, qu’elle n’est pas indépendante du social, mais qu’au contraire elle est imprégnée de normes et de valeurs qu’elle contribue à reproduire ou à promouvoir, d’autre part qu’elle est traversée par des conflits sociaux, des rapports de domination qui sont susceptibles d’être transformés.
À l’évidence, l’essor du numérique semble bouleverser notre vie quotidienne et procéder à une véritable colonisation du monde. Il bouleverse notre rapport à l’information (avec les moteurs de recherche, Twitter, etc.) ; transforme nos conceptions relatives à la connaissance (avec les encyclopédies en ligne, l’accès facilité à des bases d’articles scientifiques ou de vulgarisation, les MOOC) ; il s’immisce dans nos manières de faire société et transforme nos relations sociales (avec Facebook ou Instagram, par exemple) ; il a été à l’origine d’une mutation des industries culturelles et d’un changement dans nos rapports à la culture et aux loisirs (Amazon, YouTube, Deezer, iTunes, Netflix, etc.) ; il est à l’origine de nouvelles pratiques qui impactent nos conditions de travail, mais aussi les administrations, les modalités de gouvernance, etc.
Comme il paraît transfigurer les anciens rapports de régulation et de pouvoir et amplifier nos capacités, le numérique semble constituer une nouvelle « forme de vie » en commun et pour autant que l’éthique peut être comprise soit, dans une perspective positive, comme une visée de la vie bonne (source : Selon la définition donnée par Paul Ricœur « Une vie bonne, avec et pour autrui, dans des institutions justes », Soi-même comme un autre, Paris, Seuil, 1990), soit, dans une perspective plus critique, comme une dénonciation des formes de vie mutilées (source : T.W. Adorno, Minima Moralia. Réflexions sur la vie mutilée, Paris, Payot, 2003), sa voix doit se faire entendre dans les transformations actuelles, et c’est d’ailleurs bien le cas, en particulier si l’on considère les réflexions actuelles qui entourent la question de l’intelligence artificielle (considérez par exemple, pour se limiter à la France, les excellents rapports de la CNIL de décembre 2017 ou celui de la CERNA rendu en juin 2017).
Mais la question éthique requiert désormais non pas une approche réactive, qui ne s’interrogerait que sur les « impacts » des technologies une fois que ces derniers ont eu lieu, comme si technique et social n’étaient pas d’emblée liés, mais une démarche proactive qui est désignée par le terme d’éthique « by design » et qui implique de s’interroger en amont, c’est-à-dire dès la conception d’une innovation technologique ; une telle perspective implique bien évidemment une collaboration accrue entre les disciplines techniques et scientifiques et les sciences humaines et sociales, mais elle invite aussi à une idée radicalement différente de la conception technique et conteste d’emblée toute velléité technocratique.
Pour que l’interrogation éthique ne soit pas considérée comme un à-côté secondaire, il faut donc promouvoir une conception différente des techniques elles-mêmes, suivant en cela A. Feenberg qui affirme que les approches traditionnelles considèrent "la technologie actuelle comme une donnée intangible", ne s’interrogeant ni sur les conceptions qui ont présidé à sa formation ni sur son évolution.
"Elles négligent du coup l’éventualité que ce qui se présente sous la forme de dilemmes éthiques individuels puisse être résolu par des arrangements technologiques différents. À mon sens, au contraire, la question axiologique que la philosophie doit poser est celle qui porte sur l’origine proprement sociale des technologies et des systèmes techniques et sur les possibilités que nous avons de les modifier. Cette position débouche directement sur une interrogation essentiellement politique de la nature de la modernité et ouvre à la possibilité d’alternatives au modèle dominant" (source : A. Feenberg, (Re)Penser la technique. Vers une technologie démocratique, Paris, La Découverte, 2004).
La nécessité d’une réflexivité éthique
Une telle interrogation éthique est d’autant plus nécessaire que la période actuelle se caractérise par ce que Gérard Berry appelle « l’hyperpuissance de l’informatique » (source : Gérard Berry, L’Hyperpuissance de l’informatique. Algorithmes, données, machines, réseaux, Odile Jacob, 2017), une hyperpuissance opaque tout à la fois pour les citoyens et les politiques. Si l’on souhaite schématiser très brièvement les racines de la révolution que nous connaissons actuellement, on peut mettre en avant trois éléments :
La mise au point, à partir du travail de Turing, d’un nouveau modèle de calcul, instrument purement conceptuel, à savoir une machine universelle, c’est-à-dire une machine qui peut simuler n’importe quelle autre machine spécifique (source : Nous ne pouvons pas entrer dans la complexité des choses. Nous nous permettons de renvoyer au magnifique livre de G. Dowek intitulé Les Métamorphoses du calcul, Le Pommier, 2007). Dans un second temps, la mise au point des ordinateurs et leur diffusion auprès du grand public à la fin des années 70.
Un langage universel, dans la foulée des travaux de C. Shannon, à savoir que les textes, les images, les vidéos peuvent être codés sous forme de suite de chiffres binaires ; cette information étant alors numérisée, elle peut être transmise avec un taux d’erreur résiduel arbitrairement faible. Comme l’affirme Jean Lassègue, le codage numérique « rend complètement homogène des phénomènes très différents : une image, un texte, de la voix, des analyses sanguines, etc. N’importe quel ordre de phénomènes peut a priori recevoir un codage numérique traitable par un ordinateur. Ainsi tout phénomène, qu’il soit naturel ou culturel, peut être reporté sur le plan du codage numérique, c’est-à-dire de l’écriture des nombres » (source : A. Garapon et J. Lassègue, Justice digitale, Paris, PUF, 2018).
Encore une fois, on entrevoit assez facilement les problèmes éthiques qui peuvent s’ensuivre ; une telle équivalence générale est par exemple à l’origine d’un bouleversement profond des industries culturelles, des modes de propriété, mais aussi des problèmes que l’on rencontre actuellement quant à la prolifération des données (sécurité, confidentialité, questions du consentement, question du profilage, etc).Un réseau des réseaux, à savoir Internet, et en particulier son application la plus célèbre, le web ; Internet donne de nouvelles possibilités d’expression, de partage (le peer-to-peer, les réseaux sociaux) et contribue à des formes de démocratisation (des connaissances, par exemple, avec Wikipedia) ; mais c’est un réseau qui nous confronte également à des questions épineuses de gouvernance de l’Internet (cf. le récent débat sur la neutralité sur lequel nous reviendrons), implique que soient pensées les questions de traçabilité, de pouvoir des plateformes, de droit à l’oubli, de droit à la déconnexion, et que soient analysées les nouvelles formes de désintermédiation, de capture de l’attention, etc.
Critique de deux thèses qui font obstacle à une compréhension des enjeux éthiques des techniques
Le questionnement éthique doit également être porté par une interrogation critique sur les sociétés dans lesquelles nous vivons, sur les dynamiques qui les portent et qui concourent à la promotion et à la diffusion de certaines technologies ; il doit donc s’articuler de manière essentielle à une philosophie des technologies qui conteste un certain nombre de thèses répandues.
Le déterminisme technologique
Si incontestablement, les médiations technologiques importent dans la construction d’une société, il convient néanmoins de ne pas céder à la thèse du déterminisme technologique selon laquelle la technologie s’impose irrésistiblement à l’homme et transforme les systèmes sociaux de manière quasiment mécanique (« on n’arrête pas le progrès ! »). Une telle thèse est par exemple à l’origine de certaines formes de questionnement sur l’intelligence artificielle présentée comme une technologie radicalement disruptive à laquelle il conviendrait de « préparer nos sociétés », comme si la technique était autonome et que nous ne pouvions prendre de mesures que préventives.
La neutralité des techniques
On soutient souvent la thèse de la neutralité des techniques : la technologie serait en elle-même moralement neutre, le bien et le mal dépendant des usages que l’on en fait. Langdon Winner prend un exemple qui peut être intéressant à cet égard, celui des ponts qui enjambent les autoroutes de Long Island à New York ; il se trouve que ces derniers sont démesurément bas (2, 70 mètres). Or il se trouve que cette taille s’explique par les préjugés raciaux de leur concepteur, Robert Moses.
En effet, les conducteurs blancs se déplaçaient en voiture, tandis que les pauvres et les personnes de couleur utilisaient les bus ; le dispositif permettait donc de limiter l’accès de ces dernières au jardin public de Jones Beach qui était une autre réalisation de Moses. Des choix techniques en apparence anodins cachent et masquent des choix sociaux et des impositions de valeurs qui sont donc d’une importance centrale.
Les techniques ne sont donc pas neutres et cette absence de neutralité fonde la nécessité d’une critique éthique et politique des dispositifs ainsi mis en place. Winner commente en effet l’exemple de Moses de la manière suivante :
« Ce que nous appelons "technologies" participe à la mise en ordre de notre monde. De nombreux appareils et systèmes techniques qui sont importants dans notre vie quotidienne recèlent des possibilités différentes de mise en ordre des activités humaines. Consciemment ou non, délibérément ou non, les sociétés choisissent des structures technologiques qui influent sur la manière dont les gens vont pendant très longtemps travailler, communiquer, voyager, consommer, etc. » (source : Langdon Winner, op. cit., p. 58).
En somme, les artefacts font de la politique sans le savoir…
L’horizon idéologique de la société de l’information : de l’éthique à la critique des idéologies contemporaines
Ces deux thèses sont d’autant plus dangereuses qu’elles constituent bien souvent l’horizon préalable du raisonnement des ingénieurs, mais qu’elles sont aussi tacitement à l’origine des qualificatifs que nous utilisons pour déterminer nos sociétés (société de l’information, de la connaissance, société numérique). Tout se passe comme si l’articulation même de notre monde ainsi que son avenir et ses dynamiques dépendaient entièrement et uniquement d’une telle médiation technologique.
De fait, nous en sommes venus à penser nos sociétés à travers le filtre de certains dispositifs techniques ; or, au lieu de nous demander en quoi « le numérique » fait société, question qui semble par avance annihiler toute possibilité d’action individuelle et collective, il conviendrait davantage que nous nous interrogions sur ce que nous faisons du numérique, à la fois au sens de la manière dont nous le construisons et des modalités selon lesquelles nous en faisons usage. Malheureusement, un ensemble de discours médiatiques et politiques substituent un affichage promotionnel et prospectiviste à une réelle discussion démocratique des choix technologiques.
Ainsi, les labels utilisés pour décrire nos sociétés ne sont pas des catégories descriptives, mais forment des « idéologies d’accompagnement ». Le lexique de la « société de l’information », qui fait référence à une notion d’information relativement floue, a une généalogie complexe qui montre l’intrication entre valeurs éthiques, choix politiques, inventions technologiques et imaginaire technologique. Raison pour laquelle l’éthique se doit d’opérer également une critique de cette catégorie qui masque des enjeux de pouvoir réels et oublie les rapports matériels au profit d’une simple promotion de la transparence, de la flexibilité, du libre flux de l’information, de la communication sans frein et de la virtualité.
Aussi l’innovation et la création acquièrent alors un rôle décisif et doivent être protégées par des droits de propriété intellectuelle (brevets, etc.). Pour lui, nous assisterions à la fin de la valeur travail et au début de la valeur connaissance (Knowledge Theory of Value). Sous la plume de Bell (source : Daniel Bell, Vers la société post-industrielle, Paris, Robert Laffont, 1976), l’archétype matériel de cette société prônant l’automation sera la « machine à commande numérique » qui substitue « au jugement humain, un algorithme, c’est-à-dire une règle de décision ou un programme d’ordinateur » (postface de 1975).
On voit que l’objectivité de l’algorithme prend le pas sur le facteur humain et sa faillibilité et qu’il est promu dans une logique qui est clairement technocratique. D’où des projets centralisés importants, comme celui du Japon où le ministère du Commerce et de l’Industrie se fixe dès 1971 l’objectif d’une computopolis à l’horizon de l’an 2000.
Plus tard, le thème de la société de l’information accompagnera aussi la déréglementation des télécommunications et la naissance de l’idéologie néolibérale. Il se mêlera à une promotion des valeurs de la démocratie, comme pour les « autoroutes de l’information » prônées par A. Gore, le futur vice-président de B. Clinton qui, dans un discours célèbre en 1994, parlera alors au sujet du projet de Global Information Infrastructure d’un « nouvel âge de la démocratie athénienne ». En février 1995, le sommet du G7 qui a lieu à Bruxelles entérinera le concept de « global society of information », puis, en juillet 2000 le G8 d’Okinawa publiera une Charte de la société globale de l’information.
Mais les valeurs du libre flux de l’information ne sont pas seulement l’apanage des politiques, elles ont également rencontré la contre-culture contestataire et libertaire qui y voyait un espace à part, un cyberespace n’obéissant guère aux lois usuelles de la société (comme dans la déclaration d’indépendance proposé par J. P. Barlow en 1996).
Ces mouvements contradictoires donneront lieu à ce que Barbrook et Cameron appellent « l’idéologie californienne » (source : R. Barbrook et A. Cameron « The Californian Ideology” disponible ici), une idéologie fusionnant les rêves d’un village global faisant entrer en communication les humains, l’idée de marché auto-organisé et les valeurs libertariennes (primat des libertés individuelles) ; cette idéologie s’ancre sur un déterminisme technologique qui voit dans les TIC la principale source de changement social, ainsi en va-t-il de M. Zuckerberg qui attend de Facebook qu’il rende « le monde plus ouvert et connecté », ou d’Eric Schmidt (PDG de Google) pour lequel Internet rendait le monde « meilleur » et était « une force pour la démocratie ».
Cette pensée, typique de ces entreprises du numérique, est également le principal avocat d’une forme de solutionnisme technologique dénoncé par E. Morozov pour lequel :
« toutes les situations sociales se voient reconsidérées. Elles deviennent soit des problèmes clairement définis avec des solutions prévisibles, soit des processus transparents et allant de soi que l’on peut facilement optimiser – à la condition de disposer des bons algorithmes » (source : E. Morozov, Pour tout résoudre cliquez ici, éditions FYP, 2014, p. 22).
En somme, on fait abstraction de l’épaisseur du social et des problèmes spécifiques qu’ils peuvent poser, des modes de régulations et des procédures démocratiques pour traiter de manière simplement technologique les questions éthiques ou sociales.
Comme l’affirme B. Loveluck :
« La privatisation et la commercialisation d’Internet, au cours des années 1990, furent accueillies avec enthousiasme par ceux-là mêmes qui célébraient la liberté de l’information, l’ouverture et la réalisation de l’autonomie individuelle à travers l’informatique personnelle : l’opposition à l’establishment et ses accents contestataires étaient tout à fait solubles dans le capitalisme nouveau qui se mettait en place » (source : B. Loveluck, op. ci., p. 159).
Derrière les discours sur les caractères émancipateurs et révolutionnaires des technologies qui se drapent dans des valeurs prétendument universelles se cachent donc aussi des propos proprement politiques ; ces derniers peuvent offusquer la réflexion éthique en masquant des rapports de pouvoirs et des intérêts particuliers derrière une prétendue « objectivité » des techniques. Ainsi, il ne peut y avoir de réflexion éthique sur les techniques qui ne prenne aussi l’aspect d’une critique des formes d’injustice présentes dans nos sociétés et qui peuvent être reproduites, amplifiées et sanctifiées – mêmes inconsciemment – par les techniques si ces dernières ne sont pas suffisamment réflexives.
Puisque nous venons de voir qu'il y avait toujours de la politique derrière la technique, nous allons essayer d'approfondir ce thème dans le prochain chapitre en analysant les rapports entre Internet et la démocratie.