Nous étions partis de la question suivante : les réseaux sociaux en général, et Facebook en particulier, en s’imposant dans les pratiques quotidiennes de près d’un tiers de l’humanité, ont-ils été le vecteur de changements comportementaux et sociaux majeurs ?
Nous avons tenté de répondre à cette question, moins par l’assertion que par la formulation d’hypothèses de travail, et avons incité à prendre sur ce sujet des positions nuancées : il ne fait pas de doute qu’une variété importante de comportements ont émergé sur cette plateforme qui sont l’effet plus ou moins direct de la configuration de son interface.
Mais il n’est pas certain que ces comportements excèdent justement la sphère de ce qui se produit sur les réseaux sociaux, ni qu’ils ne participent, tous comptes faits, de changements sociaux globaux dépassant de loin le seul support numérique (peut-être, par exemple, la supposée impudeur de nos actions sur Facebook n’est-elle que le signe d’une redéfinition globale, visible dans de multiples aspects de notre existence, de ce qui est « montrable » et de ce qui ne l’est pas.)
Si bien qu’il apparaît imprudent de dire, ou bien que Facebook révolutionne notre rapport à la vie privée, ou bien que la plateforme est efficace à structurer efficacement (ou à déstructurer) le débat démocratique.
Cela étant posé, il n’en demeure pas moins que des problèmes réels se posent qui ont trait aux usages des réseaux sociaux, et au profit que les plateformes tirent de la fréquentation des usagers. Deux grands ensembles de problèmes ont pu ainsi être distingués :
des problèmes relatifs à l’exploitation que Facebook fait de nos données, et qui peut exposer notre vie privée et/ou notre sécurité à des violations ;
des problèmes liés à la façon dont l’interface Facebook semble orienter nos actions et nos interactions online – nous poussant par exemple, à des degrés divers, à prendre pour argent comptant les informations que notre fil d’actualité nous présente, à réagir agressivement aux posts qui nous disconviennent, à mêler nos voix à celles des « haters » et harceleurs en tous genres, etc.
L’usager est-il en mesure de fournir un consentement éclairé à l’utilisation qui est faite de ses données ?
Le premier point de vigilance concernera la collecte et l’utilisation des données : quelles information agglomère-t-on à propos de l’usager ? Sont-ce des informations sensibles, voire délicates ? Quelle utilisation en fera-t-on ? Quelles dérives cette collecte pourrait-elle entraîner – par exemple, si un gouvernement autoritaire pouvait récupérer ces données à des fins de répression des opposants politiques ? Et surtout : ai-je fourni à l’utilisateur les moyens de donner un consentement éclairé à l’utilisation qui sera faite de ses données ?
Ces questions, bien évidemment, ne sont pas laissées à l’appréciation des seuls concepteurs, et le problème de l’utilisation des données utilisateur a fait l’objet d’un travail législatif récent, sous l’aspect du règlement européen dit RGPD (Règlement général sur la protection des données).
Il s’agit d’un ensemble de contraintes et préconisations s’appliquant à tous les États membres de l’Union européenne, assorties d’une clause d’extraterritorialité (le règlement s’applique également à toute entreprise extra-européenne dès lors qu’elle cible des citoyens européens), et qui prévoit notamment, sous peine de sanctions :
l’obligation, pour toute entreprise collectant des données utilisateur, de fournir à l’usager les moyens de connaître l’utilisation qui sera faite de ses données, et l’obligation de demander audit usager son consentement explicite à ce que ses données soient utilisées de la sorte ;
le droit, pour l’usager, à l’effacement de toute donnée à caractère personnel, s’il en fait la demande (ce qu'on appelle encore le droit à l'oubli) ;
le droit, pour l’usager, à la portabilité de ses données personnelles – c’est-à-dire l’obligation, pour tout collecteur de données, de transmettre toutes les données personnelles d’un usager à un autre responsable de traitement si l’usager en fait la demande ;
l’obligation pour le collecteur de protéger les données dès leur collecte (principe dit de la Privacy by design) ; ce qui enveloppe notamment l’interdiction de collecter des données dites sensibles, telles que l’orientation sexuelle ou la religion de l’usager.
C’est en application du RGPD que la plupart des sites conditionnent depuis peu leur accès à la formulation d’un accord contractuel de l’usager. La question suivante mérite néanmoins d’être posée : le consentement ainsi obtenu est-il réellement éclairé ? Ou bien les entreprises sont-elles en nombre significatif à ne proposer, pour ainsi dire, qu’une caricature de consentement ?
Car encore faut-il :
que les conditions d’utilisation soient rédigées en une langue accessible ;
que les points les plus décisifs, c’est-à-dire ceux qui engagent une contrainte juridique, ne soient pas d’accès difficile, ni ne soient relégués en notes de bas de page ou liens hypertextes ;
que le site explicite ce que signifient concrètement des expressions aussi techniques, par exemple, que « octroi d’une licence d’exploitation des données usager » ;
que l’usager soit réellement incité à prendre connaissance des conditions, et non pas à cliquer aussi vite que possible sur le lien « J’accepte » afin de pouvoir accéder au contenu du site.
Mon programme contribue-t-il à établir des relations saines entre usagers ?
On a mentionné plusieurs fois que, par la configuration qu’ils proposent, certains réseaux sociaux et forums ont tendance à faciliter les relations toxiques entre usagers : insultes, commentaires déplacés, indiscrétions, voire harcèlement. Il y a à cela une multitude de raisons, dont l’une, avancée dernièrement par les pouvoirs publics français, serait l’anonymat (sinon réel, en tous cas présupposé par l’usager) des commentaires. À quoi on a pu ajouter l’effet désinhibant de l’interface, et l’existence d’une certaine culture du commentaire online.
De façon plus générale, la question du type de rapports auquel l’interface nous incite renvoie au problème dit de la neutralité de la technique : peut-on dire que l’usager est le seul responsable du bien ou du mal qu’il fait en mobilisant une technique (auquel cas on dira la technique neutre, c’est-à-dire ni bonne ni mauvaise en soi) ?
Ou bien peut-on tenir la technique pour cause, au moins partielle, de ce que font les usagers, et par conséquent imputer une partie de la responsabilité au concepteur et/ou au promoteur de la technique (auquel cas la technique serait dite non-neutre) ?
Soit par exemple une arme à feu : certes, est homicide celui qui s’en sert pour tuer quelqu’un ; mais si je confie cette arme à feu à un enfant, ne serais-je pas responsable des dégâts qu’il pourra commettre en s’en servant ? Et si je permets la libre circulation des armes à feu, ne puis-je prévoir que je vais faire augmenter le nombre de morts par balle ?
Qui plus est, l’organisation de cette libre circulation a de très fortes chances de plonger les individus dans un état de suspicion aggravée : si je n’ai pas l’intention de tuer qui que ce soit, comment puis-je en revanche m’assurer de ce que, les armes à feu circulant librement, nulle personne mal intentionnée, nul déséquilibré, ne viendra me menacer ou tenter de s’en prendre à mes proches ?
Ne dois-je pas moi-même, si je suis un individu raisonnable et prévoyant, m’armer afin de parer à toute éventualité ? Et ne risqué-je pas même de surévaluer toute menace réelle ou supposée, et de me servir abusivement de mon arme (c'est-à-dire, pour prévenir toute menace potentielle) ?
Peuvent ainsi entrer en ligne de compte dans la détermination des usages qui seront faits de la technique : les comportements prévisibles de certains usagers, les effets prévisibles de l’agglomération de certains comportements, et le contexte institutionnel et humain d’utilisation de la technique.
L’usager peut-il devenir victime de l’utilisation qu’il fera de mon programme ?
Enfin, l’utilisateur risque-t-il, à terme, de se rendre victime de l’utilisation qu’il fera du logiciel ? La question se pose particulièrement, pour ce qui concerne les réseaux sociaux, sous deux aspects : celui de l’auto-exposition de l’usager, qui en montrant des éléments sensibles de sa vie privée risque de s’exposer narcissiquement, et partant de subir des violences psychologiques ; celui de l’aliénation qu’une addiction aux réseaux sociaux ou une hyper-connexion risquent de susciter chez l’usager.
Pour s’en tenir à ce dernier aspect, les questions que le concepteur devrait toujours se poser sont les suivantes : mon programme, à la façon du système de réactions et de notifications de Facebook, est-il conçu pour rendre l’usager addict, et ce faisant maximiser le temps qu’il passera à se servir de mon programme ? Et mon logiciel risque-t-il, par sa disponibilité ou son système de notifications, d’envahir le quotidien de l’usager ?
En résumé de la partie 4
Lors de cette dernière partie, nous avons examiné les effets structurants des réseaux sociaux, en partant du modèle de Facebook. Nous avons analysé les possibles effets de cet usage sur les pratiques de la vie sociale et tenté de trouver les moyens utiles à la correction de ces effets. En particulier, en tant que concepteur technique, il convient d’envisager les responsabilités, la vôtre, celle du dispositif technique, celle des parties prenantes, dès la phase amont, afin d’éclairer les principes de nos actions et leurs effets prévisibles.