www.zejournal.mobi
Jeudi, 26 Déc. 2024

Facebook, la suprématie informationnelle érigée en modèle économique

Auteur : Yvan Failliot et Antoine Manœuvre | Editeur : Walt | Samedi, 29 Févr. 2020 - 14h59

« If You’re Not Paying for It ; You’re the Product ». (Si vous ne le payez pas ; Vous êtes le produit)

Avec Google voit le jour un nouveau business model : celui de la captation d’informations personnelles en ligne, dans le but de les monnayer. Facebook innove néanmoins sur un point majeur : les utilisateurs livrent leurs informations sciemment, sous toute forme (écrit, image, vidéo, etc.) ; tandis que dans le cas de Google, ils n’en ont le plus souvent pas conscience (système de cookies). Ce mastodonte joue à la fois sur la demande (captation) et sur l’offre (influence), puisqu’il extrait autant d’informations qu’il en propose (publicité, recommandations de pages, etc.). Le réseau social, concourt également à diffuser un « être au monde » très américain, en plus de servir indirectement des intérêts nationaux. Cette mainmise informationnelle suppose des ressorts spécifiques (moraux, politiques, psychologiques, technologiques, financiers).

Un modèle de représentation américain ?

Christopher Lasch, historien américain, écrit en 1979 l’ouvrage intitulé « La culture du narcissisme : la vie américaine à un âge de déclin des espérances », y décrivant un phénomène de rationalisation et de banalisation d’un comportement narcissique, qui vient s’inscrire dans la culture américaine. Se basant notamment sur les travaux de Freud, Lasch estime que ce qu’il définit comme le « moi-acteur » est soumis au jugement permanent d’autrui, aussi bien proches, qu’amis ou étrangers : « tous, tant que nous sommes, acteurs et spectateurs vivons entourés de miroirs ; en eux, nous cherchons à nous rassurer sur notre pouvoir de captiver ou d’impressionner les autres, tout en demeurant à l’affût des imperfections qui pourraient nuire à l’apparence que nous voulons donner ». On assiste dès lors à une véritable théâtralisation de la vie quotidienne. C’est la volonté de popularité qui domine : une recherche permanente d’un succès subjectif, dont l’existence ne se mesure qu’au regard d’autrui.

Cette analyse semble trouver une résonance particulière dans des travaux de Tracy Alloway, professeur de psychologie à l’Université de Floride du Nord. Celui-ci observe, en 2014, que Facebook avait pour principal effet de recentrer l’individu sur sa propre représentation, générant des comportements narcissiques, une tendance à être « obnubilé par soi-même » ; ce phénomène étant dû à un renforcement des connexions entre utilisateurs ayant trait à l’image et aux fonctionnalités qui en découlent (le partage, la reconnaissance par le système de likes, etc.).

Un objectif pour le monde ?

Lors de son introduction en bourse, en 2012, Mark Zuckerberg expliquait que le but originel de Facebook n’était pas d’engendrer une entreprise sur-performante, mais plutôt d’accomplir une « mission sociale » : celle de construire un monde plus ouvert et connecté. En 2017, lors d’un rassemblement de nombreux leaders à Chicago, Zuckerberg « actualise » ou « étend » son propos en parlant de « donner aux gens le pouvoir de construire une communauté et de rapprocher le monde ensemble ». Ainsi, le réseau social n’aurait plus seulement vocation à rapprocher amis et famille, mais également à créer des communautés plus larges – qui auraient du sens – en engageant les gens à prendre conscience de différents enjeux/perspectives (ex : changement climatique, problématiques de santé). La thèse de fond est la suivante : être exposé à des informations et à des idées communes ne suffit pas à rassembler les individus, ils doivent s’identifier à des personnes qui semblent différentes d’eux-mêmes pour adopter de nouvelles perspectives. Facebook ajuste alors son algorithme pour suggérer des groupes en fonction de la pertinence que l’utilisateur pourrait leur reconnaître, par opposition à la probabilité pour cet utilisateur de rejoindre un cercle particulier. Cette nouvelle mission aurait été inspirée au fondateur de Facebook en réaction à la perte d’enthousiasme, croissante dans le monde, portée à la mondialisation[1].

Cette logique d’influence semble en partie provenir du gouvernement américain. Dès 2010, la jeune administration Obama, s’exprimant alors par la voix d’Hillary Clinton, était en effet très claire : « les nouvelles technologies ne prennent pas partie dans la lutte pour la liberté et le progrès, mais les États-Unis le font », n’hésitant pas à ajouter aux quatre libertés humaines fondamentales exposées par Roosevelt – la liberté d’expression, la liberté de religion, la liberté de vivre à l’abri du besoin, la liberté de vivre à l’abri de la peur – une cinquième : la « liberté de se connecter ». « Nous défendons un Internet unique où toute l’humanité a un accès égal au savoir et aux idées. Et nous admettons que l’infrastructure mondiale de l’information deviendra ce que nous et d’autres en faisons ». Pour comprendre les motifs probables de cette doctrine, il faut revenir aux déconvenues d’image qu’avaient connu les Etats Unis au cours de la décennie. D’après Meyer Robinson, « à la suite de la guerre en Irak et de la grande récession, alors que l’économie et la cause de la promotion de la démocratie étaient en lambeaux, seule l’industrie de la technologie semblait prête à lancer un cri de ralliement civique digne de confiance pour le peuple américain. Seule la technologie a produit un objectif séculaire acceptable pour le pays : la connexion. […] Facebook, une société privée agile, semblait sur le point d’inaugurer le village mondial d’une manière que les États-Unis, une république lugubre, ne pourraient jamais. Si ce n’était pas le travail de Facebook de sauver le libéralisme mondial, c’était comme si »[2].

Cette ligne de discours est cependant elle aussi menacée depuis quelques années par d’anciens dirigeants importants. Andrew Bosworth a en effet déclaré que le dessein originel de Facebook n’était pas moral, comme le prétend Zuckerberg, mais bien économique. L’objectif était, dans un premier temps, d’amasser un maximum d’utilisateurs (masse critique) ; c’est par la suite que la stratégie du groupe va changer : dès lors vont se développer de nombreuses fonctionnalités, invitant les utilisateurs à partager et à réagir à une quantité croissante de contenus. Les interactions captées attirant l’intérêt des entreprises, pour l’achat d’espaces publicitaires, d’autant plus performants car ciblées[3].

Outre l’aspect financier, la révélation du programme PRISM laisse penser que le gouvernement américain avait un intérêt à ce que le nombre d’utilisateurs augmente, pour leurs besoins de renseignement, tout en laissant miroiter des objectifs louables pour l’Humanité.

Gaudiaut Tristan, « Réseaux sociaux : que savent-ils sur nous ? », Statista, 2019.

Des méthodes de renseignement au service d’un succès économique

Il nous a paru intéressant de comparer certaines pratiques de Facebook à la matrice de renseignement bien connue, MICE (money, ideology, coercion, ego) ; à l’exclusion simple du coercion, cette dernière dimension se confrontant à une barrière légale (il cependant intéressant de noter que l’aspect coercion, de l’aveu même des spécialistes du renseignement, se caractérise par sa faible efficacité/fiabilité)[4].

Money. Il arrive à Facebook de recourir à de la rémunération directe d’utilisateurs, contre la fourniture par ces derniers d’informations personnelles. C’est le cas de la « Facebook Research App » : le téléchargement de l’application sur smartphone est rémunéré une vingtaine d’euros contre l’accès, par exemple, aux messages privés, aux recherches en ligne, aux géolocalisations, mais aussi aux sites et applications fréquentés. Lors du recrutement initial des volontaires pour tester l’application, le nom Facebook n’était pas directement mentionné.

Ideology. De nombreux groupes aux motivations idéologiques prolifèrent sur Facebook. Leur présence tient largement à la large audience d’utilisateurs que rassemble la plateforme. Le réseau social représente ainsi un canal numérique obligé, afin de maximiser la transmission d’idéaux. Ce phénomène, assez logique, représente une manne de producteur de contenus et d’utilisateurs supplémentaires, que Facebook ne manquera pas d’exploiter.

Ego. Facteur évoqué plus haut, trouvant son moteur dans la recherche de la validation d’autrui.

Sur le plan technique, lors de son audition au Sénat américain, en 2018, Mark Zuckerberg détaille les différentes informations collectées – dont il précise qu’elles sont en accord avec les conditions générales d’utilisation – à une question du sénateur Blunt[5]. Le président de Facebook justifie ces mesures par la volonté de pouvoir fournir une expérience plus personnalisée. On y apprend que les services de Facebook fonctionnent sur plusieurs appareils : ordinateurs, téléphones, téléviseurs connectés et d’autres appareils accédant au web ; ces informations sont ensuite combinées, incluant les éléments suivants :

  • Les attributs de l’appareil : système d’exploitation, matériel, logiciels, versions, niveau de la batterie, puissance du signal, espace de stockage disponible, type de navigateur, application, noms de fichiers/types, et plugins.
  • Opérations sur périphérique (ex : si une fenêtre est au premier plan ou en arrière-plan).
  • Identifiants : identifiants uniques, identifiants d’appareils et autres identifiants (ex : jeux, applications ou comptes utilisés par les utilisateurs et identifiants d’appareil familial).
  • Signaux du périphérique : Bluetooth, Wi-Fi, balises et tours de téléphonie cellulaire.
  • Données des paramètres de l’appareil : informations dont un utilisateur permet l’accès dans ses paramètres d’appareils, tels que la position GPS, ou l’appareil photo.
  • Réseau et connexions : nom de l’opérateur mobile ou FAI (fournisseur d’accès Internet), langue, fuseau horaire, numéro de téléphone mobile, adresse IP, vitesse de connexion et, dans certains cas, des informations sur les autres périphériques situés à proximité ou sur leur réseau.
  • Données de cookies.

Les annonceurs, les développeurs d’applications et les éditeurs peuvent de plus envoyer des informations additionnelles via les outils commerciaux Facebook qu’ils utilisent (ex : plug-ins tels que le bouton J’aime, les API et les kits de développement logiciel, etc.), permettant de collecter des informations relatives aux appareils, sites Web visité, achats effectués, publicités affichées, ainsi que sur l’utilisation de leurs services ; que les utilisateurs aient ou non un compte Facebook, qu’ils soient ou non connectés. Facebook reçoit également des informations sur les actions et les achats en ligne et hors ligne provenant de fournisseurs de données tiers ayant les droits nécessaires.

Facebook propose également des applications comme Ovano, dont le but affiché est d’offrir un service VPN. L’application permet à Facebook de récupérer des informations personnelles des utilisateurs. C’est notamment grâce aux remontés d’informations issues de cette application que Facebook aurait décidé de racheter la messagerie WhatsApp[6].

A ces éléments de collecte très poussés, s’ajoutent des capacités d’analyse tout aussi impressionnantes. Par exemple, un algorithme est capable de fournir des éléments de compréhension d’une photo mise en ligne sur la plateforme[7]. Autre exemple : Facebook Messenger, qui permet aux personnes de communiquer en privé serait « écouté » à l’aide de « robots », qui peuvent, par exemple, surveiller la fidélité à des marques ou des tendances sociales[8].

Une concentration du capital informationnel

Facebook s’empare de ses concurrents, directs ou indirects, s’illustrant dans des rachats augmentant sa sphère de captation informationnelle. Cette volonté s’illustra notamment lors de l’acquisition d’Instagram (2013), puis WhatsApp (2014). Plus récemment, Facebook tentait à nouveau une proposition de rachat envers Snapchat. Aujourd’hui, Facebook semble particulièrement s’intéresser à la réalité virtuelle et à la réalité augmentée, pour moins dépendre de Google et Apple.

De même que des groupes aux objectifs idéologiques – comme les partis ou les associations – s’intéressent au réseau social comme canal de diffusion (du fait de la masse d’utilisateurs atteignable), la même logique s’étend à d’autres types d’acteurs, comme les entreprises ; Facebook étant en effet devenu une extension du terrain concurrentiel pour toute entreprise souhaitant développer sa communication et toucher un maximum de personnes. Or, la présence de ces nouveaux acteurs implique de nouvelles interactions générées avec les utilisateurs et collectées par le réseau social ; ainsi, ces dynamiques ne provoquent non pas une addition des champs informationnels, mais une multiplication.

Des moyens d’influence importants

Facebook posséderait enfin des moyens d’influence importantes, d’après les propos tenus par l’un de ses ex-dirigeant, Chamath Palihapitiya, lors d’une conférence donnée à Stanford en 2017. « Si vous nourrissez la bête elle finira par vous détruire » ; selon lui, plus l’utilisateur donne d’informations à Facebook plus il réduit son champ de liberté ; la plateforme aurait maintenant la capacité de manipuler d’importantes foules grâce à son algorithme surpuissant, c’est-à-dire de donner une information en adéquation avec le schéma de pensée de l’utilisateur à un moment opportun, et cela sans considération de véracité de l’information[9].

Outre les données pouvant être collectées sur Facebook et pouvant être utilisées pour pencher sur les élections (Cambridge Analytica), le réseau social peut, de manière autonome, influencer des résultats électoraux. Ce type de fonctionnalité est expérimenté dès 2010 aux États-Unis, où un rappel pour se rendre aux urnes est mis en place, couplé à un bouton social « j’ai voté ». Selon Facebook, cette expérience aurait permis 340 000 votes supplémentaires à l’échelle nationale[10]. Les messages ont en effet directement influencé l’auto-expression politique des utilisateurs, la recherche d’informations, ainsi que les comportements de vote ; impactant non seulement les utilisateurs récepteurs directs, mais également leurs amis, et amis d’amis. Michael Buckley, interrogé dans le New York Times sur ces pratiques certifie que l’effort de Facebook est neutre : « Bien que nous encourageons tous les candidats, tous les groupes, et les votants à utiliser notre plate-forme pour participer aux élections, nous en tant qu’entreprise n’avons pas utilisé nos produits de manière à influencer la façon dont les gens votent »[11]. Cette neutralité reste cependant très contestée par de nombreux observateurs et certains faits, comme en 2016, où des signalements alléguèrent aux Etats-Unis que Facebook avait supprimé des publications à orientation conservatrice[12]. Rappelons également que Mark Zuckerberg n’est pas neutre politiquement[13].

Dans un autre domaine, Facebook expérimente, en 2012, une expérience de masse, sur près de 690 000 utilisateurs. « Pendant une semaine, à l’initiative d’un « data scientist » de la compagnie et de deux chercheurs universitaires, le flux d’actualité de « cobayes » a été modifié, sans qu’ils en soient informés. Une partie recevant des publications à connotation positive, l’autre, des messages négatifs. Objectif : tester la « contagion émotionnelle » sur les réseaux sociaux »[14]. Cette expérience d’abord restée secrète jusqu’à la publication de l’étude sur le site du PNAS (Proceedings of the National Academy of Science), provoqua par la suite des vagues d’indignation. L’étude résume en substance : « lorsque les expressions positives étaient réduites, les gens produisaient moins de messages positifs et plus de messages négatifs ; lorsque les expressions négatives ont été réduites, la tendance opposée s’est produite. Ces résultats indiquent que les émotions exprimées par d’autres sur Facebook influencent nos propres émotions, constituant une preuve expérimentale de la contagion à grande échelle via les réseaux sociaux. Ces travaux suggèrent également que, contrairement aux hypothèses dominantes, les interactions en personne et les signaux non verbaux ne sont pas strictement nécessaires à la contagion émotionnelle, et que l’observation des expériences positives des autres constituent une expérience positive pour les personnes »[15]. Facebook s’était à l’époque une nouvelle fois défendu en arguant des pratiques conformes aux conditions générales d’utilisation[16].

Notes:

[1] Chaykowski Kathleen, Mark Zuckerberg Gives Facebook a New Mission, Forbes, 2017.

[2] Meyer Robinson, « Facebook’s Ideological Imperialism », The Atlantic, 2018.

[3] Cohen Noam, « The truth about Facebook’s fake quest to connect the word », Wired, 2018.

[4] Talks with a Spy, « Comment recruter une source ? », Youtube, 2018.

[5] Zuckerberg, « Responses to Commerce Committee », U.S Senate, 2018.

[6] Ronfaut Lucie, « Facebook paie des adolescents pour exploiter les données de leur smartphone », Le Figaro, 2019.

[7] Hill Victor, « Facebook : Technology or Ideology ? », Master Investor, 2016.

[8] Ibid.

[9] « Chamath Palihapitiya, Founder and CEO Social Capital, on Money as an Instrument of Change », Youtube, 2017.

[10] Poggi Nora, « Comment Facebook influence les élections américaines ? », L’Usine Digitale, 2014.

[11] Option cit.

[12] Hill Victor, « Facebook: Technology or Ideology? », Master Investor, 2016.

[13] Lejeune Léa, « Aux Etats-Unis, Mark Zuckerberg ferait-il un bon président démocrate ? », Challenges, 2017.

[14] Arnulf Sylvain, « Facebook a soumis 690 000 abonnés à une manipulation émotionnelle en 2012 », L’Usine Digitale, 2014.

[15] A. Kramer, J. Guillory, J. Hancock, Experimental evidence of massive-scale emotional contagion through social networks, PNAS, 2014.

[16] Arnulf Sylvain, » Facebook a soumis 690 000 abonnés à une manipulation émotionnelle en 2012, L’Usine Digitale », 2014.


- Source : Infoguerre

Cela peut vous intéresser

Commentaires

Envoyer votre commentaire avec :



Fermé

Recherche
Vous aimez notre site ?
(230 K)
Derniers Articles
Articles les plus lus
Loading...
Loading...
Loading...