top of page
Vicente Guzman Barra

J'accuse...Facebook!


Crack house


Aimez-vous ça Facebook ? Moi non plus. J’assume que vous y retournez souvent, vous aussi, dans un instant de pure absence d’esprit. Et vous vous retrouvez là, des minutes plus tard, dans la dépossession de vos moyens, comme un algorithme programmé à ne faire que ça, scroller et réagir sur votre « mur ». Si ça vous arrive, alors l’algorithme qui vous a possédé le pouce a réussi sa mission : votre comportement a été renforcé le temps d’un instant. Le modèle d’affaires de Facebook, tel qu’avoué publiquement par ses concepteurs, est fondé sur le renforcement de ces deux comportements : scroller et réagir [1].


Vous connaissez le chien de Pavlov. On arrive à déclencher la salivation du chien avec une sonnette. Maintenant, imaginez ça à échelle humaine et globale. Lorsque vous « engagez » avec la plateforme, vous montrez littéralement du doigt vos préférences à des algorithmes. Ces algorithmes vous jettent alors du contenu aléatoire, mais qui, statistiquement, programmera votre retour sur la plateforme. Plus vous engagez, meilleures sont les prédictions des algorithmes, plus vous reviendrez. Rincer et répéter (« machine learning »). En d’autres mots, scroller et réagir signifie une surproduction de dopamine. Vous ne voyez que ce qui confirme vos biais, ce qui vous rend high on life [2]. Or, avec le down vient de l’insatisfaction. Facebook vous offre la possibilité d’y pallier en obtenant gratification instantanée, gratos, ad nauseam, créant une fonction exponentielle de l’insatisfaction à la quantité de contenu aléatoire, mais de plus en plus biaisé, qui vous est présenté.


Le bavardage conspirationniste à l’ère de sa reproductibilité gratuite

Comment les algorithmes ordonnent le contenu aléatoire qui vous est présenté sur votre mur, les gens de Facebook ne le savent plus eux-mêmes. On sait cependant que l’ordre du contenu sur Facebook affecte les réactions émotionnelles des utilisateurs. Certains scientifiques pensent que les algorithmes fonctionnent par ordre croissant d’intensification : en offrant la possibilité de contenu toujours plus intense et radical, l’algorithme assure que l’utilisateur reste sur sa faim et reste sur le site, pourvu que le contenu l’intéresse [3]. Facebook serait ainsi une infinité de « pentes glissantes » étanches de contenu, plutôt qu’une « toile » multi-vectorielle interconnectée de contenu. Ainsi, nous nous retrouvons cloisonnés en sphères d’intérêts, de plus en plus polarisés et de moins en moins capables d’engager dans un débat public qui a du sens.


Mais le côté tragique de Facebook ne s’arrête pas là. À grande échelle, en raison du triage algorithmique, les réponses négatives (la peur, la colère, l’irritation, etc.) sont amplifiées. Cela est partiellement causé par le fait que ce type de réactions surgit chez l’être humain plus rapidement que les réponses positives. Il est plus facile et rapide de détruire la confiance ou l’amour que de les créer. Par conséquent, les algorithmes, qui captent les réactions rapides et les interprètent comme engagement, reproduisent ce qui a de plus négatif, nihiliste, simple et conspirationniste chez l’être humain. Les idées complexes et nuancées sont peu reproduites, voire absentes, car elles ne suscitent pas de réactions rapides [4]. S’il y a de l’engagement pour ce type de contenu, il est souvent noyé dans la marée de contenu négatif à consommation rapide. Facebook évoque ainsi l’allégorie de la cave en version 2.0 : nous sommes face à un mur d’illusions, de mirages et de désinformation, mais cette fois-ci créée par des lumières DEL. Et le feu qui crée les ombres, ce sont nos ovations idiotes à un contenu vide de sens.


Les élections fédérales n’ont plus lieu


Tout ça devient trash lorsque la manipulation qu’opère Facebook ne se limite plus au niveau émotif, mais bien à des fins de consommation. Aujourd’hui, si l’on peut utiliser des algorithmes pour vous vendre un Swiffer, on peut les utiliser pour vous vendre de la politique. Pensez à l’affaire Cambridge Analytica. On parle du profilage politique de personnes, d’analyse de leurs peurs et penchants individuels afin de les cibler plus efficacement avec des publicités. Le tout s’imbrique dans un schème illégal impliquant le vol des données de 87 millions de profils Facebook. Avec de l’argent sale et de la corruption. Impliquant des personnalités d’haute influence. Ces données ont été utilisées pour nul autre que modifier les intentions de vote des personnes pendant les élections américaines de 2016 et le vote du Brexit. Des millions de personnes ont été directement visées par de la fausse information, axée sur la haine et la peur – évidemment, ça pogne plus –, ce qui a eu un impact décisif dans le résultat des élections [5].

Peut-on vraiment prétendre à des élections justes et impartiales lorsque des intérêts privés peuvent aussi violemment détourner et manipuler le sort des votes ? Et, dans un tel contexte, comment peut-on légitimer le refus des dirigeants de Facebook de se présenter devant les Parlements britanniques et canadiens pour rendre des comptes ? Comme s’ils n’étaient pas redevables au pouvoir souverain du peuple. Mais dites donc, vivons-nous encore dans une démocratie et dans un État de droit ? Les élections fédérales actuelles sont-elles réelles ? Ou s’agit-il d’un mirage ? Et que dire de la crise actuelle des médias, sinon qu’elle est principalement causée par la plateforme bleue qui ne paie pas son dû aux producteurs de contenu grâce auxquels elle s’enrichit des publicités ? Ceci n’est pas un drill : Facebook est en train de virer en HAL 9000.


Sans honte


En résumé, en l’espace d’une demi-décennie, nous sommes passés d’une plateforme qui connectait les gens (« réseau social ») à une plateforme qui les rend addict (« pente glissante de consommation ») et idiots (« allégorie de la cave 2.0 »), en passant par une plateforme fantôme qui permet la désagrégation de nos institutions (« HAL 9000 »). À la lumière de ce qui précède, j’estime qu’il y a consensus que Facebook doit se responsabiliser. Or, ce n’est pas ce qui se produit présentement. Malgré son pouvoir, Facebook préfère regarder périr la chose publique qui suffoque sous son voile.

Facebook disait jusqu’à tout récemment sur sa page d’accueil : « It’s free and always will be ». Gratuit pour qui exactement ? Votre entrée est gratuite, oui, mais l’entrée des publicitaires est chère payée. Cela permet d’expliquer le fait que Facebook fasse une demi-dizaine de milliards en profits. Nous sommes le produit que Facebook vend au plus offrant. Plus précisément, Facebook utilise nos informations pour les liquider à des avertisseurs. C’est son modèle d’affaires et celui du monde numérique en entier. Lisez bien vos termes d’utilisation : vous ne possédez plus votre information. Tant le contenu (vos photos, vos commentaires, etc.) que les métadonnées (les heures et les lieux d’utilisation, etc.) appartiennent à Facebook. Elles sont utilisées pour inventer un profil « de consommateur » dont se servent les algorithmes.


Cela permet de comprendre l’indifférence de Facebook. Les zillionaires à sa tête n’ont que faire de nos petites démocraties populaires, ils rêvent déjà à leurs châteaux flottants sur Mars. L’insulte à l’injure – peu surprenante à ce stade-ci –, c’est que Facebook préfère déclarer ses profits dans des « paradis fiscaux », des États marionnettes où on ne paie pas son dû au peuple. Les millions payés en impôts ici et là n’arrivent pas à la cheville des profits réalisés à partir de l’information de Canadiens qui devraient, en toute justice, être imposables ici. Certains réalistes économiques diront que c’est grâce à l’honneur de stratégies d’impôts légitimes. D’autres moralistes diront que ce sont des pratiques qui mériteraient l’emprisonnement des dirigeants. Quelque part entre les deux, il faut prendre les choses telles qu’elles sont : Facebook ne prend aucune honte à flouer allègrement nos démocraties.

Dans ces conditions, difficile de ne pas se méfier de Facebook – et j’ajouterai, des GAFAM en général. De la régulation robuste est absolument nécessaire afin de préserver l’autonomie des citoyens ainsi que la viabilité de nos démocraties. De telles réformes devront se fonder sur l’axe de la protection des données et de la vie privée. Si l’information n’appartient pas à l’utilisateur, elle devient statistiquement manipulable. Protéger l’information des citoyens ne signifie rien de moins que de dresser des remparts contre un totalitarisme technologique fondé sur une incapacité des citoyens d’effectuer des choix informés et d’échanger. Ce n’est pas le genre de société à laquelle j’aspire, disons. N’avoir « rien à cacher » n’est simplement plus un argument. Il s’agit ici d’assurer la protection d’un droit fondamental, non pas d’un luxe quelconque. Je citerai, en guise de conclusion, Edward Snowden, qui affirme : « Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say ».

***********

[1] Simon Parkin, « Has dopamine got us hooked on tech? », Mars 2018, dans The observer, en ligne : https://www.theguardian.com/technology/2018/mar/04/has-dopamine-got-us-hooked-on-tech-facebook-apps-addiction

[2] Trevor Haynes, « Dopamine, Smartphones & You : A battle for your time », Mai 2018, dans Harvard University, the Graduate School of Arts and Science blog, en ligne : http://sitn.hms.harvard.edu/flash/2018/dopamine-smartphones-battle-time/

[3] Zenyep Tufeky, « We are building a dystopia just to make people click on ads », Septembre 2017, TED talk, en ligne : https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads

[4] Jaron Lanier, « How we need to remake the internet », Avril 2018, TED talk, en ligne : https://www.ted.com/talks/jaron_lanier_how_we_need_to_remake_the_internet

[5] Carole Cadwalladr, « Facebook’s role in brexit – and the theat to democracy », avril 2019, TED talk, en ligne : https://blog.ted.com/social-media-is-a-threat-to-our-democracy-carole-cadwalladr-speaks-at-ted2019/


25 vues0 commentaire
bottom of page