Intérêt public et infrastructures médiatiques : réguler les entreprises de technologie qui créent des « images dans nos têtes »

Introduction : Les images dans nos têtes

Écrivant peu après la fin de la Première Guerre mondiale, au moment où le journalisme professionnel en était à ses balbutiements et que les éditeurs découvraient que le gouvernement américain leur avait menti (ainsi qu’au public) pendant une grande partie de la guerre, Walter Lippmann a formulé un défi majeur qui est toujours d’actualité. Il a observé que « le monde auquel nous devons faire face politiquement est hors de portée, hors de vue, hors d’esprit. Il doit être exploré, rapporté et imaginé[i] ». Étant donné que nos mondes politiques se trouvent à des échelles qui dépassent notre expérience directe – dans des plateformes de médias sociaux privées et technologiquement obscures – comment pouvons-nous mieux explorer, rapporter et imaginer la vie publique aujourd’hui en amenant ces plateformes à rendre des comptes publiquement?

Selon Lippmann, les gens vivaient de plus en plus dans des réseaux de relations complexes, vastes, puissants et compliqués, auxquels il était impossible de se soustraire et qui dépendaient profondément des médias. Le travail des journalistes consistait à créer des « images dans les têtes des… humains, des images d’eux-mêmes, des autres, de leurs besoins, de leurs objectifs et de leurs relations[ii] », des images susceptibles d’amener les gens à ressentir, à connaitre et à agir d’une façon particulière. Lippmann était irrité par le fait que le gouvernement américain, dans sa volonté d’obtenir le soutien de l’opinion publique à la guerre, n’avait pas seulement fabriqué les bilans des victimes et menti sur les batailles, mais, ce faisant, il avait également manipulé les gens pour susciter en eux solidarité, indignation et patriotisme. Ce stratagème avait aidé à former de fausses images imaginaires du monde que l’État avait ensuite récupérées et utilisées à ses fins. Il s’agissait d’une double trahison parce que les médias pouvaient être ni des sources fiables pour l’apprentissage individuel ni un moyen pour découvrir et gérer des conditions sociales communes. Si les médias vous ont menti, comment pouvez-vous faire confiance à ce que vous ou vos amis avez pensé? Et pourquoi sacrifieriez-vous volontairement quoi que ce soit au service d’un bien, plus large, commun, général, basé sur ce que les médias vous ont raconté?

Ces interrogations étaient le point de départ de décennies de recherche sur les systèmes médiatiques. Comment les médias devraient-ils être créés, exploités, financés, professionnalisés, et rendre des comptes publiquement? Qui était le plus ou le moins vulnérable aux manipulations des médias? Que sont exactement « les médias », qui est au cœur des récits et qui a accès au pouvoir de publication? Bien que des décennies de recherche sur la communication nous apprennent que la propagande et la manipulation sociale sont des processus sociaux et culturels complexes qui ne peuvent être réduits à la simple transmission d’informations[iii], « les médias » continuent d’être un système de construction de l’opinion mal défini et fragile qui invente et réinvente ses amarres philosophiques et professionnelles à chaque époque. En d’autres termes, les observations de Lippmann restent vraies.

Aujourd’hui, les « communautés imaginaires[iv] » créées par les médias sociaux sont des optiques que nous utilisons pour savoir comment penser, ressentir et agir. Les journalistes et le public[v] se tournent vers ces plateformes pour comprendre des enjeux aussi variés que les crises climatiques, l’approvisionnement alimentaire, la décision ou non d’entrer en guerre et ce que signifie être « canadien » ou « européen ». Au moment d’écrire ces lignes en mai 2020, la pandémie fait ressortir ce point d’une manière particulièrement frappante. Pour des millions de personnes, leurs croyances et comportements, que ce soit par rapport au port du masque, au test pour la COVID-19, à l’isolement social, ou à la confiance envers les experts médicaux, dépendent non seulement de leur lieu de résidence et des politiques de leurs gouvernements locaux, mais également des relations et des algorithmes des plateformes de médias sociaux[vi].

Cependant, la différence fondamentale entre l’époque de Lippmann et la nôtre est que nous avons un système médiatique très différent marqué par une dynamique de pouvoir très différente. Les médias restent un mélange complexe de personnes, d’intérêts économiques, de valeurs professionnelles, de cadres réglementaires et d’idéaux de la vie publique. Mais ils incluent également un nouvel ensemble, largement impénétrable, de systèmes calculatoires privés et exclusifs, propulsés par les marchés publicitaires et optimisés par des algorithmes d’apprentissage automatique. Diversement appelé « système médiatique hybride[vii] » ou « presse en réseau[viii] », le système médiatique actuel inclut non seulement le personnel des salles de rédaction, les évaluations éditoriales et les canaux de publication traditionnels. Il comprend également un mélange disparate de données d’entraînement, de clics des utilisateurs, de mesures publicitaires, de systèmes de surveillance, de modèles d’apprentissage automatique et de moteurs de recommandation. Ces systèmes carburent aux données. En fait, à la base, ces systèmes sont des données – et nous sommes ces données[ix].

Ce système médiatique a besoin d’un flux constant de données afin de créer dans nos têtes des images personnalisées, prévisibles et rentables. Contrairement à l’époque de Lippmann, l’échelle n’est pas un problème à surmonter pour les médias ni un malheureux effet secondaire de la vie moderne. Au contraire, l’échelle est une ressource à extraire et à exploiter par les systèmes médiatiques, une méthode clé pour créer des images sur mesure et instantanées du monde, qui peuvent être achetées et vendues[x]. Ces systèmes achètent et vendent les gens en surveillant, en marchandisant et en façonnant leurs comportements, tout en valorisant certaines personnes plus que d’autres parce que leurs données ont plus de valeur que d’autres[xi].

Les systèmes complexes produisant les médias utilisent des processus algorithmiques pour convertir les « mégadonnées » en récits cohérents. Ces récits nourrissent les croyances individuelles, alimentent le commerce et structurent l’action collective[xii]. Les « menteurs » d’aujourd’hui ne sont pas (seulement) des États qui trompent les individus et fabriquent de la solidarité. Les « menteurs » d’aujourd’hui ont un pouvoir plus subtil. Ils prétendent qu’ils ne vous « mentent » pas, mais vous montrent simplement ce que vous et les autres avez dit. Ils se positionnent comme des miroirs neutres qui reflètent simplement le meilleur et le pire de la société. S’il y a tromperie et récupération, c’est à cause de ce que vous faites, et non de ce qu’ils font[xiii].

Critiquer publiquement et précisément la façon dont les plateformes se positionnent est essentiel pour l’avenir de la gouvernance des plateformes. Les régulateurs doivent s’attaquer résolument au discours récurrent des plateformes sur le désintérêt, le service aux utilisateurs, l’objectivité et la participation volontaire. Mais pour cela, il faut entrer dans les méandres du fonctionnement des plateformes et les comprendre bien mieux que nous ne le faisons actuellement. Cela signifie qu’il faut appréhender les plateformes non pas comme des canaux ou des diffuseurs, mais comme des infrastructures privées, à but lucratif et invisibles, constituées de valeurs humaines et de puissance calculatoire que même leurs créateurs ne comprennent souvent pas entièrement. En effet, bien qu’elles ressemblent quelque peu aux institutions médiatiques antérieures, leur forme est sans précédent et essentiellement motivée par des priorités financières, et non éditoriales[xiv].

Les images que ces infrastructures créent « fonctionnent » si elles sont économiquement viables, culturellement acceptables et politiquement plausibles. Les plateformes essaient de créer autant de réalités que possible parce que celles-ci ont le potentiel de garder les utilisateurs et les annonceurs engagés[xv], en externalisant les conséquences de ces réalités sur les sociétés dont leurs technologies seraient le simple reflet. En effet, en adoptant un modèle (rentable) de vérité du marché selon lequel la vérité est considérée comme le « produit du choc entre le marché et l’erreur », les plateformes rejettent tout ce qui ne reflète pas une image libertaire de la liberté d’expression[xvi]. Cette approche passive correspond aux souhaits des plateformes de disposer de données à grande échelle. Plus de données apportent plus de vérité, plus rapidement.

Les préoccupations de Lippmann concernant les mensonges et la manipulation restent valables, mais je pense qu’il serait outré par le mépris général des plateformes pour l’idée même de vérités stables et créées par l’homme, et par les investissements relativement modestes qu’elles ont réalisés dans la vérification des faits[xvii] et l’autogouvernance[xviii], et que leurs équipes de relations publiques présentent comme des engagements publics. Des exemples récents de journalisme d’investigation nous montrent que les plateformes savent qu’elles nuisent à la vie publique, mais qu’elles ne feront rien qui puisse bouleverser leurs modèles économiques ou montrer qu’elles assument la responsabilité du pouvoir de leurs algorithmes à façonner la réalité[xix].

Alors, si les plateformes de médias sociaux ne sont pas motivées par la recherche de la vérité, la réalité partagée et l’action collective basée sur la connaissance et l’expertise – tous des ingrédients clés d’une vie publique saine –, comment pouvons-nous les réformer dans un esprit du bien public? Considérant qu’un petit nombre de puissantes entreprises de technologie contrôlent de plus en plus les conditions dans lesquelles les personnes et les systèmes calculatoires produisent, interprètent, font circuler et agissent en fonction de l’information, comment pouvons-nous sauver l’idée d’une autogouvernance collective, qui rend publiquement compte par la communication? Pour répondre à cette question, nous avons besoin de progrès à deux niveaux (dont le premier est le sujet de la suite du présent essai).

Premièrement, le public a besoin d’une maîtrise beaucoup plus sophistiquée des rouages internes et des répercussions des systèmes médiatiques actuels. Si les régulateurs pouvaient mieux comprendre les complexités, les hypothèses et les interconnexions qui façonnent la production, la marchandisation et l’utilisation des nouvelles en ligne, ils seraient beaucoup mieux outillés pour protéger l’intérêt public. Pour améliorer la mise en œuvre et l’évaluation des politiques concernant les médias, je propose que les régulateurs adoptent et mettent en pratique le concept d’« infrastructure », expliqué ci-dessous.

Deuxièmement, bien que ce ne soit pas l’objet du présent essai, il faut une véritable volonté politique pour avancer sur ces questions. Les industries de technologie répondent souvent aux menaces réglementaires en affirmant que :

  • leurs systèmes utilisent des connaissances exclusives qu’ils ne peuvent pas divulguer publiquement;
  • leurs modèles d’affaires nécessitent une collecte de données à grande échelle;
  • les gens ne sont pas disposés à payer pour des services actuellement financés par leurs données personnelles;
  • les technologies de cryptage, les engagements en faveur de la transparence et la divulgation contrôlée des données rendent inutile une surveillance publique.

Leur défense est un mélange de secrets commerciaux, de revendications économiques, de promesses d’autorégulation et de solutionnisme technologique, empêchant une véritable surveillance publique.

Intérêt public et infrastructures médiatiques: Réguler les entreprises de technologie qui créent des « images dans nos têtes »
Lire le rapport au complet

 

[i] Lippmann, W. (1922). Public opinion. Free Press. p.18.

[ii] Ibid.

[iii] Jack, C. (2019). Wicked content. Communication, Culture and Critique. doi:10.1093/ccc/tcz043

[iv] Anderson, B. (1983). Imagined communities, éd. rév. Verso. p.62.

[v] McGregor, S.C. (2019). Social media as public opinion: How journalists use social media to represent public opinion. Journalism. doi:10.1177/1464884919845458

[vi] Holtz, D., et coll. (2020). Interdependence and the cost of uncoordinated responses to COVID-19. MIT Sloan School of Management, document de travail. https://mitsloan.mit.edu/shared/ods/documents/?PublicationDocumentID=7397

[vii] Chadwick, A. (2017). The hybrid media system: Politics and power, 2e éd. Oxford University Press.

[viii] Ananny, M. (2018). Networked press freedom: Creating infrastructures for a public right to hear. MIT Press.

[ix] Cheney-Lippold, J. (2017). We are data: Algorithms and the making of our digital selves. NYU Press.;

Koopman, C. (2017). How we became our data. University of Chicago Press.

[x] Couldry, N. et Mejias, U.A. (2019). The costs of connection: How data Is colonizing human life and appropriating it for capitalism. Stanford University Press.

[xi] Benjamin, R. (2019). Race after technology. Polity.

[xii] Crawford, K. (9 mai 2013). Think again: Big data. Foreign Policy. http://www.foreignpolicy.com/articles/2013/05/09/think_again_big_data?page=full

[xiii] Gillespie, T. (2018). Custodians of the internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.

[xiv] Ailleurs, j’ai fait valoir que « parfois [les plateformes] sont comme des villes, des salles de rédaction, des bureaux de poste, des bibliothèques ou des services publics – mais elles sont toujours comme des agences de publicité » Dans : Ananny, M. (October 10, 2019b) . Tech platforms are where public life is increasingly constructed, and their motivations are far from neutral. Nieman Lab. https://www.niemanlab.org/2019/10/tech-platforms-are-where-public-life-is-increasingly-constructed-and-their-motivations-are-far-from-neutral/

[xv] Silverman, C. (22 mai 2020). The information apocalypse Is already here, and reality is losing. BuzzFeed News. https://www.buzzfeednews.com/article/craigsilverman/coronavirus-information-apocalypse

[xvi] Wu, T. (2018). « Is the First Amendment obsolete? », dans : L. C. Bollinger et G. R. Stone (dir.), The free speech century. Oxford University Press, pp. 272-291.

[xvii] Ananny, M. (4 avril 2018b). The partnership press: Lessons for platform-publisher collaborations as Facebook and news outlets team to fight misinformation. Tow Center for Digital Journalism, Columbia University. https://www.cjr.org/tow_center_reports/partnership-press-facebook-news-outlets-team-fight-misinformation.php/

[xviii] Douek, E. (2019). Facebook’s ‘Oversight Board:’ Move fast with stable infrastructure and humility. North Carolina Journal of Law & Technology, vol. 21, no 1. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3365358

[xix] Horwitz, J. et Seetharaman, D. (26 mai 2020). Facebook executives shut down efforts to make the site less divisive. The Wall Street Journal.https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499