Article
Diminuer un tort : un programme en six étapes pour protéger l’expression démocratique en ligne
Commission canadienne sur l’expression démocratique
Publié:27 janvier 2021
Project: DemX
SOMMAIRE
Après neuf mois d’études et de délibérations, la Commission canadienne de l’expression démocratique s’est entendue sur une série de principes et de recommandations qui mènent à un plan d’action pratique. Nous proposons une série de mesures fonctionnelles pour permettre aux citoyens, aux gouvernements et aux plateformes de traiter de la question du discours préjudiciable dans le contexte canadien, c’est-à-dire une société libre et démocratique et fondée sur l’État de droit. Nous reconnaissons la complexité de ces questions et offrons ce programme comme guide utile tout en sachant qu’il fera l’objet d’autres débats et moutures.
PRINCIPES
- Nous constatons que la liberté d’expression est fondamentale pour une société démocratique et qu’Internet permet à un plus grand nombre de personnes de participer à des discussions et des débats publics.
- Nous constatons que la montée de la haine, de la désinformation, des théories du complot, de l’intimidation et d’autres communications nuisibles en ligne mine ces acquis et a un impact corrosif sur l’expression démocratique au Canada.
- Nous constatons que le statu quo qui consiste à laisser la modération des contenus à la seule discrétion des plateformes n’a pas réussi à endiguer la propagation de ces préjudices et que ces entreprises numériques peuvent se trouver en conflit entre leurs intérêts privés et le bien public.
- Nous constatons que le gouvernement doit jouer un rôle plus actif dans la promotion de l’expression démocratique et la protection des Canadiens contre les préjudices en ligne.
- Nous trouvons qu’il est erroné de considérer que les plateformes sont des diffuseurs d’information neutres. Les plateformes structurent le contenu de sorte à servir leurs intérêts commerciaux et elles doivent conséquemment accepter une plus grande responsabilité pour les préjudices qu’elles se trouvent à amplifier et à propager.
- Nous constatons que toute initiative politique doit privilégier les citoyens, réduire les préjudices en ligne et prévenir les risques d’une trop grande censure du contenu par ses propositions de remèdes. Cela exige une approche équilibrée et à plusieurs volets.
- Ces principes ont conduit la Commission à un programme intégré de six recommandations qui se renforcent mutuellement.
RECOMMANDATIONS
1. Une loi assujettissant les plateformes au devoir d’agir de manière responsable.
Adoption par le Parlement d’une obligation légale d’agir de manière responsable en imposant un programme d’action positive aux plateformes en vertu de la législation et de la réglementation, y compris les entreprises de médias sociaux, les grands groupes de messagerie, les moteurs de recherche et d’autres opérateurs Internet impliqués dans la diffusion de contenus générés par les utilisateurs et les tiers. En remédiant aux préjudices, cette obligation doit tenir compte, dans ses détails, de principes tels que la nature fondamentale de la liberté d’expression.
2. Un nouvel organisme réglementaire chargé de superviser et de faire respecter le devoir d’agir de manière responsable.
La création d’un nouvel organisme de réglementation, opérant à l’intérieur du cadre législatif, investi de l’intérêt public et qui a la responsabilité de placer la modération des contenus et la gouvernance des plateformes au-delà de la juridiction exclusive des entreprises du secteur privé. L’organisme de réglementation superviserait un code de conduite pour guider les actions des parties sous sa supervision, tout en reconnaissant que toutes les plateformes ne peuvent être traitées exactement de la même façon. Ses décisions réglementaires devront être prises judicieusement, être fondées en droit et sujettes à un processus de révision.
3. Un Conseil de médias sociaux servant de forum accessible et mandaté pour réduire les effets nuisibles et améliorer l’expression démocratique sur Internet.
Assurer un dialogue inclusif sur les politiques et pratiques de gouvernance des plateformes, y compris la modération des contenus, par l’intermédiaire d’un Conseil de médias sociaux qui regroupe les plateformes, la société civile, les citoyens et les autres parties intéressées autour d’une même table.
4. Un régime de transparence de classe mondiale qui permet d’acheminer toute l’information nécessaire à l’organisme de réglementation et au Conseil de médias sociaux.
Investir les mandats de l’organisme de réglementation et du Conseil de médias sociaux de mécanismes de transparence robustes et avant-gardistes au plan international pour encadrer la gestion des données, des bots et du droit d’exiger de l’information. Cela aidera également les chercheurs, les journalistes et les membres du public à avoir accès à l’information nécessaire à un système public imputable.
5. Des moyens de permettre aux individus et aux groupes de traiter rapidement les plaintes de contenu préjudiciable. Un tribunal électronique pour faciliter et accélérer le règlement des différends et un processus visant à traiter les plaintes efficacement et rapidement avant qu’elles ne dégénèrent en différends.
Créer un recours rapide et accessible pour régler les litiges relatifs au contenu au moyen d’un tribunal électronique chargé de régler en temps opportun les différends sur le contenu en ligne. Et la création d’un processus qui permet aux personnes et groupes ciblés par du contenu préjudiciable de sensibiliser les créateurs de ce contenu à leurs plaintes via les plateformes.
6. Un mécanisme qui permet de retirer rapidement tout contenu qui représente une menace imminente à la sécurité d’une personne.
La mise sur pied d’un système d’intervention sous l’autorité de l’organisme de réglementation afin d’assurer la suppression rapide de contenu – même temporaire – qui crée, chez la partie visée, la crainte raisonnable d’une menace imminente à sa santé et sa sécurité.
▪ ▪ ▪
La Commission a examiné l’approche de certains pays d’imposer des exigences de retrait aux plateformes numériques. Ces mesures identifient généralement des catégories de contenu, fixent un délai, par exemple 24 heures, pour qu’il soit supprimé, et prévoient des pénalités substantielles. Nous craignons que de telles obligations incitent les plateformes à pratiquer une censure trop stricte. Nos recommandations visent à circonscrire le moins possible le droit de parole et considèrent comme problématiques à la fois le contenu préjudiciable et les limites injustifiées à la liberté d’expression.
L’obligation d’agir de manière responsable est laissée délibérément vague à ce stade afin de donner au gouvernement, à l’organisme de réglementation et au Conseil de médias sociaux l’occasion de l’étoffer dans le cadre d’un code de conduite. Il est important de souligner que nous ne recommandons pas la création d’un nouveau délit qui puisse guider les actions en droit, mais plutôt l’imposition d’exigences aux plateformes en vertu de la législation et de la réglementation. Nous nous attendons à ce que ce code évolue compte tenu de la relative nouveauté du problème et de l’évolution rapide d’Internet.
Articles
Recommandations pour renforcer la capacité d’intervention du Canada en matière de diffusion de désinformation en ligne
Dans notre deuxième année, nous avons invité de nouveau les Canadiens à se porter volontaires pour conseiller la Commission sur l’expression démocratique de même que le gouvernement fédéral sur la réglementation des plateformes numériques. En plein milieu de la pandémie, plus de 600 Canadiennes et Canadiens ont offert leurs services, dont 42 furent sélectionnés au hasard pour représenter les provinces et les territoires.
Annonce des conclusions de la Commission canadienne de l’expression democratique et de l’Assemblée citoyenne sur l’expression democratique.
LES CITOYENS ET EXPERTES TRANCHENT : LE TEMPS EST VENU DE RÉGLEMENTER LES MÉDIAS SOCIAUX | Il est important de noter que la Commission et l’Assemblée sont, chacune de leur côté, parvenues à la même conclusion : le gouvernement canadien doit prendre des mesures urgentes pour s’assurer que les plateformes de médias sociaux sont soumises à une réglementation afin de protéger adéquatement les Canadiens et Canadiennes des préjudices en ligne.
Processus, individus et responsabilité à l’égard du public
Des chercheurs et des reporteurs ont documenté trois formes de communications haineuses en ligne observées au cours de la campagne électorale fédérale de 2019 du Canada : injures personnelles, intolérance et haine envers les groupes marginalisés dans les espaces publics en ligne, et soutien à la haine dans les espaces privés en ligne. Dans le présent rapport, nous proposons un modèle pour distinguer les principales dimensions de la communication haineuse en ligne au Canada, et nous analysons les réponses politiques proposées par des gouvernements à l’international et par des sociétés de médias sociaux.
Intérêt public et infrastructures médiatiques : réguler les entreprises de technologie qui créent des « images dans nos têtes »
Les systèmes médiatiques d’aujourd’hui comprennent les puissantes entreprises de médias sociaux qui nous surveillent, nous transforment en marchandises et nous manipulent en achetant et en vendant nos données personnelles. Mike Ananny plaide pour une compréhension plus approfondie des infrastructures gérées par ces entreprises privées, où sont prises d’importantes décisions qui influencent nos comportements, nos croyances et les nouvelles en ligne. On pourrait croire à un univers fastidieux, confus et technique où seuls les ingénieurs s’affairent, mais les organismes de réglementation doivent en comprendre les complexités et de lutter contre la culture du secret pour mieux protéger l’intérêt public.
La désinformation en science dans le contexte de la COVID-19
Christopher Dornan illustre comment la désinformation autour la COVID-19 ménace la santé publique, la cohésion sociale, et la confiance collective. Identifiant des recommendations utiles pour les citoyens, les gouvernements, et plateformes des médias sociaux, Dornan considère dans ce rapport comment combattre la désinformation et améliorer les discussions sur les conclusions scientifiques fondées sur des données factuelles.
Appel aux mémoires écrits
La Commission canadienne de l’expression démocratique invite les membres du public et les institutions à lui présenter un mémoire écrit qui cadre avec les cinq sujets d’enquête énoncés ci-dessous : (1) L’ampleur et la portée du défi au Canada, (2) Les répercussions sur la démocratie au Canada, (3) Le rôle et les responsabilités des plateformes numériques, (4) L’efficacité des dispositions juridiques et réglementaires existantes, (5) L’équilibre entre la lutte contre la haine et la désinformation et la sauvegarde de la liberté.
Les aspects juridiques du discours haineux au Canada
Voulant un point de départ pour un dialogue plus approfondi, avocate Lex Gill étudie dans ce rapport les tensions juridiques et les questions liées aux politiques qui ont animé les débats autour du discours haineux au Canada. Elle examine également certains des moyens par lesquels les changements technologiques, économiques et sociaux ont commencé à remettre en question notre conception du discours préjudiciable
