The Role of Private Online Spaces in Platform Governance

Sam Andrey

le français suit

 

Defining the scope of platform governance has become a pressing policy challenge for countries around the world, as the spread of illegal and harmful content continues to be exacerbated and amplified on both public and private platforms. In the absence of meaningful regulation in most jurisdictions, the crucial task of balancing the right to free expression and the mitigation of real and growing harms from ill-intended actors has fallen to a small number of companies who have largely consolidated and privatized online discourse. These companies are almost all based outside of Canada and have ad-based business models that can discourage taking meaningful action to reduce certain harms.

Canadians report relatively frequent exposure to hate speech and harassment on public and private online platforms, with rates higher for racialized people, those who have a disability, and those who identity as LGBTQ2S+. Public safety actors and victim groups are calling for stronger accountability for removal of illegal online content, including incitement of violence and suicide, terrorist content, sexual exploitation and identity fraud. There are also growing concerns about the online spread of conspiratorial misinformation and its contribution to polarization, radicalization and undermining of Canada’s democratic processes, both through organic reach and foreign influence operations. But private spaces present particular problems, which this brief explores.

Beginning in 2021, Canadian Heritage embarked on various consultations on the potential design of a regulatory framework to address online safety concerns — including roundtables, a citizens’ assembly, and an expert advisory group. This process has given the country a chance to learn from other existing policies. For example, critics of Germany’s NetzDG regulation have noted the law’s lack of specificity in guidance for platforms, providing too much discretion and leaving room for over-compliance without sufficient oversight. The delay has provided the space for Canada to shift from an exclusive focus on a 24-hour harmful content takedown approach to a more adaptable regulatory model that emphasizes platforms’ duty to act responsibly and transparently review and mitigate systemic risks to users, with similar models being advanced in Australia, the EU, and UK. Sharing learnings and coordination across democratic states striving to responsibly address harmful content and protect freedom of expression will be crucial to maintaining public support and exerting sufficient pressure on large platforms that would be difficult for Canada to achieve alone, particularly with respect to changes that directly impact business models.

A particularly contentious element of platform governance is deciding which platforms and services will be subject to regulatory oversight. The Government of Canada previously expressed that it intends to exclude from regulation “services that enable persons to engage only in private communications.” Making a distinction between public and private communications in the regulation of speech is of course not new. For example, the Criminal Code makes it an indictable offence to communicate statements that willfully promote hatred against an identifiable group “other than in private conversation.”

How to make such a distinction in closed online spaces that blur boundaries between private and public is a complex challenge. There are legitimate concerns about the proliferation of illegal content on private online platforms. For example, 26% of Canadians in a 2020 survey reported receiving messages containing hate speech at least monthly on private messaging platforms, with rates higher among people of colour. An estimated 70% of reports of child sexual abuse on Facebook are through private messages on Messenger or Instagram. After the U.S. Capitol riots and the truckers’ convoy in Canada, concerns were raised about the role of private groups and messaging in seeding and coordinating the events.

Some private platforms, such as those run by Meta, have taken some steps to address harmful online content within private messaging, such as enabling users to report harmful content to moderators, introducing labels and limits on message forwarding to create friction for messages to go ‘viral’, and encouraging users to verify highly forwarded message content. Other private platforms, such as Signal or Telegram, have designed their platforms with less oversight and moderation, including much larger maximum group sizes (up to 200,000 users in the case of Telegram, compared to 250 on Messenger/Instagram).

Allied jurisdictions have taken a variety of regulatory approaches to the inclusion of private content (e.g., private profiles, groups, channels and direct messages). Australia’s Online Safety Act enables the eSafety Commissioner to regulate the removal of “cyberbullying” material on all private platforms. The EU’s Digital Services Act requires only private platforms with significant user reach, such as Messenger, to enable users to report harmful content and have it reviewed, as well as annual transparency reporting requirements, but does not provide independent oversight over content. In an effort to combat child sexual abuse material (CSAM), the EU has also proposed obligations for platforms to screen private communications to detect related harmful content. The UK’s proposed approach likewise proposes to enable content scanning of private content for terrorist and child abuse, though excludes emails and SMS/MMS messages. Both of these proposed approaches to screen private communications have been criticized with fears surrounding the weakening or breaking of end-to-end encrypted messaging, leading to potentially compromised private communications and, in turn, rights to privacy and free expression.

While policy-making that seeks to reasonably balance competing rights should never merely be subject to majority opinion, the political context for action in this space is a critical dynamic. The very nature of large online platforms means that state regulation could affect most Canadians. So it is worth highlighting evidence from representative public surveys conducted by our team over the last four years (alongside others) that suggest a significant majority of Canadians distrust online platforms and are supportive of platform governance efforts and the timely removal of illegal online content in Canada. As an example, when asked to choose between a set of statements on balancing rights, about two-thirds of Canadians indicated preference for intervention (see figure below). While those on the left and centre of the political spectrum have significantly higher average levels of support for intervention, a majority of those on the right of the political spectrum still support intervention.

When asked specifically about which types of online spaces they thought should be required to remove illegal content like hate speech or the promotion of violence, a significant majority of 87% supported content moderation on public pages/profiles, while smaller majorities supported it for private groups (61%) and private pages/profiles (59%). Support fell to 40% for private messaging.

Canada should take inspiration from the EU’s Digital Services Act and place minimum standards on messaging platforms with significant user reach in Canada, such as reviewing their systemic risks, having user reporting features, and providing transparency reports. Such an approach would still enable harm reduction, promote greater understanding of online harms on these channels to inform future action, and mitigate the risk of an incentive for companies to create more closed platforms as a means of avoiding new content moderation obligations, without imposing content scanning requirements or weakening encryption. Lessons should also be learned from past efforts to regulate and monitor harms in private communications, such as Canada’s Anti-Spam Legislation, National Do Not Call List, and regulations against knowingly sending false electronic messages through Canada’s Competition Act.

Mounting evidence suggests a majority of Canadians are prepared for regulatory action to address the rise in harmful online content. Doing so in a way that is sensitive to the different forms of private online spaces, and respects the unique role of direct messaging, will go a long way in maintaining public support and confidence.


Le rôle des espaces Web privés dans la gouvernance des plateformes

La définition du champ d’application de la gouvernance des plateformes représente aujourd’hui un défi politique pressant pour les pays du monde entier. En effet, la diffusion de contenu illégal et néfaste continue de s’exacerber et de s’amplifier sur les plateformes publiques et privées. En l’absence de réglementation significative dans la plupart des territoires, la tâche cruciale consistant à trouver un équilibre entre le droit à la liberté d’expression et l’atténuation de préjudices réels et croissants causés par des acteur·trice·s mal intentionné·e·s a été confiée à un petit nombre d’entreprises qui ont largement consolidé et privatisé le discours sur Internet. Ces entreprises sont presque toutes établies à l’extérieur du Canada et leurs modèles d’entreprise reposent sur la publicité, ce qui peut les dissuader d’adopter des mesures concrètes visant à réduire certains méfaits.

Les Canadien·ne·s déclarent être relativement souvent exposé·e·s à des discours haineux et au harcèlement sur les plateformes en ligne publiques et privées, les taux étant plus élevés pour les personnes racisées, celles en situation de handicap et celles qui s’identifient comme LGBTQ2S+. Les acteur·trice·s de la sécurité publique et les groupes de victimes demandent une plus grande responsabilisation pour le retrait des contenus illicites en ligne, notamment l’incitation à la violence et au suicide, le contenu terroriste, l’exploitation sexuelle et l’usurpation d’identité. La diffusion en ligne de mésinformation à caractère conspirationniste et sa contribution à la polarisation, à la radicalisation et à la compromission des processus démocratiques du Canada, dû à l’effet combiné de sa portée organique et d’opérations d’influence étrangères, suscitent également de préoccupations de plus en plus vives. Cependant, les espaces privés sur le Web présentent des problèmes particuliers, ce qui constitue l’objet du présent exposé.

À compter de 2021, Patrimoine canadien a entrepris diverses consultations sur la conception éventuelle d’un cadre réglementaire pour répondre aux préoccupations en matière de sécurité en ligne, y compris des tables rondes, une assemblée citoyenne et un groupe consultatif d’experts. Ce processus a donné au Canada l’occasion de tirer des leçons de la mise en œuvre de politiques à l’étranger. Par exemple, des critiques ont été soulevées par rapport à la réglementation allemande NetzDG pour son manque de spécificité en ce qui concerne les consignes données aux plateformes. On note que cette réglementation laisse une trop grande marge de manœuvre et permet d’atteindre une conformité supérieure aux exigences  sans pourtant avoir un niveau suffisant de surveillance. Ce décalage a permis au Canada de passer d’une approche exclusivement axée sur le retrait du contenu préjudiciable dans une période de 24 heures à un modèle réglementaire plus adaptable qui met l’accent sur le devoir des plateformes d’agir de manière responsable et de procéder à un examen et à une atténuation transparente des risques systémiques pour les utilisateur·trice·s. Des modèles similaires ont été proposés en Australie, dans l’Union européenne et au Royaume-Uni. Pour maintenir le soutien du public et exercer une pression suffisante sur les grandes plateformes, il sera essentiel que les États démocratiques, dans un effort de traiter de manière responsable les contenus préjudiciables et de protéger la liberté d’expression, communiquent leurs enseignements et coordonnent leurs efforts. Le Canada aura de la difficulté à accomplir cette tâche seul, en particulier en ce qui concerne les changements qui entraîneront un effet direct sur les modèles de certaines entreprises.

Un élément particulièrement débattu de la gouvernance des plateformes consiste à décider quelles plateformes et quels services feront l’objet d’une surveillance réglementaire. Le gouvernement du Canada a précédemment exprimé son intention d’exclure les services « qui permettent aux personnes de s’engager uniquement dans des communications privées » de cette réglementation. La distinction entre les communications publiques et privées dans la réglementation relative à la liberté d’expression n’est évidemment pas une nouveauté. Par exemple, le Code criminel fait de la communication de déclarations qui encouragent volontairement la haine contre un groupe identifiable « autrement que dans une conversation privée » une infraction passible d’un acte criminel.

Il sera complexe d’établir une telle distinction pour les espaces en ligne fermés qui brouillent les frontières entre le privé et le public. En effet, la prolifération de contenus illégaux sur les plateformes privées en ligne suscite des inquiétudes légitimes. Par exemple, selon un sondage de 2020, 26 % des Canadien·ne·s ont déclaré avoir reçu des messages contenant des propos haineux au moins une fois par mois sur des plateformes de messagerie privée, les taux étant plus élevés chez les personnes racisées. On estime que 70 % des signalements d’abus sexuels d’enfants sur Facebook se font par le biais de messages privés sur Messenger ou Instagram. À la suite de l’assaut du Capitole aux États-Unis et du convoi de la liberté au Canada, des inquiétudes ont été exprimées quant au rôle des messageries et des groupes privés pour ce qui est de provoquer et de coordonner de tels événements.

Certaines plateformes privées, comme celles gérées par Meta, ont adopté certaines mesures pour traiter le contenu nuisible en ligne dans les messageries privées. Par exemple, les utilisateur·trice·s ont la possibilité de signaler le contenu nuisible à une équipe de modération. On a aussi introduit des messages d’alerte et des limites sur le transfert de messages pour freiner le potentiel de certains messages de devenir « viraux » et encourager les utilisateur·trice·s à vérifier le contenu des messages qui ont été transférés à plusieurs reprises. Dans le cas de certaines autres plateformes privées, comme Signal ou Telegram, un niveau inférieur de supervision et de modération est prévu. On permet notamment des groupes d’une taille maximale beaucoup plus élevée (jusqu’à 200 000 utilisateur·trice·s dans le cas de Telegram, par rapport à 250 pour Messenger ou Instagram).

Diverses approches réglementaires ont été adoptées par des administrations alliées en ce qui concerne l’inclusion de contenu privé à ce type de législation (par exemple, profils privés, groupes, canaux et messages directs). En Australie, la Online safety act permet à l’agence de régulation eSafety Commissioner de réglementer en matière de suppression de contenu lié à la « cyberintimidation » sur toutes les plateformes privées. Le Règlement sur les services numériques de l’Union européenne demande seulement aux plateformes privées ayant une portée importante en matière d’utilisateur·trice·s, comme Messenger de permettre le signalement de contenu nuisible pour qu’il soit examiné. Le règlement exige également la production de rapports annuels sur la transparence. Toutefois, aucune surveillance indépendante sur le contenu n’est prévue. Dans un effort pour lutter contre le matériel pédopornographique, l’Union européenne a également proposé des obligations de filtrage des communications privées aux plateformes afin de détecter le contenu nuisible à cet égard. Dans le même ordre d’idées, l’approche proposée par le Royaume-Uni prévoit de permettre l’analyse du contenu privé pour détecter les actes terroristes et les abus à l’égard des enfants, mais exclut de cette mesure les courriels et les messages SMS/MMS. Ces deux approches proposées de filtrage des communications privées ont été critiquées en raison de craintes par rapport à l’affaiblissement ou la suppression des messageries chiffrées de bout en bout, conduisant à la compromission potentielle des communications privées et, par conséquent, du droit à la vie privée et à la liberté d’expression.

L’élaboration de politiques visant la recherche d’un équilibre raisonnable entre des droits concurrents ne devrait jamais être subordonnée uniquement à l’opinion de la majorité, mais le contexte politique dans lequel s’inscrit l’élaboration de mesures dans ce domaine constitue une dynamique cruciale. En raison de la nature même des grandes plateformes en ligne, la réglementation publique pourrait affecter la majorité de la population canadienne. Il est donc utile de mettre en évidence certaines données provenant d’enquêtes publiques représentatives menées par notre équipe au cours des quatre dernières années (ainsi que celles provenant d’autres études) suggérant qu’une grande majorité de la population canadienne se méfie des plateformes en ligne et appuie les efforts de gouvernance des plateformes et la suppression expéditive du contenu illégal sur le Web au Canada. Par exemple, lorsqu’on leur demande de choisir entre une série d’énoncés sur l’équilibre entre certains droits, environ les deux tiers des Canadien·ne·s ont indiqué une préférence pour l’intervention (voir la figure ci-dessous). En moyenne, les répondant·e·s issu·e·s de la gauche et du centre du spectre politique ont exprimé un niveau de soutien beaucoup plus élevé en faveur de l’intervention, mais même la majorité des répondant·e·s s’identifiant à la droite politique soutiennent ces mesures.

Lorsqu’on a demandé aux participant·e·s pour quels types précis d’espaces Web on devrait, à leur avis, exiger la suppression du contenu illicite, comme les propos haineux ou la promotion de la violence, une grande majorité (87 %) s’est prononcée en faveur de la modération du contenu des pages ou des profils publics, tandis qu’une plus faible majorité s’est prononcée en faveur de la modération du contenu des groupes privés (61 %) et des pages ou profils privés (59 %). Le niveau de soutien est tombé à 40 % pour ce qui est des messageries privées.

Le Canada devrait s’inspirer du Règlement sur les services numériques de l’Union européenne et établir des normes minimales pour les plateformes de messagerie ayant une importante quantité d’utilisateur·trice·s au Canada, comme l’examen de leurs risques systémiques, l’établissement de mesures de signalement par les utilisateur·trice·s et la production de rapports sur la transparence. Une telle approche permettrait tout de même la réduction des méfaits, favoriserait une meilleure compréhension des préjudices en ligne sur ces canaux en vue d’orienter les éventuelles mesures à prendre, et atténuerait le risque que les entreprises soient incitées à créer davantage de plateformes fermées afin d’éviter les nouvelles obligations en matière de modération du contenu, sans imposer d’exigences en matière d’analyse du contenu ou d’affaiblissement du chiffrement. On devrait également tirer des leçons des efforts déployés par le passé pour réglementer et surveiller les préjudices dans les communications privées, comme la Loi canadienne anti-pourriel, la Liste nationale de numéros de télécommunication exclus du Canada et la réglementation contre l’envoi délibéré de messages trompeurs sur Internet par l’entremise de la Loi sur la concurrence du Canada.

Une quantité croissante de données probantes indiquent que la majorité de la population canadienne est préparée à l’adoption de mesures réglementaires pour contrer la prolifération de contenu nuisible en ligne. En adoptant une approche qui tient compte des différentes formes d’espaces Web privés et du rôle unique de la messagerie directe, la législation contribuera grandement au maintien d’un soutien et d’une confiance de la part du public.

 
Previous
Previous

Indigenous People and the Rise of the Right

Next
Next

Verified-as-Canadian Content? Bill C-11 and the Platform Infrastructure of the Verified Badge System