How Online Harms Regulation Empower Speech and Engagement

Jonathon Penney

le français suit

 

One of the most common and forceful criticisms of the Government of Canada’s planned online harms legislation, including early iterations and opinions on more recent versions, is that such regulations will have a profound chilling effect on people’s rights and freedoms, particularly online speech, sharing, and engagement.

These criticisms are not surprising. Such concerns have often been raised to criticize, oppose, or challenge laws and regulations aimed at addressing online hate, cyberharassment, disinformation, and other online harms. Not only that, social media platforms have been highly successful in weaponizing such claims to advance an anti-regulatory agenda by framing law and regulation as a threat to users and innovation.

To be clear, chilling effects are real. I’ve documented and explored them in my own work, including the corrosive chill of mass surveillance, automated legal enforcement, or online personal threats. But in the regulatory context, the evidence is far less clear. In fact, findings in recent empirical studies, including my own, demonstrate the contrary: regulations enacted to address online harms, like the forthcoming federal legislation, can actually have an empowering effect. They can encourage more speech and engagement online, especially by women and minorities. Any chill, by comparison, is negligible.

Chilling Effects and Our Permissive Legal Infrastructure

Concerns about chilling effects—that certain laws or regulations may “chill” or deter people from exercising their rights and freedoms—have long been central to debates about online content regulation and moderation.  Often corporate service providers and platforms have employed them, with great success, to curtail regulatory efforts and promote a broadly permissive legal and regulatory environment.

Perhaps the best example is Section 230 of the United States’ Communications Decency Act. This provides internet and social media platforms with near blanket legal immunity, shielding them from liability for user generated content and from lawsuits relating to how they moderate content. Section 230 is treated as a “sacred cow” by the U.S. technology industry. But it has been controversial as its broad legal protections now shelter powerful corporate platforms like Facebook, Google, and Twitter from legal accountability, while providing little incentive to address online abuse and other harms.

Chilling effect claims are a central reason for Section 230’s broad scope. The U.S. Fourth Circuit Court of Appeal’s famous 1997 decision in Zeran v America Online, which provided Section 230 with its broad interpretation, was premised on concerns about chilling effects. AOL had argued that without blanket immunity, online service providers (OSPs) would chill and suppress online speech to avoid liability. The court bought that anti-regulatory framing entirely, despite the fact that Section 230’s text, history, and original statutory intent did not justify Zeran’s blanket immunity interpretation.

Despite this, courts since have been largely unwilling to disturb Zeran’s broad Section 230 reading. Lawmakers have likewise failed to enact Section 230 reforms, despite years of advocacy by critics, fostering a deeply permissive legal and regulatory infrastructure for platforms.

Given that most of the powerful and popular social media platforms today are American, the country’s permissive regulatory approach, underpinned by Section 230, has impacted Canada. We have no general intermediary liability statute to police platforms. Both courts and governments have been very reticent to change that. When they have taken steps to do so, as the Trudeau government has experienced,  concerns, claims, and critiques about chilling effects resurface.

Despite their prevalence, there is little systematic study of such claims. Empirical research suggests that laws do not have the chilling effects that critics suggest. Furthermore, these criticisms also neglect other chilling effects—those caused online harm and abuse itself. Leading privacy and online abuse scholars like Danielle Citron have extensively documented how online harassment, bullying, and abuse have a profound chilling effect—a “totalizing and devastating impact”—that chills victims into silence, with disproportionate impact on women and minorities.

How Regulation Can Empower Speech

In one article published in 2019, Citron and I have explored how a cyberharassment law might impact what participants would be willing to say or do online. Using a study of nearly 1300 US-based adult internet users, we found that the cyberharassment law we tested would have a negligible chilling effect. Most participants indicated that the law would either have no impact or actually make them somewhat or much more likely to speak, share, and engage online. Not only that, we found the law would have an empowering effect—actually encouraging these activities, particularly for women.

We explained the findings using expressive law theory—a growing body of behavioural research that focuses on the expressive function of law—how it can shape behavioural norms by changing the social meaning of behaviour. When a law is passed, it provides a powerful symbolic or “informational” signal as to societal consensus or wider popular attitudes about social behavior, meaning how people should act and what behaviour is approved and disapproved. The law also provides information about the relative “risk” of certain behaviour. New online regulations raise the risk of abusing and reduce the risk of speaking and sharing online, especially for those most often victimized by online abuse. Over time, people internalize the attitudes and norms expressed by the law, altering broader behavioural norms.

Given that women are disproportionately targeted by online harassment and abuse, our findings made sense in terms of expressive law theory. A cyberharassment law designed to deter online harassment and abuse suffered by women had a positive expressive effect on women’s speech, sharing, and engagement online.

Our more forthcoming recent experimental research explored the impact of legal and platform measures aimed at protecting intimate privacy from abuse and invasion. We similarly found negligible evidence of any chilling effects. We did find that these privacy protective measures promoted trust, which is critical to fostering greater intimate sharing and expression, both online and off, especially among women and minority groups more likely to be victims of intimate privacy threats and similar abuse.  

Our findings are consistent with other recent studies like computational social scientist Nathan Matias, who found that rules concerning online abuse in online communities helped curb online harassment and encouraged wider group participation.

Implications for Online Harms Law and Beyond

So, the critics are wrong. There is little evidence to support claims that online harms regulations—like Canada’s planned online harms laws—would chill speech and engagement online. 

Our findings showed the very opposite: online harms legislation, if carefully tailored and communicated effectively, can support and encourage a wider diversity of speech and engagement, especially for those most often silenced due to being targeted for abuse—women and minorities. This is the empowering effect of online law and regulation.


La réglementation sur les préjudices en ligne soutient la prise de parole et la participation

L’une des critiques les plus fréquentes et avancées avec le plus de vigueur à l’égard des projets de loi du gouvernement du Canada en matière de préjudices en ligne, notamment en ce qui a trait aux premières itérations et aux opinions sur les versions plus récentes, c’est qu’une telle réglementation pourrait profondément dissuader la population d’exercer ses droits et les libertés, en particulier sur la prise de parole, la transmission de contenu et la participation sur le Web.

 

Ces critiques ne sont pas surprenantes. Ces préoccupations ont été fréquemment soulevées pour exprimer une critique, une opposition ou une contestation des lois et des règlements visant à lutter contre le discours haineux sur le Web, la cyberintimidation, la désinformation et d’autres préjudices en ligne. De plus, les plateformes de médias sociaux ont très bien réussi à instrumentaliser ces affirmations pour mettre de l’avant un programme d’opposition à ce type de réglementation, en présentant la législation et la réglementation en matière de préjudices sur le Web comme une menace pour les utilisateur·trice·s et l’innovation.

 

Pour être clair, on observe effectivement des effets dissuasifs. Je les ai documentés et explorés dans mon propre travail, y compris la profonde inhibition occasionnée par la surveillance de masse, les systèmes automatisés d’application de la loi, ou les menaces personnelles en ligne. Toutefois, pour ce qui est des effets du contexte réglementaire, les données sont beaucoup moins probantes. Effectivement, les résultats de récentes études empiriques, y compris la mienne, démontrent que le contraire est vrai : les règlements adoptés pour lutter contre les préjudices en ligne, comme la législation fédérale à venir, peuvent en fait produire un effet favorable à l’expression. Ils peuvent encourager la prise de parole et la participation en ligne, en particulier par les femmes et les personnes issues d’une minorité. En comparaison, les effets dissuasifs sont négligeables.

Les effets dissuasifs et notre infrastructure juridique permissive

Les préoccupations concernant les effets dissuasifs, c’est-à-dire l’idée que certaines lois ou certains règlements peuvent « dissuader » ou décourager les gens d’exercer leurs droits et libertés, ont longtemps été au centre des débats sur la réglementation et la modération du contenu en ligne.  Bien des grandes entreprises, comme les fournisseurs de services et les plateformes, ont manié ces arguments avec beaucoup de succès. Elles ont ainsi pu limiter les efforts de réglementation et promouvoir un environnement juridique et réglementaire généralement permissif.

 

Un des meilleurs exemples de ces efforts de la part des grandes entreprises est sans doute l’article 230 de la Communications Decency Act aux États-Unis. Cette disposition fournit aux plateformes Web et aux médias sociaux une immunité juridique quasi totale en ce qui a trait à leur responsabilité envers le contenu généré par les utilisateur·trice·s et les poursuites judiciaires liées à leurs pratiques de modération de contenu. L’article 230 est considéré comme une « vache sacrée » par le secteur américain des technologies. Cette disposition est toutefois controversée, car les protections juridiques à large portée qu’elle fournit permettent actuellement à de grandes entreprises de plateformes comme Facebook, Google et Twitter d’éviter leurs responsabilités juridiques. De plus, elle fournit très peu d’incitatifs à lutter contre les abus en ligne et d’autres types de préjudices.

 

Ces déclarations sur l’effet dissuasif de la réglementation en matière de préjudices sur le Web ont été centrales à la vaste portée accordée à l’article 230. La célèbre décision de la cour d’appel des États-Unis pour le quatrième circuit, rendue en 1997 dans l’affaire Zeran v America Online, qui a fourni à l’article 230 son interprétation élargie, était fondée sur des préoccupations à propos des effets dissuasifs. L’entreprise AOL avait soutenu que sans immunité totale, les fournisseurs de services en ligne devraient restreindre et décourager la prise de parole sur le Web pour éviter toute responsabilité. Le tribunal a entièrement adhéré à cette conception anti-réglementation, malgré le fait que ni le texte de l’article 230, ni son histoire et ni son intention législative originale ne justifient cette interprétation qui accorde, à l’issue de l’affaire Zeran, l’immunité totale.


Malgré cela, l’interprétation a perduré car la plupart des tribunaux ont été réticents à revoir la portée de l’article 230 découlant de l’affaire Zeran. De plus, les législateur·trice·s n’ont pas adopté de réformes se rapportant à l’article 230, malgré une opposition des critiques durant plusieurs années, favorisant ainsi une infrastructure juridique et réglementaire profondément permissive pour les plateformes.

 

Étant donné qu’aujourd’hui, la plupart des plateformes de médias sociaux puissantes et populaires sont des entreprises américaines, l’approche réglementaire permissive des États-Unis, appuyée par l’article 230, a eu des répercussions au Canada. Nous n’avons pas de loi générale sur la responsabilité des intermédiaires permettant le contrôle des plateformes. Tant les tribunaux que les gouvernements ont été très réticents à changer cette situation. Dans les cas où l’on a pris des mesures en ce sens, les préoccupations, les affirmations et les critiques au sujet des effets dissuasifs refont surface. C’est ce qu’a vécu le gouvernement Trudeau.

 

Malgré leur prépondérance dans le débat, ces affirmations ont fait l’objet de peu d’études systématiques. Selon certaines études empiriques, ces lois n’ont pas les effets dissuasifs que les critiques leurs prêtent. En outre, les critiques à l’endroit de la législation sur le Web font fi des effets dissuasifs d’une autre nature, c’est-à-dire l’inhibition causée par les préjudices et les abus sur le Web en tant que tels. Des spécialistes renommé·e·s en matière de protection de la vie privée et d’abus en ligne comme Danielle Citron ont largement documenté la manière dont le harcèlement, l’intimidation et les comportements abusifs sur Internet engendrent un effet dissuasif profond : une « incidence totale et dévastatrice » qui réduit les victimes au silence, dont l’effet touche les femmes et les personnes issues de minorités de manière disproportionnée.

Comment la réglementation peut soutenir la prise de parole

Dans un article publié en 2019, Citron et moi-même avons exploré l’effet potentiel d’une loi en matière de cyberintimidation sur le genre de prise de parole ou d’action qu’un groupe de participant·e·s aurait sur internet. Une étude menée auprès de près de 1 300 utilisateur·trice·s d’Internet en âge adulte aux États-Unis a révélé que la loi en matière de cyberintimidation que nous avons mise à l’essai aurait un effet dissuasif négligeable. La plupart des participant·e·s ont indiqué qu’une telle loi n’aurait aucune incidence ou que celle-ci les inciterait un peu ou beaucoup plus à s’exprimer, à partager du contenu et à participer à des échanges sur le Web. De surcroît, nous avons constaté que la loi aurait un effet positif sur l’expression : en fait, elle encouragerait ces activités, en particulier pour les femmes.

 

Nous avons expliqué les résultats de l’étude à l’aide de la théorie du « droit expressif », un corpus de recherches comportementales en expansion dont l’objet principal est la fonction expressive du droit, c’est-à-dire la capacité du droit à façonner les normes comportementales en modifiant la signification sociale de certains comportements. L’adoption d’une loi génère un puissant signal symbolique ou « informatif » quant au consensus sociétal ou aux attitudes populaires au sens large en matière de comportement social, c’est-à-dire la manière dont les gens doivent agir et les comportements qui sont approuvés et désapprouvés. Les lois nous informent également du « risque » relatif associé à certains comportements. L’adoption de règlements en matière de discours sur Internet augmenterait le risque associé aux comportements abusifs et réduirait le risque associé à la prise de parole et à la diffusion de contenu sur le Web, en particulier pour les personnes qui sont le plus souvent victimes de comportements abusifs sur Internet. Au fil du temps, les gens intérioriseraient les attitudes et les normes exprimées par la loi, modifiant ainsi plus largement les normes comportementales.

 

Étant donné que les femmes sont ciblées de manière disproportionnée par le harcèlement et les comportements abusifs en ligne, nos conclusions sont logiques du point de vue de la théorie du droit expressif. On observe qu’une loi en matière de cyberintimidation dont l’objet est de décourager le harcèlement et les comportements abusifs subis par les femmes sur Internet produit un effet expressif positif sur leur prise de parole, leur diffusion de contenu et leur participation.

 

Dans le cadre de notre recherche expérimentale plus récente, nous avons exploré l’effet des mesures juridiques et celles adoptées par les plateformes visant à protéger les utilisateur·trice·s contre les abus et invasions de la vie privée. De même, nous avons observé qu’il y avait peu de données probantes quant à l’existence des effets dissuasifs de telles mesures. Nous avons toutefois constaté que ces mesures soutenant la protection de la vie privée favorisaient la confiance, ce qui est essentiel pour favoriser la prise de parole et la diffusion de contenu personnel en ligne, ainsi que l’expression hors ligne, en particulier pour les femmes et les groupes minoritaires, plus susceptibles d’être victimes de menaces portant atteinte à la vie privée et d’abus similaires. 

 

Nos résultats vont dans le même sens que ceux d’autres études récentes, comme celle du chercheur en sciences sociales informatiques Nathan Matias, qui a constaté que les règlements en matière de comportements abusifs dans les communautés Web ont aidé à réduire le harcèlement et ont encouragé la participation d’un plus grand groupe de personnes.

Implications pour le droit en matière de préjudices sur le Web et perspectives

Les critiques ont donc tort. Il existe peu de données appuyant les affirmations selon lesquelles la législation en matière de préjudices en ligne, comme le projet de loi canadien, entraverait la liberté d’expression et la participation sur Internet. 

Selon les résultats de nos recherches, le contraire serait vrai : la législation sur les préjudices en ligne, si elle est soigneusement ajustée et communiquée de manière efficace, pourrait soutenir et encourager une plus grande diversité d’expression et de participation, en particulier pour les personnes les plus souvent réduites au silence parce qu’elles sont la cible de comportements abusifs, à savoir les femmes et les personnes issues de minorités. Voilà comment la législation et la réglementation en matière de discours en ligne peuvent favoriser l’expression des internautes.

 
Previous
Previous

The Diligent Platform and “Lawful but Awful” Expression

Next
Next

Platform Data is Social: How Publicity and Privacy are Vital to Data Governance