Verified-as-Canadian Content? Bill C-11 and the Platform Infrastructure of the Verified Badge System

Robyn Caplan

le français suit

 

On October 27, 2022, Elon Musk became the new owner and CEO of Twitter. By October 30, 2022, Musk tweeted that the verified badge, known as the “blue check” (despite it being a white checkmark on a blue background), was being “revamped.” It would now become a paid-for-feature of Twitter’s existing subscription product, Twitter Blue. The change would require current blue-check holders to pay USD $7.99 a month (the price negotiated down from USD $19 by Stephen King on Musk’s Twitter thread) to keep their blue check. For everyone else, a subscription to Twitter Blue could buy you that blue check without undergoing the same verification process that had been required of the legacy blue-check holders. When the new feature launched on November 5, 2022, there was a rapid increase of impersonations with newly paid-for blue checks posed as companies like Eli Lilly, McDonalds, Nintendo, and American Girl. Since then there have been even bigger changes to the system; Twitter began winding down its legacy verification program on April 1, 2023, and is now charging all users for the service, including major organizations.

Prior to Twitter’s fiasco, platform companies had increasingly used tools like verification to distinguish between official and unofficial sources. The online adult video platform, Pornhub, announced they had removed all verified videos, limiting uploads to verified users only, following an investigative opinion piece by The New York Times’s Nicolas Kristof that followed the lives of sexual abuse victims whose videos were uploaded to the site.

Other platforms use “verification” to distinguish between sources, often framing these efforts within concerns about safety and trustworthiness. For instance, Airbnb announced in 2019 that it would verify all of its listings, including the accuracy of photographs, addresses, and other information posted by hosts about themselves and their properties. In 2020, Tinder rolled out a blue checkmark verification system to deter catfishing, asking users to take selfies in real time and match poses in sample images. Prior to its takeover by Elon Musk, Twitter opened a draft of their new verification system to public comment.

Recognizing that they have offered verification as a service to brands and organizations, other platforms are also moving in the direction of Twitter and charging this as security infrastructure. For instance, Meta recently unveiled Meta Verified, a subscription bundle on Instagram and Facebook that authenticates creators’ accounts with government ID, proactive account protection, access to account support, and increased visibility and reach. Though this sort of pay-to-play arrangement does not benefit creators (or perhaps anyone), it does demonstrate that verification is becoming a type of infrastructure that platforms now offer.

In the current debate about Bill C-11, the Online Streaming Act, the verified badge system is one example of a tool that platforms can use to balance the needs and interests of Canadians with the realities of platforms where commercial and user-generated content converge. Verification has not yet been featured in these discussions. However, the verified badge system – currently in flux at so many different platforms –may offer a way to differentiate between the different sources of content – official and unofficial, commercial and non-commercial content, Canadian and not Canadian – that converge over online platforms.

Verified Canadian Content?  

The term verification has had multiple and varied meanings within platform governance. Emily van der Nagel defined verification as “the confirmation that an account is linked with a particular person.”  She draws on Craig Robertson to argue that verification “draws on official personal information.” The longstanding internet debate regarding pseudonymity and anonymity online sees verification as synonymous with “real names.”

Verification has also come to signify status and notability. Though not all users are eligible to be “verified” (in the blue checkmark sense), those who are verified often have to provide official government identification. In one sense, this is a form of “identity confirmation” of the more famous users of platforms. Some policies – such as those implemented in 2014 by both Instagram and YouTube – were created to address the identity concerns of their high-status members.

But platforms have also viewed verification as one solution to the broader problem of trustworthiness or credibility online, often framed narrowly within the lens of mis- and disinformation. In some cases, verification is used to mediate and highlight credible and authoritative information—as was the case with Twitter during the early stages of COVID-19 or content from platform-approved sources (the case with Pornhub). In all of these senses, verification signals a broader shift in content moderation away from content and toward sources.

Within the Canadian context, there is an open question as to whether the verified badge might solve some of the issues around what constitutes Canadian content within spaces where both traditional media and user-generated media co-exist. When it comes to Bill C-11, the Online Streaming Act, there has been considerable back-and-forth on whether the law will apply to digital creators. Many creators and tech platforms, as well as experts such as Michael Geist and Dwayne Winseck, have argued against the inclusion of user-generated content within the Bill. However, the Canadian Heritage Minister Pablo Rodriguez rejected a Senate amendment to narrowly tailor the Bill and scope the regulation of social media services to “the distribution of commercial programs” over services like Netflix. This means that C-11 will (unless it is changed) apply to TikToks, YouTube videos, and other user-generated content. How the CRTC establishes the requirements for regulating this type of content is still to be determined.

When it comes to distinguishing Canadian content, platforms like YouTube have said that their focus is “protecting the livelihood of digital Canadian creators.” They have said that implementing C-11 will introduce new concerns for those creators, who may be downranked if their content is surfaced to users because it is Canadian, and not because it is relevant. There is evidence that within an algorithmic model (rather than, for instance, a subscription model) this may be the case. Although algorithms do take location into account – such as through geolocation, or recommending content your friends and family like, which might also be Canadian – recommendation algorithms are optimized mostly for predicting engagement.

Still, as the verified badge system demonstrates, particularly in Twitter and Meta’s recent changes, the verified badge could both differentiate between types of content or sources and offer a route  to increase visibility and reach. Although the CRTC will need to decide what constitutes “Canadian content” for creators and other user-generated content, it may be useful to explore what a “verified Canadian badge” may look like, how users can self-select into these programs, and how that infrastructure could be used to direct resources – both attention and otherwise – to Canadian creators.


la version française

Contenu certifié canadien? Le projet de loi C-11 et l’infrastructure des systèmes de badges certifiés

Le 27 octobre 2022, Elon Musk est devenu le nouveau propriétaire et PDG de Twitter. Dès le 30 octobre 2022, Musk a gazouillé que le badge certifié, aussi appelé « crochet bleu » même s’il s’agit d’un crochet blanc sur fond bleu, allait être « refondu ». Il fera désormais partie de l’abonnement payant préexistant de Twitter, Twitter Blue. Désormais, on demandera aux détenteur·trice·s d’un crochet bleu de payer des frais mensuels de 7,99 $ US (le prix était initialement de 19 $ US, il a été négocié à la baisse par Stephen King sur le fil twitter d’Elon Musk) pour le garder. Pour les autres utilisateur·trice·s, il était possible de s’acheter un crochet bleu avec l’abonnement Twitter Blue, contournant ainsi le processus de vérification qui avait été de procédure pour les ancien·ne·s détenteur·trice·s de crochets bleus. Lorsque la fonctionnalité a été lancée le 5 novembre 2022, les imposteur·trice·s ont pullulé en abusant du nouveau crochet bleu payant pour se faire passer pour des entreprises comme Eli Lilly, McDonald’s, Nintendo et American Girl. Depuis, il y a eu des changements encore plus importants au système : Twitter a commencé à démanteler son ancien programme de vérification le 1er avril 2023. Aujourd’hui, Twitter demande à tous·te·s ses utilisateur·trice·s de payer pour ce service, même les grandes organisations.

Avant le fiasco de Twitter, la vérification était un outil de plus en plus utilisé par les plateformes pour distinguer les sources officielles et non officielles. Pornhub, une plateforme de vidéos pour adultes en ligne, a annoncé qu’elle avait enlevé de son site toutes les vidéos non vérifiées à la suite de la publication d’un article de journalisme d’enquête et d’opinion par Nicolas Kristof du New York Times qui suivait les vies de victimes d’abus sexuels dont les vidéos avaient été mis en ligne sur le site. La plateforme a donc limité la mise en ligne aux utilisateur·trice·s vérifié·e·s.

Pour d’autres plateformes, la « vérification » est une façon de distinguer les sources fiables de celles qui ne le sont pas. Elles rationalisent leurs efforts par un souci d’assurer la sécurité et la confiance. Par exemple, Airbnb a annoncé en 2019 que toutes leurs annonces seraient vérifiées, entre autres dans la justesse des photographies, de l’adresse et des autres informations personnelles et sur la propriété fournies par les hôte·esse·s. En 2020, dans le but d’éradiquer les cyberimposteur·trice·s, Tinder a lancé son système de vérification à crochet bleu qui demande aux usager·ère·s de prendre des égoportraits en temps réel de manière à correspondre aux poses sur des images d’échantillon. Avant d’être repris par Elon Musk, Twitter avait soumis à l’avis du public une ébauche de leur nouvelle formule de vérification.

La vérification en tant que service offert aux marques et aux organisations n’est pas passée sous le radar des autres plateformes, qui suivent l’idée de Twitter de faire payer pour cette infrastructure de sécurité. Par exemple, Meta a récemment dévoilé Vérifié par Meta, un ensemble d’abonnements sur Instagram et Facebook qui authentifie les comptes des créateur·trice·s à l’aide d’une pièce d’identité officielle. Le service offre également une protection active et des services de soutien pour le compte, ainsi qu’une plus grande portée et visibilité. Bien que ce genre de modèle payant n’est pas profitable aux créateur·trice·s (ni, peut-être, à personne), il est maintenant évident que la vérification est aujourd’hui devenue une sorte d’infrastructure offerte par les plateformes.

Dans le débat autour du projet de loi C-11, la Loi sur la diffusion continue en ligne, le système de badge certifié est un exemple d’un outil à la disposition des plateformes pour concilier les besoins et intérêts des Canadien·ne·s avec les réalités des plateformes où convergent le contenu commercial et celui crée par les utilisateur·trice·s. La certification n’a pas encore été considérée dans ces discussions. Toutefois, le système de badges certifiés, bien qu’il soit actuellement en mutation sur beaucoup de plateformes, peut offrir une façon de différencier les sources de contenu sur les plateformes en ligne : officielles et non officielles, commerciales et non commerciales, canadiennes et non canadiennes.

Contenu canadien certifié?

Le terme vérification comporte plusieurs sens variés en ce qui a trait à la gouvernance des plateformes. Emily van der Nagel définit la vérification comme la « confirmation que le compte est lié à une personne en particulier ». Elle s’appuie sur Craig Robertson pour avancer l’argument que la vérification « se base sur des informations personnelles officielles ». Dans le cadre de l’éternel débat sur internet autour du pseudonymat et de l’anonymat en ligne, la vérification est synonyme de « vrais noms ».

La certification est également devenue synonyme de statut et de notoriété. Bien que ce ne soit pas tous·te·s les utilisateur·trice·s qui puissent être « certifié·e·s » (pour l’obtention du crochet bleu), ceux et celles qui le peuvent doivent souvent fournir une pièce d’identité officielle du gouvernement. À cet égard, c’est une sorte de « validation de l’identité » des personnalités les plus célèbres de la plateforme. Certaines mesures, comme celles mises en œuvre en 2014 par Instagram et YouTube, sont nées des soucis de leurs membres à statut élevé concernant leur identité.

Les plateformes voient également la certification comme une solution au problème plus large de la crédibilité et de la fiabilité sur Internet, qu’on considère souvent dans le cadre réducteur de la mésinformation et de la désinformation. Dans certains cas, la certification est aussi utile pour relayer et mettre en évidence les sources d’information crédibles et faisant autorité. Ce fut le cas sur Twitter durant les premiers ébats de la pandémie de COVID-19, ou encore pour le contenu de sources approuvées par les plateformes (comme dans le cas de Pornhub). Dans tous ces cas de figure, le phénomène de la vérification indique un mouvement plus général dans la modération du contenu, s’éloignant du contenu en tant que tel pour se concentrer sur les sources.

Dans le contexte canadien, la question reste ouverte quant à savoir si les badges certifiés peuvent résoudre certains des problèmes liés à la définition de ce qui est considéré comme du contenu canadien au sein d’espaces où coexistent les médias traditionnels et le contenu généré par les utilisateur·trice·s. En ce qui a trait au projet de loi C-11, la Loi sur la diffusion continue en ligne, son application aux créateur·trice·s de contenu numérique attise de chauds débats. Créateur·trice·s et plateformes ont joint leurs voix à des spécialistes comme Michael Geist et Dwayne Winseck, qui se campent contre l’inclusion du contenu produit par les utilisateur·trice·s dans le projet de loi. Toutefois Pablo Rodriguez, ministre du Patrimoine canadien, a rejeté un amendement du Sénat visant à restreindre la portée du projet de loi et de la réglementation des services de médias sociaux à la « distribution de programmes commerciaux » par le biais de services comme Netflix. Cela veut dire que le projet de loi C-11 s’appliquera (à moins qu’il soit modifié) aux vidéos YouTube et Tiktok, ainsi qu’à tout autre contenu produit par les utilisateur·trice·s. L’approche du Conseil de la radiodiffusion et des télécommunications canadiennes en ce qui a trait à l’établissement des exigences pour la réglementation (CRTC) de ce genre de contenu reste à déterminer.

En ce qui concerne la distinction du contenu canadien, certaines plateformes, comme YouTube, ont dit que leur objectif est « de protéger le gagne-pain des créateur·trice·s de contenu canadien·ne·s ». À leur avis, la mise en œuvre du projet de loi C-11 va introduire des problèmes pour ces créateur·trice·s, qui pourraient se voir déclassé·e·s si leur contenu apparaît parce qu’il est canadien et non parce qu’il est pertinent. Certaines données indiquent que cela pourrait être le cas des modèles algorithmiques (par rapport aux modèles d’abonnement, par exemple). Bien que l’emplacement soit pris en compte par les algorithmes (par le biais de la géolocalisation, ou encore par la recommandation de contenu auquel vos ami·e·s ou les membres de votre famille, qui risquent d’être eux et elles aussi des Canadien·ne·s, ont attribué la mention « J’aime »), les algorithmes de recommandation sont principalement optimisés pour prédire la participation des utilisateur·trice·s.

Comme le démontre le système de badges certifiés, particulièrement à la lumière des dernières modifications de Twitter et Meta, cette méthode d’authentification constituerait une façon de différentier entre les types de contenus et de sources, tout en permettantd’accroître la visibilité et la portée de ce contenu. Bien que le CRTC doive encore définir ce qui constitue du « contenu canadien » pour les créateur·trice·s et le reste du contenu produit par les utilisateur·trice·s, l’idée d’un « badge certifié canadien » mérite d’être explorée. Il serait également intéressant d’envisager de quelle manière les utilisateur·trice·s pourront participer volontairement à ces programmes, et comment cette infrastructure pourrait être mise à profit pour diriger les ressources, qu’il s’agisse de l’attention des utilisateur·trice·s ou de ressources d’autres types, vers les créateur·trice·s canadien·ne·s.

 
Previous
Previous

The Role of Private Online Spaces in Platform Governance

Next
Next

Canada’s Election Laws Aren’t Ready for Social Media Influencers