English

Combattons les préjudices en ligne. Une obligation de diligence, maintenant.

Les Canadien·nes sont complètement exposé·es aux préjudices en ligne à l'ère de l'IA, sans organisme de réglementation, sans recours et sans règles.

Les géants des technologies opèrent au Canada sans AUCUNE obligation légale de vous protéger. Ils s'enrichissent en exploitant vos données et en concevant des plateformes conçues pour créer une dépendance, qui nuisent aux enfants et brisent des vies. Et ils n'en subissent aucune conséquence!

Nos alliés démocratiques ont des lois pour protéger leur population — le Canada, lui, n'a rien. Il est temps d'encadrer les géants des technologies avec des lois qui respectent nos droits et nous protègent.

Écrivez à votre député·e pour qu'une obligation de diligence des plateformes devienne loi au Canada!

À : Votre député·e fédéral·e

N’hésitez pas à personnaliser la lettre ci-dessous.

*Vous pouvez ajuster la taille de la boîte de texte en tirant le coin inférieur droit.

Une adresse canadienne complète est requise pour envoyer votre message. Veuillez entrer une adresse complète pour continuer. Nous informerons automatiquement votre représentant·e.

Cette campagne est organisée par OpenMedia. Nous protègerons vos renseignements personnels et nous vous tiendrons informé de cette campagne et d’autres. Vous trouverez ici la politique de confidentialité d’OpenMedia.

Comprendre le combat

Vous souhaitez en savoir plus sur les raisons pour lesquelles nous demandons aux dirigeant·es canadien·nes de faire de la législation sur les préjudices en ligne une priorité? Cette section vous explique tout ce que vous devez savoir : ce que nous demandons et pourquoi, ce qui a déjà été tenté, comment le Canada se compare à ses alliés, et pourquoi votre courriel à votre député·e compte plus que vous ne le pensez.

Que demandons-nous exactement?

De la responsabilisation. Nous voulons que les plateformes soient légalement responsables des choix systémiques qu'elles font et qui favorisent des préjudices dont elles tirent profit. Les entreprises alimentaires ne peuvent pas vendre des produits dangereux. Les constructeurs·rices automobiles doivent respecter des normes de sécurité. Les compagnies pharmaceutiques doivent passer par des essais cliniques avant de mettre leurs produits sur le marché. Chaque grande industrie est tenue responsable des risques qu'elle engendre — sauf les géants des technologies.

Cela doit changer. Les grandes plateformes doivent évaluer les risques que leurs services créent pour notre bien-être et nos droits, publier des plans pour y remédier et faire face à de réelles conséquences en cas de négligence systématique. C'est l'application d'une obligation de diligence de base — et bien la mettre en œuvre offrira le même niveau de responsabilisation élémentaire que toutes les autres industries connaissent déjà

De quels types de préjudices en ligne parle-t-on?

Nous demandons une obligation de diligence qui couvre les pires des pires — les contenus déjà illégaux. Le matériel d'exploitation sexuelle d'enfants. Les images intimes partagées sans consentement. Les contenus qui incitent à la haine ou à la violence envers des communautés spécifiques — ciblant des groupes radicalisés, la communauté LGBTQ+ ou des groupes religieux — et qui causent des préjudices réels hors ligne. Les contenus qui intimident les enfants ou les poussent à l'automutilation.

Et de plus en plus, nous devons voir l'IA être encadrée lorsqu'elle est utilisée pour planifier des violences réelles — comme dans la tragédie de Tumbler Ridge, où le tireur a utilisé un agent conversationnel pour préparer son attaque des mois à l'avance, sans que la plateforme n'alerte les autorités avant que des vies ne soient perdues.1

L'IA amplifie ces préjudices à une échelle et à une vitesse sans précédent. Lorsque nous laissons les géants des technologies se surveiller eux-mêmes, nous ne nous contentons pas d'espérer pour le mieux — nous laissons activement la sécurité et les droits des Canadien·nes sans protection. Ce n'est pas une politique. C'est une abdication.

Mais est-ce que cela ne mènera pas à de la censure?

Pas si une obligation de diligence des plateformes est définie de manière appropriée dans cette législation. Nous avons passé des années à nous battre précisément pour cela — une obligation de diligence qui exige que les plateformes réfléchissent sérieusement à l'impact de leurs systèmes sur notre bien-être et nos droits. C'est exactement pourquoi nous avons rejeté des propositions qui auraient porté atteinte à nos droits en tant qu'utilisateur·rices en supprimant nos publications, en instaurant des systèmes de surveillance de masse ou en compromettant notre vie privée.

Nous devons placer la responsabilité du changement là où elle appartient : sur la façon dont les géants des technologies conçoivent leurs systèmes, et non sur les utilisateur·rices individuel·les. Les grandes plateformes reposent sur le capitalisme de surveillance. Elles n'ont aucun intérêt réel à protéger vos droits ou votre sécurité — seulement à tirer profit de vous. Nous ne pouvons pas continuer à laisser la sécurité et les droits des Canadien·nes entre les mains de sociétés étrangères dont les décisions ne sont transparentes et imputables envers personne. Notre gouvernement a la responsabilité d'agir. La question n'est pas de savoir s'il faut réglementer — mais comment.

Une réglementation respectueuse des droits signifie : pas de surveillance des utilisateur·rices, pas de portes dérobées dans le chiffrement, pas de responsabilité des plateformes pour les publications individuelles, et pas de pouvoirs de suppression généralisés qui pourraient réduire au silence des discours légitimes. Les mesures de sécurité doivent être proportionnées dans leur incidence sur la vie privée et la liberté d'expression — et débattues et décidées ouvertement, et non à huis clos.

Le Canada a-t-il déjà tenté de réglementer les préjudices en ligne?

Oui, et nous avons failli y arriver. Le projet de loi C-63, la Loi sur les préjudices en ligne, était la meilleure tentative du Canada à ce jour pour obliger les plateformes à rendre des comptes tout en protégeant nos droits. Le cœur du projet de loi était véritablement prometteur, mais le gouvernement l'a associé à des modifications controversées du Code criminel qui soulevaient de sérieuses préoccupations en matière de liberté d'expression.

Comme de nombreux·ses défenseur·es des droits, nous avons fortement poussé pour scinder le projet de loi, en conservant la première partie tout en abandonnant les mesures trop larges. En décembre 2024, le gouvernement a finalement accepté.2 Puis le Parlement a été prorogé en janvier 2025,3 et le projet de loi est mort.4,5 Des années de progrès durement acquis, effacées du jour au lendemain.

Depuis, le gouvernement Carney n'a montré que peu de signes de vouloir reprendre là où nous en étions. Pourtant, les risques que posent les préjudices en ligne à l'ère de l'IA sont réels et grandissants.6,7 Le Canada ne peut pas se permettre de retarder davantage la lutte contre les préjudices en ligne. Nous devons pousser ce gouvernement à rétablir les avancées réalisées avec le projet de loi C-63, à en conserver les meilleures parties et à le renforcer pour offrir aux Canadien·nes les protections qu'ils et elles méritent.

Pourquoi votre voix compte-t-elle le plus maintenant?

Les règles qui s'écrivent maintenant façonneront directement et profondément votre vie. Une vague de courriels directs de citoyen·nes sur un enjeu précis se remarque, et avec l'IA qui domine les manchettes, c'est le moment de se faire entendre. Si nous restons silencieux·ses, ces règles seront écrites par des lobbyistes et des gouvernements sans surveillance publique. Si nous parlons maintenant, nous forçons le monde numérique que nous voulons vraiment à se hisser en tête de l'agenda, au moment où cela peut faire une vraie différence pour les Canadien·nes.

Sources

  1. Deux ans de règlement sur les services numériques garantissant des espaces en ligne plus sûrs – Commission Européenne
  2. What we do – eSafety Commissioner, Australia
  3. When should AI companies alert police? What the Tumbler Ridge tragedy reveals about regulating AI – CBC
  4. Now Online Harms Bill C-63 can be a win for Canada – OpenMedia
  5. Digital laws in limbo: What’s at stake after Parliament’s shake-up in 2025 – OpenMedia
  6. Algorithms, Addiction, and Adolescent Mental Health – American Journal of Law & Medicine
  7. Landmark consultation seeks views on major measures to protect children on social media, gaming platforms and AI chatbots – UK Government

Press: Matt Hatfield | Téléphone: +1 (888) 441-2640 ext. 0  | [email protected]