PANÉLISTES
-
Cara Zwibel
Association canadienne des libertés civiles
-
Diana Gheorghiu
Child Rights International Network
-
Jeanette Patell
YouTube
-
Ron Bodkin
Vector Institute
-
David Fewer
Clinique d’intérêt public et de politique d’Internet du Canada Samuelson-Glushko (modérateur)
Enjeux principaux
- Les enjeux relatifs aux définitions du contenu illégal et préjudiciable ciblé par le gouvernement
- La perspective d’une surveillance proactive et de la suppression excessive de contenu légitime
- La faisabilité administrative et technique de l’application de la loi, notamment la complexité de la prise de décision automatisée
- La protection des libertés et droits fondamentaux, notamment le droit à la vie privée et à la liberté d’expression, dans un contexte en ligne
Aperçu de la discussion
Au cours de l’été 2021, le gouvernement du Canada a lancé une consultation sur sa proposition de législation pour s’attaquer au contenu préjudiciable en ligne. La proposition ambitieuse abordait cinq catégories de contenu illégal et préjudiciable : les discours haineux, le contenu terroriste, le contenu incitant à la violence, le contenu d’exploitation sexuelle des enfants en ligne et le partage non consensuel d’images intimes. Elle visait à établir de nouveaux organismes de réglementation aux fins de surveillance, d’application de la loi et d’appel, ainsi que des exigences à l’intention des « fournisseurs de services de communication en ligne », c’est-à-dire les principales plateformes comme Facebook et YouTube, notamment de retirer le contenu dans un délai de 24 heures, d’établir des systèmes « robustes » de signalement, de notification et d’appel et de signaler obligatoirement le contenu aux forces de l’ordre. La nature de la consultation a soulevé des inquiétudes quant au degré auquel les bénéficiaires visés de la proposition étaient en mesure de communiquer leurs opinions et leurs préoccupations.
Les panélistes ont convenu que la portée de la législation était trop large. Les cinq types de contenu illégal et préjudiciable sont très différents, les limites juridiques de certains étant bien mieux définies. De plus, la disposition selon laquelle les définitions de ces types de contenus seront adaptées du contexte réglementaire soulève des questions quant au rôle du gouvernement dans la gouvernance du discours et à la portée du contenu qui sera assujetti à la réglementation. Il a été suggéré que le gouvernement se concentre uniquement sur le contenu déjà jugé comme illégal. Les panélistes ont ajouté que la large portée du contenu assujetti à la réglementation associée au retrait obligatoire du contenu dans un délai de 24 heures et à des amendes élevées pour non-conformité pourrait entraîner la suppression excessive de contenu légitime en ligne.
Dans l’approche proposée, le gouvernement incluait des exigences visant à identifier le contenu illégal et préjudiciable et à le rendre inaccessible aux Canadiens, notamment au moyen de systèmes automatisés. Les panélistes ont souligné que l’intelligence artificielle moderne n’est pas suffisamment perfectionnée pour comprendre le contexte du contenu signalé. De plus, certains utilisateurs risqueraient de signaler du contenu par mauvaise foi ou à des fins malhonnêtes. L’utilisation de systèmes automatisés pour retirer du contenu pourrait réduire au silence des utilisateurs légitimes en ligne. Aussi, toutes les plateformes ne devraient pas obligatoirement surveiller de manière proactive toutes les communications en ligne dans le but d’identifier du contenu illégal et préjudiciable. Un système de signaleur fiable serait préférable aux systèmes automatisés.
L’une des principales préoccupations des panélistes est le potentiel de restriction de la liberté d’expression dû au retrait excessif de contenu légitime et à la surveillance proactive des communications en ligne. Les panélistes ont également exprimé leur inquiétude au sujet des conséquences pour le droit à la vie privée des exigences de signalement obligatoire du contenu aux forces de l’ordre et au Service canadien du renseignement de sécurité. Cette préoccupation s’est accentuée au fil de la discussion sur la possibilité d’automatiser le processus de partage des renseignements entre les fournisseurs de services de communication en ligne et ces organismes. Les panélistes se sont entendus sur le fait que si le gouvernement apportait des modifications mineures à la législation, il pourrait éviter une contestation de la Charte. Toutefois, étant donné la situation actuelle, il risque de ne pas atteindre ses objectifs en permettant à la législation d’être rattrapée en cour avant sa mise en œuvre. Les panélistes ont discuté d’autres moyens que le gouvernement pourrait étudier afin de réglementer les préjudices en ligne avant de recourir à la réglementation des discours en ligne. Si les discours en ligne doivent demeurer du ressort du gouvernement, il devrait s’en tenir à son rôle de surveillance publique et uniquement imposer des obligations en cas de discours réellement illégaux. Un des panélistes a souligné que d’offrir un plus grand nombre d’options algorithmiques aux parents pourrait créer une meilleure expérience en ligne pour les enfants. La priorité doit être accordée à l’éducation et à la littératie numérique, car une réglementation et un plus grand nombre de technologies ne sont pas la solution miracle pour remédier aux préjudices en ligne. Une étude de la loi sur la concurrence permet également de suggérer que la monétisation des plateformes et des publicités améliorerait sans doute l’expérience en ligne et diminuerait la fréquence des discours haineux et de l’extrémisme que le gouvernement cherche à réduire.
Informations clés
- Les définitions du contenu illégal et préjudiciable visé par le projet de loi devraient être plus précises et claires, de même que les intermédiaires qui seront impliqués dans l’application de la loi devraient être précisés.
- Les différentes catégories de contenu peuvent être traitées différemment; toutefois, une certaine uniformité est nécessaire pour éviter de surcharger les entreprises.
- Certains contenus seront faciles à gérer, tandis que d’autres catégories de contenu nécessiteront une analyse juridique nuancée du contexte, de l’intention et des répercussions.
- La prise de décisions automatisée pour le signalement et le retrait de contenu serait inefficace et entraînerait le retrait excessif de contenu légitime; il faut donc l’éviter. Il faut également éviter d’employer des systèmes automatisés qui envoient les données des utilisateurs aux organismes d’application de la loi.
- Il existe d’autres moyens pour remédier aux préjudices en ligne que le gouvernement pourrait étudier avant d’avoir recours au retrait de contenu, comme étudier la loi sur la concurrence et offrir des options algorithmiques aux utilisateurs.
- Les implications de la proposition actuelle pour la liberté d’expression et le droit à la vie privée pourraient entraîner des batailles constitutionnelles. Il serait possible d’éviter ces enjeux relatifs à la Charte si la portée de la législation est plus restreinte que celle de la proposition.