Retour en haut

David Myles : Le paradoxe des plateformes numériques pour les communautés LGBTQ+ 

10 juin 2025

Mise à jour : 10 juin 2025

La série « Tour d’horizon en trois questions » met en valeur la recherche sous toutes ses formes et porte un regard éclairé sur l’actualité. 

David Myles, professeur à l’Institut national de la recherche scientifique (INRS), s’intéresse à la place et aux implications culturelles, sociales et économiques des plateformes numériques. Il se penche plus spécifiquement sur les liens entre vie numérique, cultures populaires et communautés lesbiennes, gaies, bisexuelles, trans, et queers (LGBTQ+).  

Les plateformes numériques, tout en offrant un véritable espace d’échange, présentent aussi des risques accrus en matière de violence en ligne. Le professeur Myles brosse un portrait de ses recherches en lien avec ces questions de société ancrées dans l’actualité. 

En plus de ses activités d’enseignement au Centre Urbanisation Culture Société de l’INRS, David Myles est directeur de Qultures – Laboratoire de recherche sur les cultures LGBTQ+. Il est aussi membre du LabCMO – Laboratoire sur la communication et le numérique et de la Chaire de recherche sur la diversité sexuelle et la pluralité des genres de l’UQAM.  

Quelle place occupent les plateformes numériques au sein des communautés LGBTQ+? Quels en sont les usages et que peuvent-elles apporter à ces communautés? 

Le développement d’Internet a profondément modifié les dynamiques sociales, culturelles et politiques au sein des communautés LGBTQ+. Dès les années 1990 et 2000, Internet a permis aux personnes LGBTQ+ d’aménager leurs propres espaces en ligne pour socialiser, pour fournir des ressources et pour partager leurs réalités. En retour, cela leur a aussi permis de contourner plusieurs sources et formes de discrimination, en particulier dans des régions ou lieux hostiles à leur égard.  

Dans les années 2010, les plateformes numériques ont permis de créer – du moins, initialement – des communautés plus visibles et solidaires. Les applications de rencontre, comme Grindr et Tinder, ont transformé les pratiques intimes et le rapport à l’espace public chez ces communautés, tandis que les réseaux socionumériques, comme Twitter et Instagram, leur ont permis de lancer des campagnes militantes, souvent à travers l’utilisation de mots-clics comme #LoveWins ou #TransRightsAreHumanRights. De leur côté, des plateformes comme YouTube et TikTok ont donné une voix influente aux créatrices et créateurs LGBTQ+, et les services de diffusion en continu, comme Netflix ou Crave, ont enrichi l’offre de contenus culturels queers ou inclusifs.  

Aujourd’hui, on accuse certaines de ces plateformes de reproduire des formes de discrimination à l’égard des communautés LGBTQ+, et d’encourager la cyberintimidation et des discours de haine. Plusieurs recherches illustrent de quelle manière le harcèlement et les discours haineux en ligne peuvent avoir des conséquences néfastes bien réelles sur la sécurité et le bien-être des minorités sexuelles et de genre, particulièrement chez les jeunes. De plus, le développement de l’intelligence artificielle (IA) soulève toute une série de nouvelles préoccupations en matière d’équité et de vie privée qui toucheraient disproportionnellement les personnes LGBTQ+. Si, autrefois, Internet était perçu comme un réel refuge pour ces communautés, ses bienfaits sont aujourd’hui remis en question en raison de ces nouvelles dynamiques. Ces enjeux ont d’ailleurs fait l’objet d’un numéro spécial Au-delà des arcs-en-ciel et des licornes: revisiter les promesses et les défis des médias numériques pour les communautés LGBTQ+ de la Revue canadienne de communication.  

On a récemment observé, notamment avec les nouvelles directives de Meta, une montée des discours de haine et de la discrimination en ligne envers certaines populations marginalisées ou minorisées, dont les communautés LGBTQ+. Quel rôle les plateformes numériques jouent-elles dans la circulation de ces discours? 

Les plateformes numériques peuvent jouer un rôle important dans la circulation des discours haineux et de la discrimination en ligne envers les personnes LGBTQ+. Certaines caractéristiques de ces plateformes, comme la connectivité et la synchronicité, permettent aux contenus de se propager très rapidement avec peu de contrôle ou de supervision. De plus, l’anonymat qui est permis par certaines plateformes peut donner à des internautes un sentiment d’impunité, ce qui favorise la publication de propos discriminatoires. Si l’anonymat peut être un outil important pour protéger la vie privée des internautes, il peut également être détourné pour cibler des groupes déjà marginalisés sans trop de répercussions.  

Aujourd’hui, les plateformes numériques sont souvent instrumentalisées pour organiser des campagnes coordonnées de harcèlement et de violence, particulièrement à l’endroit des personnes trans et non binaires ainsi que des femmes et des personnes racisées. Les stratégies de modération de contenu développées par les compagnies technologiques sont souvent insuffisantes pour faire face à cette montée de violence. Ironiquement, ces compagnies peuvent même bénéficier financièrement de ces campagnes controversées, dans la mesure où ces dernières ont tendance à augmenter le niveau d’engagement des internautes.  

Comme il peut engendrer des profits importants, l’engagement à tout prix des internautes devient, sur le plan des affaires, une commodité beaucoup plus importante que le souci de justice ou d’équité. Ceci est exacerbé par le développement d’algorithmes de modération et de recommandation qui ont tendance à évaluer la valeur des contenus d’internautes sur la base de leur popularité ou de leur controversialité plutôt que sur leur nature, leur visée ou leurs conséquences. 

L’IA et les algorithmes peuvent poser de véritables enjeux de justice sociale et d’équité en contexte numérique. Quels sont les risques et les implications que ces dispositifs entraînent pour les communautés LGBTQ+?  

Nous avons justement exploré cette question dans l’article intitulé Mapping the social implications of platform algorithms for LGBTQ+ communities publié dans le Journal of Digital Social Research

Nous y identifions cinq principaux types de préoccupations qui touchent le développement d’algorithmes par les plateformes numériques, notamment en matière d’équité et de justice sociale.  

Tout d’abord, les algorithmes de classification, qui peuvent chercher à catégoriser automatiquement, voire à prédire l’orientation sexuelle ou l’identité de genre des internautes, peuvent poser des risques significatifs pour la sécurité et la vie privée, surtout s’ils en viennent à être déployés dans le cadre d’initiatives de surveillance menées par des gouvernements ou des compagnies hostiles envers les communautés LGBTQ+. 

Ensuite, les algorithmes de recommandation jouent un rôle important dans la médiation des identités et des cultures LGBTQ+. Ces algorithmes sont conçus pour maximiser l’engagement des internautes en leur proposant des contenus basés sur leurs comportements passés et leurs préférences. Cela peut participer à cristalliser des stéréotypes sexuels et de genre, à polariser les opinions face aux enjeux touchant la diversité sexuelle et la pluralité des genres, voire à sortir du placard les internautes de façon non intentionnelle. Par exemple, une personne ayant montré un premier intérêt envers des contenus homophobes, misogynes ou masculinistes pourrait être amenée, par le biais de ces algorithmes, à en visionner toujours davantage. 

Autre préoccupation : les algorithmes de détection de contenus discriminatoires ou haineux, qui ne parviennent pas toujours à protéger efficacement les internautes LGBTQ+. Ces mécanismes auraient tendance à censurer de manière disproportionnée les contenus LGBTQ+, qu’ils vont souvent associer par erreur à du contenu pornographique ou offensant. Cela peut donc avoir des effets collatéraux très néfastes pour les créatrices et créateurs de contenu queers, en particulier sur le plan financier.  

En outre, les algorithmes de recherche façonnent la visibilité accordée aux contenus proposés par les moteurs de recherche comme Google. Ces algorithmes ont principalement été développés de manière à répondre aux besoins de la majorité, en particulier ceux des hommes blancs cishétérosexuels. Ils peuvent donc reproduire des biais qui limitent la visibilité ou la portée des contenus créés par et pour les internautes LGBTQ+ qui forment un groupe social minoritaire.   

Enfin, cet article examine comment les biais sexuels et genrés, qui se manifestent dans les algorithmes avec lesquels on interagit quotidiennement en ligne, pourraient peut-être s’expliquer par la sous-représentation de personnes LGBTQ+ oeuvrant dans l’industrie technologique. Cette industrie est réputée pour être majoritairement composée d’hommes blancs cishétérosexuels qui ne sont pas toujours les mieux positionnés pour identifier ces biais ou pour développer des stratégies afin de mitiger leurs conséquences négatives. 

En somme, on en sait encore très peu sur les implications de l’IA et des algorithmes pour les communautés LGBTQ+, entre autres types de communautés marginalisées. Si les débats sur les enjeux éthiques de l’intelligence artificielle sont de plus en plus fréquents dans les médias canadiens, les perspectives de groupes minorisés y sont malheureusement rarement mises de l’avant. Pourtant, en raison de leur positionnement à l’intersection de diverses marges sociales, ces groupes pourraient offrir un regard novateur sur le fonctionnement, le rôle et les conséquences de l’intelligence artificielle dans la société et au bénéfice de cette dernière. Ce sont justement les enjeux de recherche sur lesquels nous nous penchons avec mon équipe.