- Perspectives improbables
Nous formons la relève en recherche, capable d'innovation scientifique, sociale et technologique.
Nous trouvons des solutions par la recherche interdisciplinaire, en collaboration avec nos partenaires.
Nous contribuons au développement économique, social et culturel du Québec.
29 janvier 2026
Mise à jour : 29 janvier 2026
La série « Perspectives improbables » braque les projecteurs sur des sujets de recherche inusités qui marquent l’esprit et invitent à la réflexion.
La notion de cybersécurité fait aujourd’hui partie de notre quotidien : mots de passe complexes, authentification à plusieurs facteurs, reconnaissance faciale et vocale sont autant de méthodes qui rythment nos connexions en ligne.
Or, les enjeux liés à la cybersécurité ne cessent d’évoluer, tout particulièrement avec la démocratisation massive de l’intelligence artificielle (IA), qui peut facilement être détournée pour des usages criminels par des stratagèmes toujours plus sophistiqués et indétectables.
Érosion de la vie privée, fausses nouvelles, manipulation de contenus, création d’images trompeuses, sont autant d’enjeux présentés par cette nouvelle technologie encore peu encadrée.
C’est dans ce contexte qu’Anderson Avila, professeur spécialiste en sciences de l’information et cybersécurité à l’Institut national de la recherche scientifique, s’intéresse à l’IA. Une technologie qu’il perçoit à la fois comme objet d’étude et… comme outil de défense.
Quoi de plus efficace, pour comprendre et déjouer les dangers de l’IA, que l’IA elle-même ? C’est le pari du professeur Avila.
« Par exemple, dans le cas de reconnaissance vocale, nous travaillons sur une technique basée sur l’IA qui permettra de différencier de véritables voix humaines par rapport à celles créées par l’IA », explique le spécialiste.
Souvent attribuées à tort à des personnalités publiques, ces fausses voix se servent de la crédibilité ou de la visibilité d’un individu pour diffuser des informations erronées à grande échelle, y compris dans des contextes politiques et économiques complexes.
En outre, la reconnaissance vocale est un outil indispensable pour les citoyennes et citoyens, qui l’utilisent notamment pour leurs comptes bancaires ou téléphoniques. D’où la nécessité d’assurer l’intégrité de la voix humaine – un enjeu majeur en cybersécurité et en protection de l’identité numérique.
Grâce à cette méthode de reconnaissance entre vraie et fausse voix, l’équipe du professeur Avila espère pouvoir déjouer certaines arnaques, mettre en lumière le contenu trompeur et renforcer la confiance des citoyennes et citoyens dans les vraies informations.
Au-delà de la sécurité, la recherche du professeur Avila étudie également le phénomène de la désinformation, en travaillant sur les hallucinations et les biais des modèles d’IA. Son objectif : mettre en place des méthodes fiables pour identifier et éviter les influences idéologiques dans les données dont se nourrissent les plateformes d’IA, afin de garantir des résultats factuels et neutres.
« Plus les gens s’appuient sur des outils pilotés par l’IA pour les recommandations et la prise de décision, plus les acteurs malveillants disposent d’occasions pour manipuler l’opinion publique », souligne l’expert.
Son équipe analyse les schémas linguistiques de la désinformation en comparant les différences stylistiques entre les vraies et les fausses nouvelles. « Par notre recherche, nous souhaitons renforcer l’esprit critique en dotant la société d’outils qui détectent les formulations et la rhétorique trompeuses utilisées par l’IA, et ainsi leur permettre de résister à ses manipulations. »
« En définitive, ma volonté est de mettre l’IA au service de la défense contre les menaces technologiques, mais également de promouvoir des systèmes fiables, capables de résister à la manipulation et de protéger les processus démocratiques. »
Le professeur Avila souhaite donc sensibiliser aux dangers numériques en mettant ses connaissances au service de la cybersécurité dans son ensemble. En effet, depuis quelques années, la montée de l’IA redéfinit entièrement le paysage des cyberattaques, en offrant un vaste éventail de nouvelles possibilités aux personnes mal intentionnées.
« La plupart des entreprises présentent l’IA comme une solution idéale, sans expliquer les dangers potentiels : sa capacité à cloner des voix, à contourner les systèmes de sécurité, à générer des courriels d’hameçonnage convaincants, voire à manipuler l’opinion en exploitant les données personnelles », rappelle l’expert.
Selon lui, il est essentiel que le public soit mieux informé des débats en cours sur l’éthique, la vie privée et la sécurité autour de l’IA afin de pouvoir s’engager de manière critique avec ces technologies qui prennent une place croissante dans nos existences.
« Les inquiétudes liées à la vie privée augmentent, mais on ignore souvent à quel point l’IA peut influencer à grande échelle les comportements », conclut-il.
Basé au Centre Énergie Matériaux Télécommunications de l’INRS, le professeur Anderson Avila a poursuivi ses recherches et études au Brésil et au Québec. Il siège également comme directeur scientifique du Laboratoire de cybersécurité et d’intégrité de l’information et agit comme membre de l’Unité mixte de recherche INRS-UQO | Cybersécurité et confiance numérique.
Partager