Retour en haut

Perspectives improbables : lutter contre les biais de l’intelligence artificielle par… l’intelligence artificielle ! 

29 janvier 2026

Mise à jour : 29 janvier 2026

La série « Perspectives improbables » braque les projecteurs sur des sujets de recherche inusités qui marquent l’esprit et invitent à la réflexion.  

La notion de cybersécurité fait aujourd’hui partie de notre quotidien : mots de passe complexes, authentification à plusieurs facteurs, reconnaissance faciale et vocale sont autant de méthodes qui rythment nos connexions en ligne.  

Or, les enjeux liés à la cybersécurité ne cessent d’évoluer, tout particulièrement avec la démocratisation massive de l’intelligence artificielle (IA), qui peut facilement être détournée pour des usages criminels par des stratagèmes toujours plus sophistiqués et indétectables.  

Érosion de la vie privée, fausses nouvelles, manipulation de contenus, création d’images trompeuses, sont autant d’enjeux présentés par cette nouvelle technologie encore peu encadrée.  

C’est dans ce contexte qu’Anderson Avila, professeur spécialiste en sciences de l’information et cybersécurité à l’Institut national de la recherche scientifique, s’intéresse à l’IA. Une technologie qu’il perçoit à la fois comme objet d’étude et… comme outil de défense.  

Combattre le mal par le mal 

Quoi de plus efficace, pour comprendre et déjouer les dangers de l’IA, que l’IA elle-même ? C’est le pari du professeur Avila.  

« Par exemple, dans le cas de reconnaissance vocale, nous travaillons sur une technique basée sur l’IA qui permettra de différencier de véritables voix humaines par rapport à celles créées par l’IA », explique le spécialiste.  

Souvent attribuées à tort à des personnalités publiques, ces fausses voix se servent de la crédibilité ou de la visibilité d’un individu pour diffuser des informations erronées à grande échelle, y compris dans des contextes politiques et économiques complexes.  

En outre, la reconnaissance vocale est un outil indispensable pour les citoyennes et citoyens, qui l’utilisent notamment pour leurs comptes bancaires ou téléphoniques. D’où la nécessité d’assurer l’intégrité de la voix humaine – un enjeu majeur en cybersécurité et en protection de l’identité numérique. 

Grâce à cette méthode de reconnaissance entre vraie et fausse voix, l’équipe du professeur Avila espère pouvoir déjouer certaines arnaques, mettre en lumière le contenu trompeur et renforcer la confiance des citoyennes et citoyens dans les vraies informations.  

Lutter contre la désinformation en ligne  

Au-delà de la sécurité, la recherche du professeur Avila étudie également le phénomène de la désinformation, en travaillant sur les hallucinations et les biais des modèles d’IA. Son objectif : mettre en place des méthodes fiables pour identifier et éviter les influences idéologiques dans les données dont se nourrissent les plateformes d’IA, afin de garantir des résultats factuels et neutres.  

« Plus les gens s’appuient sur des outils pilotés par l’IA pour les recommandations et la prise de décision, plus les acteurs malveillants disposent d’occasions pour manipuler l’opinion publique », souligne l’expert. 

Son équipe analyse les schémas linguistiques de la désinformation en comparant les différences stylistiques entre les vraies et les fausses nouvelles. « Par notre recherche, nous souhaitons renforcer l’esprit critique en dotant la société d’outils qui détectent les formulations et la rhétorique trompeuses utilisées par l’IA, et ainsi leur permettre de résister à ses manipulations. » 

« En définitive, ma volonté est de mettre l’IA au service de la défense contre les menaces technologiques, mais également de promouvoir des systèmes fiables, capables de résister à la manipulation et de protéger les processus démocratiques. » 

L’IA, une ressource inépuisable pour les cyberattaques 

Le professeur Avila souhaite donc sensibiliser aux dangers numériques en mettant ses connaissances au service de la cybersécurité dans son ensemble. En effet, depuis quelques années, la montée de l’IA redéfinit entièrement le paysage des cyberattaques, en offrant un vaste éventail de nouvelles possibilités aux personnes mal intentionnées. 

« La plupart des entreprises présentent l’IA comme une solution idéale, sans expliquer les dangers potentiels : sa capacité à cloner des voix, à contourner les systèmes de sécurité, à générer des courriels d’hameçonnage convaincants, voire à manipuler l’opinion en exploitant les données personnelles », rappelle l’expert.   

Selon lui, il est essentiel que le public soit mieux informé des débats en cours sur l’éthique, la vie privée et la sécurité autour de l’IA afin de pouvoir s’engager de manière critique avec ces technologies qui prennent une place croissante dans nos existences.  

« Les inquiétudes liées à la vie privée augmentent, mais on ignore souvent à quel point l’IA peut influencer à grande échelle les comportements », conclut-il.  


Profil du professeur 

Basé au Centre Énergie Matériaux Télécommunications de l’INRS, le professeur Anderson Avila a poursuivi ses recherches et études au Brésil et au Québec. Il siège également comme directeur scientifique du Laboratoire de cybersécurité et d’intégrité de l’information et agit comme membre de l’Unité mixte de recherche INRS-UQO | Cybersécurité et confiance numérique.  

Site Web 

LinkedIn 

ResearchGate