Étant donné les développements très rapides des outils d’IA, ces lignes directrices peuvent être appelées à évoluer : il est essentiel que la communauté étudiante se tienne informée de cette évolution.

Face à l’intégration croissante des outils de l’intelligence artificielle (IA) dans les pratiques académiques et scientifiques, et notamment des outils d’IA générative (IAg) (i.e. ChatGPT d’OpenAI, Copilot de Microsoft, etc.), son utilisation se doit d’être réfléchie et de respecter les normes les plus strictes en matière d’intégrité intellectuelle et de recherche.

Gardez un esprit critique et faites preuve de transparence lorsque vous utilisez des outils de l’intelligence artificielle.

Balises institutionnelles pour une utilisation responsable de l’IA aux études

L’aide-mémoire suivant présente un survol des lignes directrices qui se retrouvent dans le document « Balises sur l’utilisation responsable de l’intelligence artificielle aux études supérieures » développé par le Service des études supérieures et de la réussite étudiante pour la communauté étudiante.

  • Prioriser l’apprentissage académique : Utilisez l’IA comme un outil de soutien, qui ne doit pas se substituer au développement de vos compétences académiques essentielles telles que l’esprit critique, la recherche autonome et la rédaction.
  • Obtenir une autorisation préalable : Vérifiez toujours si l’utilisation d’outils d’IA est permise dans un contexte donné. Consultez les politiques institutionnelles et les consignes spécifiques pour éviter tout usage inapproprié.
  • Assumer la responsabilité du contenu généré : Prenez la responsabilité complète de tout contenu produit à l’aide de l’IA. Validez systématiquement l’exactitude, la pertinence et l’originalité des informations avant leur intégration dans vos travaux.
  • Comprendre les risques associés : Soyez conscient des risques potentiels, notamment : a. Confidentialité : Les données sensibles ou personnelles peuvent être compromises. b. Plagiat : Le contenu généré peut inclure des éléments non originaux sans attribution claire. c. Cybersécurité : Certains outils d’IA peuvent exposer vos informations à des cyberattaques. d. Biais algorithmiques : Les résultats produits peuvent refléter des préjugés présents dans les données d’entraînement.
    e. Enjeux environnementaux : l’empreinte environnementale de ces outils est à considérer pour en assurer une utilisation éco-responsable.

Notions de base

Intelligence artificielle (IA)

« L’intelligence artificielle (IA) désigne l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant. Dans le cas d’un système informatique, l’intelligence artificielle est appliquée à des données numériques. »

Source : Déclaration de Montréal, Glossaire, https://declarationmontreal-iaresponsable.com/glossaire

IA générative (IAg)

« C’est l’ensemble des techniques d’intelligence artificielle utilisées pour produire du contenu au moyen d’algorithmes et de mégadonnées, généralement sous forme de fichier texte, son, vidéo ou image. L’utilisation de l’intelligence artificielle générative peut mener au plagiat ou à la désinformation, notamment lorsqu’il s’agit de données issues de l’hypertrucage. Plus largement, les agents conversationnels intelligents sont des types d’intelligence artificielle générative. »

Source : Office québécois de la langue française, Grand dictionnaire terminologique, https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26561649/intelligence-artificielle-generative

« Ce que l’on entend par le terme de « générative » est la capacité de l’IA à créer de l’information de manière automatique à partir de grands volumes de données existantes sur lesquelles elle est entraînée. L’IA ne fait pas de simple copier-coller de ce qu’elle a analysé : elle imite, améliore et crée un résultat entièrement nouveau, basé sur une recomposition statistique des motifs et structures qu’elle a identifiés pendant son apprentissage. Ces résultats, que l’on appelle contenus, peuvent être des textes, des images, de la musique ou du code informatique. »

Source : Université de Genève, Intelligence artificielle générative: Guide à l’intention de la communauté universitaire, Introduction à l’IA générative https://www.unige.ch/numerique/ia-generative-guide-unige/introduction-ia-generative

Différencier l’IA et l’IAg

Grand modèle de langage (LLM ou large language model)

« Un LLM est large, car il possède énormément de paramètres (de l’ordre de plusieurs milliards), qui sont autant de pièces d’information. C’est un modèle, car il s’agit d’un réseau de neurones entraîné sur une grande quantité de textes pour produire des tâches non spécifiques. Il est linguistique, car il reproduit la syntaxe et la sémantique du langage naturel humain en prédisant la suite probable pour une certaine entrée. Cela lui permet également d’avoir une « connaissance » générale sur la base des textes d’entraînement. »

Enjeux et limitations

Lorsque vous utilisez un outil d’IA, soyez conscient des enjeux et limitations liés à l’IA et réfléchissez à cette utilisation : est-elle appropriée et responsable ?

Substitution au développement de compétences essentielles : L’utilisation de l’IA doit être un outil complémentaire et non un substitut au travail intellectuel. Elle ne doit pas compromettre l’acquisition de compétences académiques essentielles telles que l’analyse critique, la rédaction, la recherche ou la résolution de problèmes. 


Protection des données sensibles : Les données personnelles, confidentielles ou inédites, comme les résultats de recherche, ne doivent jamais être partagées avec des outils d’IA sans une approbation explicite. Ces outils peuvent stocker ou analyser les données de manière imprévisible, ce qui peut engendrer des risques sérieux pour la confidentialité et la cybersécurité. À noter : toutes les utilisations impliquant des données sensibles doivent être conformes à la Politique sur la gouvernance en matière de protection des renseignements personnels de l’INRS


Risque de cybersécurité : le partage de données via des plateformes d’IA en ligne peut exposer les utilisateurs à des cyberattaques ou à des violations de données.

Biais algorithmique et fiabilité des réponses : Les outils d’IA ne garantissent pas l’exactitude ou l’objectivité des réponses générées. De plus, les résultats générés par ces outils peuvent refléter des biais présents dans les bases de données d’entraînement, ce qui peut affecter la diversité et l’inclusivité des réponses.


Propriété intellectuelle et plagiat : L’intégration de contenu généré par les outils d’IA peut engendrer des violations potentielles des droits de propriété intellectuelle tels que le droit d’auteur. Les outils d’IA peuvent s’appuyer sur des données ou des œuvres protégées sans en garantir l’usage licite, ce qui expose les utilisateurs à des litiges. L’utilisation des outils d’IA doit être faite dans le respect des règles concernant les citations, les références et l’attribution des sources. 


Enjeux environnementaux et humains : Les outils d’IA ont des impacts directs et indirects sur l’environnement (i.e. extraction des matières premières nécessaires pour fabriquer les équipements d’IA, consommation d’eau pour refroidir les serveurs et d’énergie pour entrainer les outils d’IAg, etc.) mais aussi sur la société, notamment le marché du travail (i.e. automatisation de certaines tâches, nouvelles compétences pour les employés, etc.).



Ressources et références 

Voir tout

Ressources

Sources consultées pour les balises

Quelques glossaires de l’IA (liste non exhaustive)

Ressources additionnelles et outils

Des questions? Contactez-nous à l'adresse suivante