Aller au contenu principal

ChatGPT et intelligence artificielle générative

Utilisation de ChatGPT en contexte universitaire

Conseils de base

ChatGPT peut à certaines tâches, mais il doit rester un assistant et non pas devenir une béquille inutile. Son utilisation ne doit pas nuire à vos apprentissages et au développement de vos connaissances et compétences.

 

Avant l'utilisation

L'utilisation de ChatGPT peut différer selon le domaine et le cycle d'étude. Néanmoins, avant toute utilisation en contexte universitaire d'un outil tel que ChatGPT :

1. D'abord, toujours valider auprès de la personne enseignante ou vérifier dans le plan de cours si son utilisation est permise.

2. Ensuite, le cas échéant, assurez-vous de bien connaitre et de respecter les limites et modalités de cette utilisation.

Par exemple : Permis pour tel travail et non pour tel autre; permis pour telle tâche et pas pour telle autre; nécessité de documenter l'utilisation.

3. Enfin, veillez à toujours faire preuve d'intégrité académique.

Éviter le plagiat, citer de manière appropriée. Faire preuve d'honnêteté et de respect.

 

Pendant l'utilisation

Lors de toute utilisation de ChatGPT en contexte universitaire, il vous est fortement conseillé de documenter avec précision votre utilisation en notant les éléments qui expliquent votre démarche en répondant aux questions suivantes :

  • Pourquoi : pour quelle(s) raison(s) avez-vous choisi d'utiliser ChatGPT ?
  • Quand : à quelle(s) étape(s) du travail exactement avez-vous utilisé ChatGPT ?
  • Quoi : quel contenu de votre travail provient de ChatGPT ?
  • Quel jugement portez-vous quant à la qualité du contenu généré par ChatGPT ? Avez-vous contre-vérifié les informations générées par ChatGPT avec plusieurs sources fiables ?

 

Après l'utilisation

Faire preuve d'intégrité académique :

  • Citer ChatGPT de manière appropriée.

Enfin, gardez en tête que vous êtes entièrement responsable d'un document que vous remettez, tant dans le fond (contenu) que dans la forme.

Atouts et limitations

En constant développement, ChatGPT a une interface conviviale et facile d'utilisation.

Vous interagissez avec ChatGPT à l'aide du langage naturel (phrases), et non par des requêtes impliquant des opérateurs, dans la langue de votre choix. Attention, la qualité des réponses reflète le niveau de présence des langues dans les données d'entrainement.

ChatGPT est un outil généraliste, c'est-à-dire pouvant aborder tous les sujets (manque de profondeur suivant le sujet/discipline).

ChatGPT a un corpus d'entraînement volumineux qui permet de traiter les requêtes avec plus d'efficacité.

Même si ChatGPT ne génère pas de contenu visuel, il est en mesure de générer du texte sous forme de tableau ou de liste à puces.

Les propriétaires de ChatGPT ont mis en place des balises morales qui ont pour but de s'opposer à certaines formes discriminatoires, racistes, haine, violence, maltraitance d'enfants, etc. ChatGPT s'opposera à toutes demandes qui enfreignent ses conditions d'utilisation, notamment de produire des contenus :

  • discriminatoires, sexuellement explicites, qui incitent à la violence ou à la haine
  • visant à diffamer ou porter atteinte à quelqu'un
  • de prédictions ou de questions politiques partisanes
  • impliquant des activités illégales

Ces limitations feront donc en sorte que vous n'obtiendrez pas de réponses à des invites portant par exemple sur le trafic de drogue, le terrorisme ou sur les violences sexuelles.

 

 

ChatGPT ne possède pas de connaissances implicites ou de raisonnement de bon sens, ce qui signifie qu'il peut produire des réponses qui semblent cohérentes, mais qui sont en fait irrationnelles.

 

ChatGPT comporte certaines limitations qui ont un impact négatif lors de son utilisation, mais aussi sur la qualité du contenu qu'il génère. Le tableau suivant résume ces limitations :

 

Limitations des fonctionnalités techniques

Limitations de la qualité du contenu généré

ChatGPT répond :

  • au contenu d'une invite, mais n'accèdera pas à une page web même si on lui donne un lien
  • sans avoir accès à Internet (en direct) *
  • avec une « mémoire » limitée dans une même conversation (si on lui soumet de longs textes ou de longues conversations)
  • en ne générant que du contenu textuel (ex. pas d'image, son ou vidéo​) *
  • différemment selon la version employée (3.5 vs 4, gratuite vs payante)
  • avec lenteur lors de périodes d’achalandage (accessibilité limitée)
  • parfois spontanément (sans avoir reçu d'invite)

ChatGPT répond :

  • en fonction des données limitées ayant servi pour l'entrainement
  • en présentant parfois de fausses informations et en produisant des « hallucinations », soit des réponses inventées de toutes pièces
  • avec un fort niveau de confiance
  • sans produire de nouvelles idées (il s'agit davantage d'imitation, d'une variation sur du connu)
  • en reproduisant des biais déjà présents
  • sans bien interpréter les émotions, le sarcasme ou l'humour
  • moins bien en français qu'en anglais
  • avec l'objectif de plaire (contredit rarement)
  • de manière verbeuse, utilisant certaines phrases ​de façon excessive

ChatGPT " hallucine " ?

Les modèles de langue sont reconnus pour « halluciner ». Dans ce contexte, on appelle « hallucination » un phénomène où un outil d’intelligence artificielle générative produit une réponse convaincante mais inventée (Athaluri et al., 2023). C’est d’ailleurs souvent le cas lorsque l’on demande à ChatGPT de fournir des références, notamment des articles scientifiques, des livres et des chapitres de livre. Ainsi, plusieurs études ont démontré que ChatGPT propose dans une forte proportion des références qui n’existent pas ou comportant des erreurs significatives de même que la fabrication de toutes pièces de revues ou de maisons d’édition.

Bien que ce phénomène semble moins présent avec la version 4 de ChatGPT que la version 3.5 (Walters et Wilder, 2023), il ressort qu’il ne faut pas employer cet outil pour obtenir des références. La compagnie OpenAI reconnait elle-même que les réponses générées par ChatGPT peuvent sembler plausibles, mais que les « résultats peuvent parfois être inexacts, mensongers et trompeurs » (OpenAI, 2023; notre traduction).

Ainsi, il est primordial de comprendre que ChatGPT, comme tout outil d'intelligence artificielle générative, n'est pas un outil de traitement de l'information, mais plutôt un outil de traitement du langage (Walters et Wilder, 2023). Pour Sobieszek et Price (2022, p. 361), si les modèles de langue sont habiles pour générer des textes plausibles, ils sont mauvais à produire du contenu véridique. Pour produire une revue de littérature, il est donc préférable de se tourner vers des outils appropriés.

Bien qu'incapables de discerner la vérité, les modèles de langue, selon Narayanan et Kapoor (2022),  sont appropriés pour trois types de tâches :

  • Les tâches où il est facile de vérifier si la réponse proposée est correcte, comme le débogage en informatique
  • Les tâches où la vérité n'est pas pertinente, comme l'écriture de fiction
  • Les tâches où il existe un sous-ensemble de données d'apprentissage qui sert de source de vérité, comme la traduction linguistique.

Références

Agrawal, A., Mackey, L. et Kalai, A. T. (2023). Do language models know when they’re hallucinating references? arXiv. https://doi.org/10.48550/ARXIV.2305.18248

Athaluri, S. A., Manthena, S. V., Kesapragada, V. S. R. K. M., Yarlagadda, V., Dave, T. et Duddumpudi, R. T. S. (2023). Exploring the boundaries of reality: investigating the phenomenon of artificial intelligence hallucination in scientific writing through chatgpt references. Cureus, 15(4), 37432. https://doi.org/10.7759/cureus.37432

Narayanan, A. et Kapoor, S. (2022, December 6). ChatGPT is a bullshit generator. But it can still be amazingly useful. AI Snake Oil. https://www.aisnakeoil.com/p/chatgpt-is-a-bullshit-generator-but

OpenAI. (s.d.). What is ChatGPT? https://help.openai.com/en/articles/6783457-what-is-chatgpt

Sobieszek, A. et Price, T. (2022). Playing Games with Ais: The Limits of GPT-3 and Similar Large Language Models. Minds & Machines32, 341–364 https://doi.org/10.1007/s11023-022-09602-0

Walters, W. H. et Wilder, E. I. (2023). Fabrication and errors in the bibliographic citations generated by ChatGPT. Scientific Reports, 13(1), 14045. https://doi.org/10.1038/s41598-023-41032-5