Les limites de ChatGPT en formation (2/3)
IA = Intelligence artificielle
- Fiabilité des réponses
- Plagiat et triche
- Droit d'auteur
- Les outils de vérification
- Autres limites
Passée la phase de découverte et après avoir soumis l’outil à diverses demandes pouvant aider le formateur ou l’apprenant dans son apprentissage se pose la question des limites d’un tel outil en formation.
Les expériences menées ces dernières semaines par les enseignants dans des domaines variés montrent qu’il est essentiel de garder l’esprit critique pour ne pas se laisser séduire par les réponses très formatées et erronées qu’il peut proposer.
Fiabilité des réponses
- Beaucoup d’erreurs
Il ne faut pas oublier que ChatGPT n’a pas de capacité de raisonnement, l’outil donne des réponses par rapport à des contenus qui lui ont été soumis, ce qui donne de nombreuses erreurs dans les réponses sur des problèmes mathématiques ou scientifiques notamment.
Il faut donc être vigilant à la lecture des réponses et s’interroger sur leur fiabilité car elles sont toujours rédigées de manière très convaincante sans pour autant avoir de fondement précis ni vérifié.
Dans cette vidéo, Abdeslam Aannaque, enseignant à l’école d’ingénieurs de Mohammadia au Maroc, démontre les limites de l’outil lors d’un test sur la rédaction d’un programme informatique.
- Une base de connaissances limitée dans le temps
Une autre limite de ChatGPT concerne sa base de connaissances. ChatGPT n’est pas relié à internet et ne peut pas actualiser ses réponses. Il se base uniquement sur une base de connaissances qui s’arrête en 2021 sur laquelle il a été entraîné pour répondre aux questions.
Plagiat et triche
- Premiers cas de triche
Il n’a pas fallu beaucoup de temps pour que les suspicions de triche fassent leur apparition dans les devoirs rendus par les étudiants. L’article ci-dessous reprend le cas de cet enseignant qui donne un devoir à réaliser à la maison sur le handicap et récupère des copies très ressemblantes sans pour autant être du copier-coller.
Lien : https://www.frandroid.com/culture-tech/intelligence-artificielle/1585548_chatgpt-sert-deja-a-tricher-un-premier-cas-detecte-en-france - Comment lutter ?
La mise en place d’un filigrane invisible sur les textes rédigés via Chat GPT est la solution proposée par OPEN AI pour contrer les problèmes de plagiat et permettre la reconnaissance des textes écrits par l’outil d’intelligence artificielle et de lutter contre les cas de cyber-malveillance.
Lien : https://www.journaldugeek.com/2023/01/09/open-ai-a-eu-une-idee-de-genie-pour-identifier-les-textes-ecrits-par-chatgpt/
Et le droit d’auteur ?
Une réponse de la professeur de droit Alexandra Bensamoun sur le site du journal Libération dans l’article “Intelligence artificielle : Le droit d’auteur protège une création précise, mais pas une manière de créer”.
Lien : https://www.liberation.fr/culture/intelligence-artificielle-le-droit-dauteur-protege-une-creation-precise-mais-pas-une-maniere-de-creer-20221231_W6AOOKULC5HMHDEUCRL76HEY4A/
Betty Jeulin, avocate, sur le site Village-justice.com nous donne un guide pratique sur les questions du droit d’auteur pour des productions artistiques créées via l’intelligence artificielle avec des réponses sur la paternité d’une œuvre générée par une intelligence artificielle, la copie ou sa réutilisation, son utilisation dans un cadre commercial.
Lien : https://www.village-justice.com/articles/prompt-art-intelligence-artificielle-droit-auteur-guide-pratique,43649.html
les outils pour vérifier
Ces outils peuvent permettre de détecter si les textes sont issus d’une intelligence artificielle :
-
Detect GPT : extension Chrome
-
GPTZero : outil récemment développé par un étudiant, Edward Tian.
Autres limites
- ChatGPT n’est pas en conformité avec le RGPD : les informations personnelles peuvent être réutilisées et stockées sur des serveurs aux États-Unis. https://openai.com/privacy/
- L’impact environnemental de l’utilisation des serveurs pour faire fonctionner ChatGPT
- Son usage à des fins de la cybercriminalité et cyber-malveillance
- Son usage pour favoriser la propagation de fausses informations
lire aussi 2023, l'année de l'IA en formation? (1/3)