Quels sont les risques liés à l'utilisation de l'IA dans la formation ?

Il s’appelait “Thomas”. Formateur passionné, ingénieur pédagogique, il avait toujours juré qu’aucun outil ne remplacerait jamais sa salle de formation ni son travail. Puis un jour, il a découvert l’intelligence artificielle. Elle lui proposait des scénarios pédagogiques en un clin d’œil, rédigeait des évaluations plus vite qu’il n’aurait pu le faire en une journée, suggérait des outils performants pour atteindre ses objectifs pédagogiques et optimiser la gestion de ses projets de formation à distance…

Très vite, Thomas n’a plus su s’en passer ! Comme beaucoup de professionnels de la formation aujourd’hui, il a intégré l’IA dans sa pratique quotidienne. Car oui, dans l’univers de la formation professionnelle, l’intelligence artificielle est puissante ; mais sans évaluation des risques, sans cadre juridique clair et sans bonne pratique de sécurité, elle peut aussi devenir une dépendance dangereuse pour l’entreprise et les apprenants.

Je le vois chaque jour dans mon métier d’expert learning chez Flowbow : nous sommes nombreux à sous-estimer les risques liés à l’utilisation de l’IA dans les formations. Le premier risque, c’est justement cette dépendance. Comme pour nos téléphones portables, notre cerveau s’habitue très vite à la facilité. L’IA rédige, structure, conçoit, évalue et propose des systèmes complets et finit par faire à notre place ce qui devrait rester un acte humain : penser une formation réfléchie, adaptée à un public réel, avec ses besoins, ses risques / contraintes, ses niveaux de connaissances et ses objectifs. Cette dépendance réduit notre capacité d’analyse, affaiblit nos pratiques, notre expertise, nos connaissances et entraîne une perte de créativité.

Un autre risque majeur concerne les données. Derrière l’apparente neutralité de l’intelligence artificielle se cache un appétit insatiable pour les données personnelles (exemple récent : WeTransfer, juillet 2024). Leur utilisation soulève des questions de droit fondamentales, notamment sur la mise en conformité avec le RGPD et sur la gestion des informations sensibles. Une entreprise qui intègre l’IA dans ses formations sans anticiper ce risque s’expose à des conséquences juridiques. De plus, les données utilisées pour entraîner les modèles ne sont pas toujours fiables, récentes ou représentatives. Elles peuvent contenir des biais qui se répercutent directement dans les contenus de votre formation, faussant ainsi vos contenus ou vos approches pédagogiques.

Il y a aussi des risques d’erreurs ou de désinformation. L’intelligence artificielle générative est capable de produire des contenus convaincants, structurés, parfois même brillants… mais aussi complètement faux. 🤣 

Dans le cadre d’une formation, une seule information erronée peut compromettre tout un projet pédagogique, créer des malentendus, etc. La tentation de copier-coller sans vérifier est grande ! Pourtant, la responsabilité de l’entreprise reste engagée : fournir une formation contenant des erreurs peut compromettre les compétences attendues et détourner complètement les objectifs fixés. Je me pose la question : quel est le rôle de l’expert si l’IA peut “réfléchir” pour lui ? 

Et puis, il ne faut pas oublier le risque humain. L’IA, si elle est mal utilisée, peut déshumaniser l’expérience d’apprentissage. L’évaluation devient mécanique, les interactions se réduisent à des modèles et la relation pédagogique, qui repose sur l’observation, l’adaptation et l’écoute, disparaît quasiment… L’apprenant se retrouve face à un outil impersonnel et incapable de gérer les nuances, les émotions ou les imprévus (exemple : un chatbot ou un agent mal configuré).

Pour autant, percevoir l’IA comme une menace serait une erreur. Son intégration dans la formation ouvre des perspectives. Elle permet d’anticiper les besoins, de personnaliser les parcours, de gérer plus efficacement les projets, d’offrir des outils aux formateurs et de soutenir le développement des compétences à grande échelle et j’en passe. L’important, c’est de construire un cadre clair, de garder la main sur la conception, de vérifier les données, d’exercer son esprit critique et de se rappeler que l’IA doit rester un moyen, jamais une fin.

Bref, l’intelligence artificielle en formation, c'est un peu comme une épice : bien dosée, elle révèle toutes les saveurs de l’apprentissage. Utilisée sans mesure, elle en masque le goût (c’est mon côté fan de cuisine qui parle). L’avenir de la formation dépendra donc moins de la technologie elle-même que de notre capacité à en faire un usage conscient et profondément humain.

Articles similaires