Une IA générative de fracture
Et si l’utilisation généralisée des systèmes d’IA générative (siag) dans la société comme à l’université venait accentuer la fracture entre une élite formée, consciente et critique et une majorité indifférente aux sources et à la vérité et potentiellement manipulée ? C’est un des scénarios inquiétant mais probable selon un panel de 40 expertes et experts dans une étude menée à Montpellier recherche management.
30 novembre 2022, le grand public fait la découverte du robot ChatGPT et de ses potentialités mais aussi des controverses qu’il suscite immédiatement. Dès janvier 2023, New-York bannit l’IA générative de tous ses établissements scolaires. À Paris c’est Science-Po qui dégaine le premier et en interdit le recours pour la production d’évaluations écrites ou orales. « Partout cette arrivée fracassante a suscité le même débat : allons-nous pouvoir travailler avec l’IA ou devoir travailler malgré l’IA ? » se souvient Florence Rodhain, chercheuse à MRM1 et co-auteure d’une étude sur les impacts pédagogiques et stratégiques possibles des systèmes d’IA générative (siag) dans l’enseignement supérieur ?
Prompt oracle
Dès avril 2023, 40 expertes et experts francophones en IA, universitaires pour la plupart, acceptent de participer à une grande enquête Delphi. Inspirée de la Pythie de Delphes rendue célèbre par ses oracles, cette méthode vise à favoriser le débat en soumettant à des experts des propositions qu’ils discutent et qui, par itération, les amènent à définir des scé- narios prospectifs possibles. « C’est une méthode développée au départ par l’armée américaine pour envisager la logistique du débarquement en 1944, rappelle Bernard Fallery, chercheur émérite à MRM et lui aussi co-auteur de l’étude. Elle est à la fois souple et précise, avec des jalons posés tout au long du processus. »
Sur la base d’une recherche bibliographique large, les chercheurs ont formulé 20 propositions portant sur l’usage des siag et ses conséquences dans l’enseignement supérieur. Ils les ont ensuite soumises aux membres du panel en leur demandant d’exprimer leur degré d’accord ou de désaccord avec chacune d’elles, puis lors d’un deuxième tour de les classer selon leur niveau d’importance. « Ils avaient la possibilité de commenter ces propositions pour les faire évoluer, ce qui est souvent plus révélateur que les réponses elles-mêmes. En découvrant les réponses des autres après chaque tour, certains ont pu modifier leurs avis pour aller vers un éventuel consensus » explique Florence Rodhain.
Trois petits tours et puis s’en font !
Les 40 experts sont tombés d’accord sur sept propositions, qu’ils ont aussi jugées importantes. Quatre peuvent être résumées par l’idée que les systèmes d’IAG vont définir de nouveaux modes d’apprentissage auxquels il faut former les élèves au plus vite, ce qui nécessite du temps et des budgets. La nécessité de modérer les stéréotypes culturels dans l’entrainement des IA et le fait de ne pas stopper la recherche en IA font également consensus. « Le septième point d’accord est plus inquiétant, alerte Florence Rodhain. Il exprime la peur de voir s’accentuer une fracture entre une élite formée par des sources exigeantes de qualité et une majorité nourrie d’informations plausibles mais totalement indifférentes à la vérité, au mieux une soupe de fadaises, au pire du bullshit ou des deep fakes » souligne celle qui enseigne à Polytech et qui dit également partager cette crainte.
Les experts ont été en désaccord sur six propositions dont trois ont été jugées importantes. La première considère que les capacités de rédaction des siag ne relèvent pas de la créativité. « Là-dessus ils se sont écharpés. Nous voulions faire la distinction entre la création et la créativité mais certains considèrent qu’il n’y a pas de raison » poursuit la chercheuse. Autre point de désaccord, l’obligation de certifier « sans siag » tout travail de recherche ou de médiation scientifique. Ou encore le risque que l’IA provoque une révolution cognitive en dissociant accumulation des connaissances et compréhension des phénomènes. « ChatGPT peut apporter des réponses plausibles et convaincantes sur des sujets de haut niveau, elle peut certes prédire mais sans expliquer ni comprendre. Pour certains, y compris des scientifiques, ce n’est pas un problème, constate Bernard Fallery. Pour ma part, je continue à penser que la science progresse par modélisation et pas par prédiction. »
De l’utopie à la dystopie
À partir de ces accords et désaccords, les chercheurs ont construit trois scénarios et les ont proposés aux experts en leur demandant, cette fois, de les classer comme probables ou improbables, souhaitables ou non souhaitables. Le scénario A, appelé « évolution », a été jugé le plus probable et le plus souhaitable. « C’était le résultat attendu, les experts pensent que des processus de régulation progressive vont se mettre en place et que nous allons intégrer les siag dans nos apprentissages en limitant les risques » détaille Bernard Fallery.
La surprise est venue du scénario C appelé « fracturations et contestations collectives ». « En le rédigeant on s’est dit qu’on avait vraiment “chargé la mule”, et pourtant la majorité des experts le trouve probable » s’étonne Florence Rodhain. Reprenant la peur de la fracture, il anticipe le renforcement des exclusions et des discriminations liées à une appropriation très inégalitaire des siag. « C’est la menace d’une scission entre les étudiants de la France d’en haut qui auront acquis les fondamentaux, sauront se servir de l’IA pour s’augmenter, et tous les autres qu’elle aura privés de cette acquisition des savoirs de base et qui eux seront diminués par l’IA » conclut la chercheuse.
Pour aller plus loin :
- MRM (UM, UPVD)
↩︎