Comme le rapporte The Atlantic, le nouveau modèle marque une avancée significative par rapport au très connu ChatGPT-4. Alors que ChatGPT-4 s’appuie fortement sur ses capacités prédictives, o1 est conçu pour émuler un raisonnement de type humain, ce qui en fait un outil plus sophistiqué. Ce nouvel outil pourra-t-il être utilisé pour créer des récits?
Les écrivains qui utilisent l’IA pour créer des histoires, des intrigues ou des récits entiers doivent faire face à des accusations de plagiat. Ce problème est dû au fait que les modèles d’IA tels que ChatGPT-4 génèrent du contenu à partir de grandes quantités de matériel préexistant créé par d’autres.
L’IA générative, la technologie qui sous-tend les modèles tels que ChatGPT, apprend en analysant d’énormes volumes de texte. Elle identifie les relations statistiques entre les mots et les phrases et utilise ces modèles pour prédire le mot suivant dans une séquence. En théorie, ce pouvoir de prédiction permet à l’IA de générer un contenu normalement cohérent et contextuellement pertinent.
Toutefois, prédire le mot suivant n’équivaut pas à comprendre le texte. Ces modèles imitent les règles linguistiques sans saisir les phénomènes et les idées sous-jacents. Ce sont des « perroquets stochastiques », comme le dit Emily M. Bender, linguiste informaticienne à l’université de Washington et éminente critique de l’industrie de l’IA. Ils sont capables de générer un langage basé sur des modèles statistiques, mais ne disposent pas d’une véritable compréhension. Aucun chatbot ne peut comprendre entièrement la personne à l’autre bout de la conversation.
Selon des enquêtes menées par The Information, Bloomberg, et TechCrunch, les grandes entreprises d’IA commencent à voir les limites de cette approche prédictive. Le simple fait d’ingérer plus de données n’équivaut pas à une « intelligence » accrue. La capacité du modèle prédictif à s’améliorer diminue même au fur et à mesure que l’on ajoute des données.
Le projet o1 d’OpenAI représente un changement de stratégie. Contrairement à ses prédécesseurs, o1 recherche de nombreuses chaînes de raisonnement. Ce modèle explore différentes hypothèses comme le ferait un humain, à l’instar d’une souris naviguant dans un labyrinthe.
Dans cette analogie, le rongeur apprend le bon chemin vers le morceau de fromage en testant différentes possibilités, dont la plupart sont erronées. Cette méthode « expérimentale » est considérée comme un signe d’intelligence, car elle démontre la capacité à apprendre de ses erreurs et à affiner ses stratégies.
Cependant, la souris n’est pas consciente de son rôle de sujet expérimental. Elle ne comprend pas qu’elle fait partie d’une expérience absurde, sans rapport avec sa réalité propre, menée par une espèce d’êtres vivants qui se disent plus intelligente qu’elle. Ce manque de conscience met en évidence une limitation fondamentale : la souris, tout comme un modèle d’IA, fonctionne sans véritable compréhension de son contexte.
Si o1 peut appliquer des règles grammaticales par le raisonnement, elle n’aborde toujours pas la fonction des mots. Le sens des mots est crucial, et aucune machine ne comprend encore pourquoi ils disent ce qu’ils disent. Il est donc important de ne pas confondre le langage et sa signification, car aucun chatbot ne peut développer une compréhension précise de la personne avec laquelle il interagit.
L’objectif ultime de l’IA est de devenir fonctionnelle en « agissant » sur la base de son raisonnement. Cela nécessite un objectif, que les modèles d’IA s’efforcent encore de définir et de poursuivre efficacement.
Si nous voulons confier à des machines la création de nos récits, nous devons repenser le but de la narration et les motivations de l’agent narrateur. Pourquoi une histoire doit-elle être racontée ? Quel(s) avantage(s) tire son agent narrateur de cette narration ? Sans cette réévaluation, nous risquons de produire un contenu répétitif et vide, dépourvu de la profondeur et de l’« intelligence » qu’exigent les œuvres de création authentique.