Amphithéâtre Maurice Halbwachs, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

Les derniers progrès en date de l’IA générative reposent sur une technique appelée « Chain of Thought » (CoT), qui consiste à faire en sorte que la machine « réfléchisse » avant  de répondre. Il s’agit initialement d’une stratégie utilisée dans les requêtes adressées aux Large Language Models (LLM) classiques, stratégie consistant à demander dans la requête le raisonnement conduisant au résultat avant le résultat lui-même, plutôt que directement et uniquement le résultat (Wei 2023). Cette façon de faire a ensuite été internalisée, avec des LLMs intégrant nativement le CoT tels que les modèles o1 ou o3 d’openAI ou r1 de DeepSeek.

Le CoT représente une avancée technologique importante, avec une amélioration significative des performances pour les tâches complexes. Au-delà, je voudrais interroger dans cet exposé la signification de cette technologie pour les débats philosophiques concernant la nature des compétences des modèles d’IA générative, débats qui opposent ceux qui pensent que ces modèles possèdent en propre des compétences cognitives et ceux qui considèrent qu’ils ne font que simuler de telles compétences. Plus précisément, je soutiendrai que ces débats doivent être tranchés sur la base d’une analyse fonctionnelle des LLMs et que l’analyse fonctionnelle des LLMs intégrant nativement le CoT donne de nouveaux arguments contre la thèse simulationniste.

Intervenant(s)

Denis Bonnay

Université Paris Nanterre