Amphithéâtre Maurice Halbwachs, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

Les productions, notamment linguistiques, de certaines intelligences artificielles se rapprochent de plus en plus des productions humaines. Dans ce contexte, il semble souvent pertinent d’attribuer des états intentionnels à ces programmes. Néanmoins, une telle attribution d'intentionnalité soulève des difficultés pour les IA connexionnistes. S’il est en effet facile d’identifier les représentations servant de véhicules aux processus computationnels des IA classiques, cette tâche est bien plus ardue pour les réseaux de neurones : on considère en effet que l’information est représentée par ces programmes comme des patterns d’activations, d’une manière distribuée et non de façon locale.  Dans notre présentation, nous discuterons deux questions principales : d’une part la façon dont les véhicules représentationnels peuvent être identités dans les réseaux de neurones ; et d’autre part, le type de contenu informationnel qu’on peut attribuer à ces véhicules. Cela nous conduira à aborder le débat récent sur les états intentionnels putatifs des « Large language Models ».

Intervenant(s)

Pascal Ludwig

Paris Sorbonne Université

Hélie Bazin

Paris Sorbonne Université