Résumé
Les IAs sont de plus en plus impliquées dans les processus de traitement de l’information à partir desquels nous élaborons nos croyances. Dans ces conditions, il est légitime de se demander dans quelles circonstances il est légitime de considérer que de tels processus sont fiables et donc que nous sommes justifiés à entretenir nos croyances – c'est typiquement en clarifiant cette question qu’on peut espérer décrire ce que constitue un usage ou une mise à disposition responsable d’une IA.
Cette question est déjà abondamment étudiée dans le cadre du courant fiabiliste en épistémologie. Un des problèmes principaux rencontrés dans ce contexte est le problème dit de la généralité : pour étudier la fiabilité d’un processus particulier qui produit des croyances, on doit lui assigner un type donné. Par exemple, un processus particulier peut être décrit comme mettant en jeu la vision d’un animal, celle d’un homme, celle d’un homme de 60 ans, celle d’un homme de 60 ans le soir, etc., et il convient donc de se demander quel type doit être choisi pour caractériser la fiabilité du processus. Cette présentation sera consacrée à la discussion de cette question dans le cas où des IAs et, plus généralement, des machines épistémiques comme les simulations numériques, sont utilisées dans un processus.