Cet article s'appuie sur des travaux récents en théorie narrative et en philosophie de la technologie en examinant la place de la transparence et de la responsabilité dans les discussions sur l'IA, et quelles pourraient en être les implications pour une réflexion éthique sur l'IA et en particulier sur les pratiques de l'IA, c'est-à-dire les activités sociales structurées impliquant et définissant ce qu'est l'IA. Dans cet article, nous visons à montrer comment la poursuite d'une compréhension narrative de la technologie et de l'IA peut soutenir la connaissance des processus et des pratiques par la transparence, ainsi que nous aider à nous responsabiliser à travers des visions de possibilités et de préjudices réels découlant des pratiques d'IA. Nous fournissons des réflexions sur les relations entre récit, transparence et responsabilité, en construisant un argument selon lequel les récits (sur l'IA, les pratiques et les personnes impliquées dans sa conception, sa mise en œuvre et son déploiement) soutiennent le type de connaissance et de compréhension qui est le but de la transparence, et, en outre, que ces connaissances soutiennent la responsabilité d'informer les agents et d'activer la responsabilité en créant des connaissances sur quelque chose qui peut et doit être répondu. En outre, nous plaidons en faveur d’une expansion des types de pratiques que nous pourrions légitimement considérer comme des «pratiques d’IA» compte tenu de l’ensemble diversifié d’activités (souvent matériellement intégrées) qui soutiennent et sont soutenues par l’IA, qui sont directement liées à son acceptabilité éthique et qui sont rendues transparentes dans le mode narratif. Enfin, nous plaidons pour une expansion des récits et des sources narratives à prendre en compte dans les questions d'IA, en comprenant que la transparence est multiforme et se trouve dans des histoires de sources et de personnes diverses. Contenu similaire vu par d'autres
Auteurs
Paul Hayes et Noel Fitzpatrick
Année
2024
Télécharger
s00146-024-01881-8.pdf