Questo documento si basa sul recente lavoro nella teoria narrativa e nella filosofia della tecnologia esaminando il posto della trasparenza e della responsabilità nelle discussioni sull'IA e quali potrebbero essere alcune delle implicazioni di questo per pensare eticamente all'IA e in particolare alle pratiche di IA, cioè alle attività sociali strutturate che implicano e definiscono cosa sia l'IA. In questo articolo, miriamo a mostrare come perseguire una comprensione narrativa della tecnologia e dell'intelligenza artificiale possa supportare la conoscenza dei processi e delle pratiche attraverso la trasparenza, oltre ad aiutarci a richiamarci alla responsabilità attraverso visioni di possibilità e di danni effettivi derivanti dalle pratiche di intelligenza artificiale. Forniamo riflessioni sulle relazioni tra narrazione, trasparenza e responsabilità, costruendo un argomento che le narrazioni (sull'IA, le pratiche e le persone coinvolte nella sua progettazione, implementazione e distribuzione) supportano il tipo di conoscenza e comprensione che è l'obiettivo della trasparenza e, inoltre, che tale conoscenza supporta la responsabilità nell'informare gli agenti e attivare la responsabilità attraverso la creazione di conoscenza su qualcosa a cui può e dovrebbe essere risposto. Sosteniamo inoltre di prendere in considerazione un'espansione dei tipi di pratiche che potremmo legittimamente considerare "pratiche di IA", dato il diverso insieme di attività (spesso materialmente incorporate) che sostengono e sono sostenute dall'IA che si collegano direttamente alla sua accettabilità etica e che sono rese trasparenti nella modalità narrativa. Infine, sosteniamo un'espansione delle narrazioni e delle fonti narrative da considerare nelle questioni dell'IA, comprendendo che la trasparenza è sfaccettata e si trova nelle storie di diverse fonti e persone. Contenuti simili visualizzati da altri
Autori
Scritto da Paul Hayes, Noel Fitzpatrick
Anno
2024
Scarica
Scheda tecnica s00146-024-01881-8.pdf