Logo de l'EUT
Sur l'exactitude du Big Data: La Bêtise et l'Intelligence Artificielle

Cet article revisite la question de la bêtise à l'ère de l'Intelligence Artificielle portée par le Big Data, il s'étend sur les questions posées par Gille Deleuze et plus récemment par Bernard Stiegler. Cependant, le cadre pour revisiter la question de la bêtise sera à travers le prisme de l'informatique contemporaine, en particulier le développement de la science des données comme mode d'analyse, parfois mal interprété comme mode d'intelligence. En particulier, cet article fera valoir qu'avec l'avènement de formes de battage médiatique (parfois appelé le cycle de battage médiatique) en relation avec les mégadonnées et les modalités d'analyse de données, il existe une forme de stupidité informatique ou de stupidité fonctionnelle au travail. Les promesses exagérées du big data pour tout résoudre sont des attentes exagérées qui mèneront finalement à une forme de désillusion avec la science des données. Cela peut être vu dans un certain nombre de domaines, par exemple les technologies des villes intelligentes, l'Internet des objets et la traduction automatique. Outre les effets négatifs des affirmations exagérées du Big Data, il est possible que les normes sociétales facilitent le changement technologique du Big Data en incorporant la bêtise du Big Data, conduisant ainsi à un changement de notre relation à la technologie, par exemple les normes de confidentialité et la propriété des données. Ce document conclura en exposant l'analyse de certaines des limites de l'intelligence artificielle et du Big Data afin de permettre un réexamen des allégations formulées.

Auteurs

Noel Fitzpatrick et John D. Kelleher

Télécharger

On-the-Exactitude-of-Big-Data_-La-Betise-and-Artificial-Intellige-1.pdf


Logo de l'EUT