"Training Humans" Osservatorio Fondazione Prada. Photo Marco Cappelletti
Kate Crawford e Trevor Paglen all'Osservatorio Fondazione Prada
È la prima grande mostra fotografica dedicata a immagini di training: repertori di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo.
Training Humans, visibile dal 12 settembre al 24 febbraio, concepita da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Paglen, artista e ricercatore, è la prima grande mostra fotografica dedicata a immagini di training: repertori di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo.
In questa mostra Crawford e Paglen esplorano l’evoluzione delle collezioni di immagini di training dagli anni Sessanta a oggi. Come afferma Trevor Paglen, “quando abbiamo iniziato a elaborare l’idea della mostra, oltre due anni fa, volevamo raccontare la storia delle immagini utilizzate per il ‘riconoscimento’ di esseri umani nel settore della computer vision e dei sistemi di intelligenza artificiale. Non ci interessavano né la versione inflazionata dell’IA applicata al marketing né le favole distopiche sui robot del futuro”. Kate Crawford aggiunge, “volevamo trattare direttamente le immagini che formano i sistemi di intelligenza artificiale e prenderle sul serio come parte di una cultura in rapida evoluzione. Questi materiali visivi rappresentano la nuova fotografia vernacolare che guida la visione artificiale. Per verificare il loro funzionamento, abbiamo analizzato centinaia di set di immagini di training per capire i processi interni di questi ‘motori del vedere’”.
In particolare Training Humans esplora due tematiche chiave: la rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali. Quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti. Nella computer vision e nei sistemi di IA i criteri di misurazione si trasformano facilmente, ma in modo nascosto, in strumenti di giudizio morale.
Un altro centro d’interesse per Crawford e Paglen sono i sistemi di classificazione basati sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman, secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità come possibili nuovi assunti o la loro tendenza a commettere atti criminali. Esaminando le immagini di questa raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici? Come sottolinea Crawford, ‘’un’asimmetria di potere è propria di questi strumenti. La nostra speranza è che Training Humans segni il punto di partenza per iniziare a ripensare questi sistemi e per comprendere in modo scientifico come ci vedono e ci classificano”.
La mostra sarà accompagnata da una pubblicazione illustrata della serie Quaderni, pubblicata da Fondazione Prada, che include una conversazione tra Kate Crawford e Trevor Paglen sui complessi temi affrontati nel loro progetto.