Il rischio di creare immagini con IA: il caso Amnesty International

Giorgia Bonamoneta

5 Maggio 2023 - 23:29

condividi

Usare l’intelligenza artificiale per creare immagini può essere pericoloso? Il caso di Amnesty International mette al centro del tema non solo il lavoro, ma anche la privacy e la sicurezza.

Il rischio di creare immagini con IA: il caso Amnesty International

Cosa succede se si creano immagini con l’intelligenza artificiale? Forse il vero dubbio non è tanto se rubano il lavoro o meno agli artisti o ai fotografi, ma se le immagini create dall’intelligenza artificiale siano in grado di rappresentare in maniera fedele la realtà e quindi di falsificare o creare una narrazione di parte. Il loro utilizzo potrebbe però essere anche pensato in maniera differente, per esempio per creare delle immagini di un evento che non è stato fotografato e così fornire attraverso l’immagine artificiale un aspetto che è emerso attraverso il racconto di testimoni oculari.

A far sorgere i dubbi è stato il caso di Amnesty International. L’organizzazione per la difesa dei diritti umani ha usato delle immagini create dall’intelligenza artificiale per raccontare sui social la brutalità della repressione della polizia colombiana durante le proteste nazionali nel 2021. In quell’occasione polizia ed esercito, schierati contro i manifestanti, avevano praticato forme di violenza e abusi sulle donne che manifestavano. Sono molte le immagini che documentano le proteste e tra queste è emersa una foto di una donna trascinata via dalla polizia

A un primo sguardo la foto (fig.1) sembra realistica, soprattutto se vista da lontano, ma ben presto iniziano a sorgere dubbi sulla sua veridicità. Troppi segnali fanno dubitare che sia vera. L’utilizzo di un’immagine creata da un’IA di per sé non dovrebbe intaccare il lavoro di Amnesty International, che da anni documenta casi di violenza e abusi dei diritti umani in tutto il mondo. Dall’altra parte però c’è chi fa notare che mettere in dubbio anche una sola immagine, in una realtà in costante pericolo di false informazioni e bassa credibilità dei media, non è una mossa intelligente.

Si corrono rischi ad utilizzare immagini create dall’intelligenza artificiale? Probabilmente sì, ma la risposta di Amnesty International pone al centro un altro tema: il diritto alla privacy e alla sicurezza dei manifestanti.

Caso Amnesty International: le immagine finte delle proteste in Colombia

Amnesty International è finita al centro delle polemiche per aver pubblicato delle immagini create con l’intelligenza artificiale che ritraevano la repressione violenta della polizia ai danni dei manifestanti in Colombia nel 2021. Le immagini appaiono a una prima occhiata realistiche, ma più si osservano e più si notano dettagli bizzarri, come il volto molto levigato delle due guardie, la ragazza che non presenta l’arcata superiore dei denti e in generale la qualità dell’immagine piuttosto scarsa.

L’aspetto meno realistico resta però la bandiera della Colombia che appare con i colori ufficiali in una disposizione sbagliata. Infatti la bandiera colombiana presenta tre colori orizzontali: la banda gialla occupa la metà superiore della bandiera, mentre la parte inferiore è divisa dal colore blu e rosso.

Fig.1 Fig.1 Immagine creata con IA

Nell’immagine creata dall’intelligenza artificiale, tra gli altri dettagli poco chiari e che rendono evidente l’utilizzo di una IA per la creazione dell’immagine, l’ordine è invece differente: ci sono il rosso, il giallo e il blu nella stessa proporzione.

Perché Amnesty International ha usato immagini create da un’IA?

L’utilizzo di immagini create da un’intelligenza artificiale rischia non soltanto di creare uno scandalo, ma di falsificare la realtà. Diversi esperti del settore hanno criticato la scelta dell’organizzazione ponendo al centro del tema quello del rischio di perdere la credibilità o di permette l’utilizzo di simili immagini per cambiare la verità a seconda della necessità politica e ideologica.

Amnesty International però racconta una versione diversa dell’utilizzo dell’intelligenza artificiale. Infatti durante le manifestazioni del 2021 in Colombia sono stati uccisi dalle forze dello Stato almeno 38 civili, a questi numeri si aggiungono le sparizioni delle donne rapite e quelle che hanno subito violenza. Amnesty International ha quindi giustificato l’utilizzo delle immagini create dall’intelligenza artificiale per salvaguardare la privacy e la sicurezza dei manifestanti.

Infatti, come documentato dall’ONU, la Colombia ha continuato a perseguire i manifestanti dopo la fine delle proteste e più di 100 persone sono finite in carcere con condanne di “terrorismo”. Nascondere l’identità dei manifestanti è quindi apparsa la strada migliore per Amnesty International e non un insulto verso i “veri fotoreporter”. Perché alla fine obiettivo del fotoreporter è informare, ma se quella foto causa danni a chi è ritratto si crea un dilemma etico di grandi proporzioni.

Per questo motivo Amnesty International ha comunque rimosso le immagini create dall’intelligenza artificiale, con la motivazione che non vuole che tali immagini distraggono dal messaggio che è quello di sostenere le vittime dell’ingiustizia avvenuta in Colombia.

Iscriviti a Money.it