L’intelligenza artificiale scrive anche le sentenze, ma la condanna viene annullata. È ora di preoccuparsi?
L’intelligenza artificiale è un mezzo e il risultato che produce dipende dal modo in cui viene impiegato. In tutte queste vicende di uso illecito, poco professionale o poco etico dell’IA, ciò che fa storcere più il naso è proprio l’azione umana. Dopo i compiti in classe e gli articoli di giornale scritti dall’intelligenza artificiale senza neanche un minimo di supervisione, possiamo catapultarci in un romanzo fantascientifico di bassa qualità. Sentenze scritte con l’IA e condanne annullate? Non sono allarmismi, ma il resoconto di un episodio successo veramente in Argentina, dove peraltro l’uso degli strumenti tecnologici nel processo è regolamentato minuziosamente. Inutile dire che il caso è di interesse comune, visto che l’uso dell’IA, soprattutto applicato alla giustizia, è oggetto di attenzione in tutto il mondo.
Annullata la condanna perché il giudice ha usato l’IA
Molti si interrogano sul metodo migliore per capire se un testo è stato scritto dall’intelligenza artificiale. Ciò che interessa è se è stato prodotto interamente dallo strumento e neanche rivisto, altrimenti le speranze di valutare l’elaborato si riducono all’osso. Non è facile comunque riconoscere gli scritti dell’IA, non sempre almeno, e senza dubbio non si possono fare valutazioni certe in questo senso. Fin troppo spesso, però, non serve neanche farsi delle domande. Quanti compiti, temi e articoli sono stati consegnati e pubblicati con il classico commento dei bot?
Professori e lettori hanno visto direttamente “Fammi sapere se posso aiutarti con altro” o similari, senza lasciare spazio al dubbio. Per assurdo che possa sembrare, è proprio ciò che è accaduto in Argentina. La sentenza del tribunale di Esquel (Chubut) è stata emanata con tanto di “Qui hai il punto IV rieditato, senza citazioni e pronto per essere copiato e incollato”. Poco è servito così alla difesa per impugnare la decisione e ottenere alla fine un annullamento della condanna per rapina.
La giustizia farà comunque il suo corso, visto che il caso sarà nuovamente valutato presso un altro giudice, ma intanto le polemiche si sprecano e anche comprensibilmente. In questa vicenda specifica contestare la sentenza scritta dall’IA è stato decisamente semplice, visto che l’uso degli assistenti digitali deve essere dichiarato e controllato senza far venire meno:
- l’etica;
- la supervisione umana;
- la riservatezza dei dati e la privacy;
- la prova dell’intervento dell’IA limitato al supporto e assolutamente senza delegare decisioni e altre funzioni riservate al professionista.
A prescindere dalla normativa argentina, comunque, le decisioni giudiziarie devono avvenire a cura del giudice, a seguito di una valutazione a norma di legge delle prove, nel rispetto della procedura e facendo affidamento sulle competenze e conoscenze del magistrato.
L’uso dell’IA nella giustizia preoccupa
È indubbio che non può essere l’intelligenza artificiale a decidere l’esito di un processo, ma nemmeno a scrivere integralmente la sentenza e così motivare la decisione, facendo altrimenti venire meno il ruolo fondamentale del giudice stesso. Questo però non vuol dire che l’IA non possa servire come strumento e semplificare il lavoro dei professionisti del diritto, non togliendo spazio all’intervento umano ma anzi consentendone la massima espressione.
È comunque una zona grigia, che infatti vede l’Unione europea (e i singoli Stati) al lavoro per definire confini netti, sicuri e rispettosi della legalità traendo al contempo il massimo beneficio dall’IA. Nel frattempo, però, non si può fare a meno di restare perplessi dal tipo di utilizzo che stiamo osservando. Consegnare un testo scritto dall’intelligenza artificiale in questo modo, senza neanche cancellare i commenti, è indice inevitabile di incuria e disinteresse rispetto al lavoro svolto. Errare è umano e di certo un singolo sbaglio non dovrebbe compromettere la carriera, scolastica o professionale, del cittadino.
Allo stesso tempo, però, bisogna osservare i fatti. Lasciare una traccia tanto grossolana dell’IA significa non aver neanche riletto il testo prima di terminare il lavoro e probabilmente non aver nemmeno fornito indicazioni precise oppure, forse ancora peggio, non essersi accorti del fatto. Soprattutto in una sentenza, questo genere di disattenzione è decisamente più grave di quello che potrebbe sembrare, vista la delicatezza della materia, ma lo stesso principio si applica a ogni altro contenuto. Ancora una volta dobbiamo chiederci: è davvero l’intelligenza artificiale il problema o fa solo emergere maggiormente l’errore umano?
© RIPRODUZIONE RISERVATA