Le nuove sfide: «Intelligenza artificiale. Quali regole?» di Giusella Finocchiaro


Intelligenza artificiale. Quali regole?
di Giusella Finocchiaro
Edizioni Il Mulino, gennaio 2024

pp. 125
€ 12,00 (cartaceo)
€ 8,49 (ebook) 

Vedi il libro su Amazon

C’è spesso un contrasto fra la percezione che si ha dell’informazione generata da sistemi di IA, come ChatGPT e da altri sistemi di elaborazione del linguaggio naturale, e la qualità stessa. L’informazione fornita o, in molti casi, semplicemente confezionata da questi sistemi appare credibile e verosimile, anche se non sempre vera, e induce ad affidarsi. Essa si presenta come attendibile, ma spesso il disclaimer inserito dal produttore di intelligenza artificiale nega che lo sia. (p. 63)

Negli ultimi anni l’uso di intelligenze artificiali è uscito dal ristretto ambito della mera ricerca e della sperimentazione ed è finalmente approdato fra le masse. A oggi, ChatGPT 3.5 – la versione base, diciamo – è accessibile, creando un account in pochi minuti, praticamente da tutti. Allo stesso tempo Bing Image Creator, la IA di Microsoft, consente di generare immagini digitali particolarmente sofisticate attraverso dei prompt basilari. ChatGPT e Bing Image Creator sono solo due dei prodotti attualmente in commercio: due fra i più famosi, che chiunque può utilizzare all’interno di un libero mercato più ampio che è quello di internet.

È in questo contesto che si inserisce il breve saggio di Giusella Finocchiaro, docente di Diritto privato e Diritto di internet all’università di Bologna. La tesi principale del suo saggio è che l’utilizzo delle IA in ambito commerciale e ludico è appena agli albori eppure già oggi, in questo 2024 iniziato da non molto, c’è tantissimo di cui discutere, così come diverse sono le prospettive che si aprono a seconda dell’approccio utilizzato per regolamentare un mercato altrimenti selvaggio.

Il testo di Finocchiaro parte da una premessa semplice, che dà il titolo anche al primo capitolo: la paura del nuovo. Ogni novità porta dei timori ed è innegabile che le novità negli ultimi anni riguardino soprattutto le nuove tecnologie, dalle realtà aumentate (si pensi al nuovissimo visore Apple da poco in commercio) a quelle virtuali, dai nuovi strumenti bellici ai robot che aziende come la Boston Dynamics stanno sviluppando almeno da un ventennio. Il filone fantascientifico, da Asimov in poi, ha contribuito non poco ad alimentare queste paure, creando immaginari di robot che acquisiscono autocoscienza e generano conflitti (si pensi a libri e film come Io, robot ma anche a opere più apocalittiche come la saga di Terminator o, per restare più in tema con le realtà virtuali, a quella di The Matrix).

Quindi la premessa di Finocchiaro è lecita: la paura del nuovo esiste da sempre e oggi si concentra sulle IA. Ciò che di solito si fa quando si hanno queste paure è regolamentare, ossia mettere paletti, restringere il campo d’azione. Ma in un mercato ultraliberale come quello in cui viviamo oggi, con aziende multinazionali che sempre di più sfuggono al controllo non solo degli Stati nazionali ma anche delle strutture sovranazionali come l’Unione Europea, la questione non è semplice. Proprio l’UE, sottolinea Finocchiaro, è la promotrice di una regolamentazione piuttosto rigida, che confligge con gli obiettivi di determinate aziende o, a maggior ragione, con le loro mission. Il mercato cinese e quello americano – che sono gli altri due principali attori contemporanei – hanno invece un approccio più liberale o, comunque, tendente a incontrare i desiderata delle potenze in gioco.

Ma quali sono nello specifico le paure di cui si parla? Finocchiaro non si dilunga molto, considerando che questo saggio nasce per essere una sorta di premessa, di vademecum, per una questione più ampia. Si concentra, in merito alle IA, soprattutto su tre aspetti principali.

In primo luogo, il rapporto fra i dati di cui si le IA necessariamente si nutrono e la privacy, che, soprattutto negli ultimi anni – anche a causa dell’uso commerciale dei dati personali che alcune aziende hanno fatto – è diventata una sorta di santuario intoccabile del singolo cittadino, forse l’ultimo baluardo di resistenza dell’identità individuale in rete.

In secondo luogo, la vita e il cammino delle opere create con l’intelligenza artificiale, con tutti i problemi legati non solo al copyright delle opere stesse ma soprattutto ai diritti legati alle opere utilizzate dalle IA per la creazione. Perché ci si può girare intorno quanto si vuole, ma di fatto, a oggi, le IA producono output attraverso input: immessi dei prompt più o meno complessi, le IA indagano un immenso bacino di dati a disposizione e da lì, mescolando, ricombinando, alterando, compongono qualcosa. Ma quei dati sono molto spesso creati da altri individui: sono opere d’arte, prodotti, informazioni che qualcuno ha creato, e da qui nasce il problema. Come tutelare al contempo chi utilizza le IA per produrre opere e chi ha prodotto le opere utilizzate dalle IA?

Infine, last but not least, la questione della responsabilità. Come si legge nella citazione scelta all’inizio dell’articolo, gli output delle IA – che, si è detto, attingono da altri dati – sono verosimili ma non sempre veritieri. Si pensi ai deepfake che spesso, per motivi ludici, invadono i social, ossia immagini in cui il volto di una persona famosa è “incollato” altrove, in modi sempre più realistici, al punto da rendere credibile il montaggio. Ma si pensi anche ai casi citati da Finocchiaro, in cui le IA hanno prodotto dossier utilizzati nei tribunali che si sono scoperti perlopiù inventati ma contenenti fatti e riferimenti a persone reali. Di chi è la responsabilità in questo caso? Di chi ha utilizzato la IA per produrre il dato o di chi ha impostato l’algoritmo in un certo modo?

Il breve saggio di Giusella Finocchiaro pone le basi per un’indagine interessante e talmente attuale da essere in fieri e dunque di necessità incompleta. È solo l’inizio, ci dice l’autrice, e dunque è necessario sondare il terreno con la giusta distanza, senza essere travolti dal nuovo ma anche senza esserne spaventati.

David Valentini