Intelligenza artificiale. Quali regole?
di Giusella
Finocchiaro
Edizioni
Il Mulino, gennaio 2024
pp. 125
€ 12,00
(cartaceo)
€ 8,49
(ebook)
C’è spesso un contrasto fra la percezione che si ha dell’informazione generata da sistemi di IA, come ChatGPT e da altri sistemi di elaborazione del linguaggio naturale, e la qualità stessa. L’informazione fornita o, in molti casi, semplicemente confezionata da questi sistemi appare credibile e verosimile, anche se non sempre vera, e induce ad affidarsi. Essa si presenta come attendibile, ma spesso il disclaimer inserito dal produttore di intelligenza artificiale nega che lo sia. (p. 63)
Negli ultimi anni l’uso di intelligenze artificiali è uscito dal ristretto ambito della mera ricerca e della sperimentazione ed è finalmente approdato fra le masse. A oggi, ChatGPT 3.5 – la versione base, diciamo – è accessibile, creando un account in pochi minuti, praticamente da tutti. Allo stesso tempo Bing Image Creator, la IA di Microsoft, consente di generare immagini digitali particolarmente sofisticate attraverso dei prompt basilari. ChatGPT e Bing Image Creator sono solo due dei prodotti attualmente in commercio: due fra i più famosi, che chiunque può utilizzare all’interno di un libero mercato più ampio che è quello di internet.
È in questo contesto che si inserisce il breve saggio di Giusella Finocchiaro, docente di Diritto
privato e Diritto di internet all’università di Bologna. La tesi principale del
suo saggio è che l’utilizzo delle IA in ambito commerciale e ludico è appena
agli albori eppure già oggi, in questo 2024 iniziato da non molto, c’è
tantissimo di cui discutere, così come diverse sono le prospettive che si
aprono a seconda dell’approccio utilizzato per regolamentare un mercato
altrimenti selvaggio.
Il testo
di Finocchiaro parte da una premessa semplice, che dà il titolo anche al primo
capitolo: la paura del nuovo. Ogni novità porta dei timori ed è innegabile che
le novità negli ultimi anni riguardino soprattutto le nuove tecnologie, dalle
realtà aumentate (si pensi al nuovissimo visore Apple da poco in commercio) a quelle virtuali, dai
nuovi strumenti bellici ai robot che aziende come la Boston Dynamics stanno sviluppando almeno da un ventennio. Il filone fantascientifico, da Asimov in
poi, ha contribuito non poco ad alimentare queste paure, creando immaginari di
robot che acquisiscono autocoscienza e generano conflitti (si pensi a libri e
film come Io, robot ma anche a opere più apocalittiche come la saga di Terminator
o, per restare più in tema con le realtà virtuali, a quella di The Matrix).
Quindi la
premessa di Finocchiaro è lecita: la paura del nuovo esiste da sempre e oggi si
concentra sulle IA. Ciò che di solito si fa quando si hanno queste paure è
regolamentare, ossia mettere paletti, restringere il campo d’azione. Ma in un
mercato ultraliberale come quello in cui viviamo oggi, con aziende
multinazionali che sempre di più sfuggono al controllo non solo degli Stati
nazionali ma anche delle strutture sovranazionali come l’Unione Europea, la
questione non è semplice. Proprio l’UE, sottolinea Finocchiaro, è la promotrice
di una regolamentazione piuttosto rigida, che confligge con gli obiettivi di
determinate aziende o, a maggior ragione, con le loro mission. Il mercato
cinese e quello americano – che sono gli altri due principali attori contemporanei –
hanno invece un approccio più liberale o, comunque, tendente a incontrare i desiderata
delle potenze in gioco.
Ma quali sono nello specifico le paure di cui si parla? Finocchiaro non si dilunga molto, considerando che questo saggio nasce per essere una sorta di premessa, di vademecum, per una questione più ampia. Si concentra, in merito alle IA, soprattutto su tre aspetti principali.
In primo luogo, il rapporto fra i dati di cui si le IA
necessariamente si nutrono e la privacy, che, soprattutto negli ultimi anni –
anche a causa dell’uso commerciale dei dati personali che alcune aziende hanno fatto – è diventata
una sorta di santuario intoccabile del singolo cittadino, forse l’ultimo
baluardo di resistenza dell’identità individuale in rete.
In
secondo luogo, la vita e il cammino delle opere create con l’intelligenza
artificiale, con tutti i problemi legati non solo al copyright delle opere
stesse ma soprattutto ai diritti legati alle opere utilizzate dalle IA
per la creazione. Perché ci si può girare intorno quanto si vuole, ma di fatto,
a oggi, le IA producono output attraverso input: immessi dei prompt più
o meno complessi, le IA indagano un immenso bacino di dati a disposizione e da
lì, mescolando, ricombinando, alterando, compongono qualcosa. Ma quei dati sono
molto spesso creati da altri individui: sono opere d’arte, prodotti,
informazioni che qualcuno ha creato, e da qui nasce il problema. Come tutelare al
contempo chi utilizza le IA per produrre opere e chi ha prodotto le opere
utilizzate dalle IA?
Infine, last but not least, la questione della responsabilità. Come si legge nella citazione scelta all’inizio
dell’articolo, gli output delle IA – che, si è detto, attingono da altri dati –
sono verosimili ma non sempre veritieri. Si pensi ai deepfake che
spesso, per motivi ludici, invadono i social, ossia immagini in cui il volto di
una persona famosa è “incollato” altrove, in modi sempre più realistici, al
punto da rendere credibile il montaggio. Ma si pensi anche ai casi citati da
Finocchiaro, in cui le IA hanno prodotto dossier utilizzati nei tribunali che
si sono scoperti perlopiù inventati ma contenenti fatti e riferimenti a
persone reali. Di chi è la responsabilità in questo caso? Di chi ha utilizzato
la IA per produrre il dato o di chi ha impostato l’algoritmo in un certo modo?
Il breve saggio di Giusella Finocchiaro pone le basi per un’indagine interessante e talmente attuale da essere in fieri e dunque di necessità incompleta. È solo l’inizio, ci dice l’autrice, e dunque è necessario sondare il terreno con la giusta distanza, senza essere travolti dal nuovo ma anche senza esserne spaventati.
David Valentini
Social Network