Chat Gpt, Curioni: “Una rivoluzione, se sai di che cosa stai parlando”

A una settimana dallo stop da parte del Garante per la Protezione dei Dati Personali italiano a ChatGPT, il punto su prospettive e uso dello strumento di intelligenza artificiale, con l'esperto di cyber security Alessandro Curioni

“La scelta era, da un certo punto di vista, inevitabile, per almeno due ragioni. La prima, è che la nostra Autorità Garante è probabilmente la più solerte d'Europa e anche la più attenta a questi eventi. Non a caso, adesso, tutti gli altri Garanti europei stanno esaminando la situazione. La seconda, è che effettivamente c'erano delle lacune, sicuramente formali, da parte di ChatGPT. C'è stato un incontro tra ChatGPT e l'Autorità Garante. Siamo alle prime fasi, poi penso che, inevitabilmente, in qualche modo, la risolveranno e torneremo ad avere accesso a ChatGPT, che peraltro è già stata integrata nel motore di ricerca di Microsoft, che ovviamente, essendo un po' più avvezza ai costumi europei, non ha commesso gli stessi errori che ha commesso Open AI”.

Poi una analisi dello strumento, dal punto di vista dell'uso che se ne fa, tra potenzialità e rischi:

“Probabilmente, se tiene dei ritmi evolutivi come quelli che ho osservato io nel periodo in cui l'usata, è facile che rappresenti una rivoluzione nel mondo della gestione dell'informazione, della gestione della conoscenza. E' altrettanto vero che, se sai di cosa stai parlando, è un ottimo assistente; se non sai di cosa stai parlando, ovviamente prendi delle topiche gigantesche. E quindi tu non te ne accorgi semplicemente perché non conosci l'argomento. Diciamo che è da curare particolarmente, soprattutto nel momento in cui finisce nelle mani di giovani o molto giovani. Dall'altra parte, c'è una parte inquietante, un lato oscuro, per due ragioni. La prima, è perché è in grado di produrre, per esempio, malware informatici (anche se ha dei blocchi etici, ma che possono essere aggirati). La seconda, è proprio la possibilità di aggirarla, di manipolarla: l'Intelligenza Artificiale in fase di addestramento è come un bambino: può essere manipolato e convinto a fare cose - come peraltro è già successo nello scorso dicembre - può essere costretto a fare cose non propriamente etiche e morali. Insomma, è una discreta rivoluzione, rispetto alla quale dovremo prepararci a cambiamenti radicali. Io penso al diritto d'autore, alla possibilità che ha ChatGPT, una volta appreso lo stile di scrittura o lo stile di disegno di un artista … Potrebbe riprodurre tranquillamente le sue opere e questo con tutti i problemi del caso. Sorgerebbe immediatamente un problema di proprietà: nel momento in cui ChatGPT o chi per essa, dovesse scrivere un libro uguale, in stile, forma e anche - fatemi dire - come sostanza, a quello di un grande autore, che l'ha addestrata magari come assistente..., di chi è quella proprietà? Perché l'algoritmo è di proprietà di qualcuno, la base dati di addestramento di proprietà di qualche d'un altro, in mezzo ci sta anche l'autore che la utilizza e a sua volta l'ha addestrata. Saranno temi decisamente interessanti per i prossimi anni”.

[Banner_Google_ADS]

I più letti della settimana:

Questo sito fa uso di cookie, anche di terze parti, necessari al funzionamento e utili alle finalità illustrate nella privacy e cookie policy.
Per maggiori dettagli o negare il consenso a tutti o alcuni cookie consulta la nostra privacy & cookie policy