“Dio perdona loro perché non sanno quello che fanno”
Per quanto biblico possa sembrare, è stata un opinione a fattor comune di moltissimi addetti ai lavori del mondo della Information Technologies, oltre che dei più semplici appassionati di tecnologia, quella di additare la decisione del garante della privacy di bandire il servizio di OpenAI che tutti conosciamo come ChatGPT come una follia senza appello alcuno.
Questa opinione è stata anche contornata da un paragone a un vero e proprio medioevo digitale da parte dello stato italiano, non nuovo a diatribe sui nuovi temi tecnologici che stanno diventando sempre più noti anche alle masse.
Ma forse, potrebbe non essere un “capriccio di un bambino”.
Come afferma Guido Scorza, componente del garante della privacy, il modus operandi della rete neurale per ampliare il suo dataset e quindi affinare il suo apprendimento, avviene utilizzando le informazioni che trova attraverso la rete.
In pratica è come se ChatGPT effettuasse una ricerca su Google un numero esponenzialmente alto di volte superiore rispetto a quelle di un qualsivoglia essere umano, il che potrebbe sembrare quasi semplicistico, ma il fulcro della questione generata dal garante della privacy è proprio questo, ovvero:
Se ChatGPT prende i suoi dati da internet, cosa mi dà certezza che i dati degli utenti siano tutelati?
Da qui avviene quindi la prima “delucidazione” da parte del garante della privacy, la richiesta effettiva era quella di chiedere a OpenAI di continuare a tenere aperto il suo servizio, ma garantendo la privacy degli utenti, e in maniera preventiva (per adesso) ChatGPT non è utilizzabile dall’ Italia.
La discussione viene sviscerata in maniera più approfondita assieme a Matteo Flora, docente universitario e esperto di gestione di crisi per le aziende:
ChatGPT bloccato in Italia dal Garante: perché e Provvedimento insieme a Guido Scorza #garantismi
Ovviamente il succo della questione è abbastanza palese, il garante della privacy non ha né le competenze né tantomeno il “potere” di poter bandire il servizio di ChatGPT, ma è bensì una richiesta a OpenAI di attenersi alle leggi Italiane, una migliore idea è possibile farsela leggendo il comunicato ufficiale del garante della privacy, che espone punto per punto le motivazioni di tale richiesta, inoltre rimane una questione aperta anche il fatto che noi non possiamo nemmeno modificare le informazioni che potrebbero essere erronee (se provate a cercarvi su ChatGPT potete divertirvi a vedere la risposta che vi da).
Attualmente è tutto ancora in divenire, e adesso si attende una risposta e un adeguamento di OpenAI, dato che quello che vuole fare il garante è semplicemente orientare lo sviluppo di tali sistemi nel rispetto dei dati personali.
Quindi possiamo definirla una cosa all’italiana?
Il problema, se così lo possiamo definire, non è nella maniera più assoluta quello dell’ Italia retrograda che non capisce l’ importanza delle intelligenze artificiali, bensì il fatto che questo potrebbe essere un primo tassello di una serie lunghissima di discussioni che verranno portate avanti non solo dall’Italia, ma anche dall’ Europa e resto del mondo.
Dato che la gestione dei dati, dipende da paese a paese, possiamo dire che “ognuno fa come gli pare” per quanto riguarda questi argomenti, ma attualmente siamo arrivati al punto in cui bisognerà avere una linea guida unitaria, soprattutto dato che stiamo parlando di paesi democratici rispetto a Cina, Russia e Corea del Nord (attualmente gli unici altri paesi a inibire le funzionalità di ChatGPT).
Quindi potremmo avere (si spera a breve) una serie di legislazioni che permettano l’utilizzo di tale tecnologia in maniera unitaria, essendo questa ormai una parte non più così lontana dalle nostre vite di tutti i giorni, e probabilmente l’ Italia è stata la prima a sollevare il problema.
by Antonio Cangiano (The Innovation Factory team)