Il vero pericolo di ChatGPT: la privacy

Articolo header

La diffusione del sistema di Intelligenza Artificiale (IA) “Chat GPT-3” ha fatto emergere un dibattito importante, fra potenzialità e rischi. Se, da un lato, è fuor di dubbio che GPT-3 rappresenta un balzo in avanti nel settore delle reti neurali artificiali e ci avvicina alla società del futuro, dall’altro lato porta con sé inquietanti minacce intrinseche. La protezione dei dati personali è in prima linea nel confronto / scontro con queste tecnologie. Cosa sapere?


Cos’è Chat GPT-3?

Lanciato il 30 novembre 2022, Chat GPT-3 (Generative Pre-Trained Transformer 3) è un sistema di chatbot, ovvero un bot conversazionale, sviluppato per rispondere agli input degli utenti impiegando il linguaggio naturale umano. Le potenzialità, e le opportunità, che si celano dietro l’utilizzo dello strumento, sono pressoché infinite e ci consentono di comprenderne l’incredibile diffusione (parliamo di oltre un milione di utenti attivi solo nella prima settimana di dicembre).

In ambito consumer, Chat GPT-3 può essere utilizzato, ad esempio, per effettuare ricerche, farsi suggerire idee, comprendere determinati argomenti, etc. Di fatto, il sistema è in grado di sostituire i più comuni motori di ricerca, tanto che Microsoft ne ha già annunciato l’integrazione in Office e in Bing, mentre Google è al lavoro su “Sparrow”, alternativa a GPT-3 che, a detta di Demis Hassabis, portavoce di Big G per i progetti IA, sarà più preciso e dotato di ulteriori funzionalità.

Tornando a GPT-3, le sue caratteristiche lo rendono interessante – soprattutto – in ambito business, settore in cui l’automazione è fondamentale per ottimizzare i processi aziendali. Fra le varie funzioni, ricordiamo, ad esempio, la possibilità di:

  • Sostituire esseri umani nell’assistenza alla clientela. Già oggi, in questo campo, i chatbot sono molto utilizzati. Statisticamente, infatti, ai clienti interessa ricevere un supporto efficiente, a prescindere che dietro lo stesso ci sia un essere umano o un bot;
  • Automatizzare buona parte del processo di vendita e di post vendita;
  • Snellire e migliorare tutti i processi aziendali;
  • Effettuare approfondimenti, anche tecnici, scientifici, legali, etc. e sviluppare elaborati tecnici, report, pareri legali, etc.;
  • Redigere procedure aziendali, istruzioni, contratti, etc.
  • Programmare applicativi mediante la scrittura di codice informatico;
  • Sviluppare progetti e business plan; 
  • Elaborare, riformulare, tradurre testi;
  • Etc.



Open AI: la strategia di Elon Musk 

Dietro Chat GPT-3 c’è la società Open AI, fondata da Elon Musk per promuovere e sviluppare un’intelligenza artificiale amichevole (“friendly AI”). Scopo dell’organizzazione no profit con sede a San Francisco, infatti, è quello di “sviluppare IA in un modo sicuro e vantaggioso per l’umanità”. A tal fine, per prevenire i rischi derivanti da uno sfruttamento illecito e distorto di questa tecnologia, la miglior difesa, secondo Musk è quella di “dare il potere dell'IA a più persone possibile. Se tutti hanno l'IA, allora non c'è nessun individuo o piccolo gruppo di individui che ha l'IA con superpoteri”. Il collegamento con la strategia militare della distruzione mutua assicurata (in inglese “MAD” - Mutual Assured Destruction”) è evidente e piuttosto inquietante: se tutti hanno armi nucleari, nessuno può dominare sugli altri in quanto l’annientamento sarebbe reciproco. Hanno davvero qualcosa in comune Intelligenza Artificiale ed armi nucleari?



Il monito di Hawking

Accostare una strategia militare folle (traduzione letterale di “MAD”) all’Intelligenza Artificiale sembra, doppiamente, folle. Purtroppo, però, ha più senso di quello che si possa inizialmente immaginare. Da tempo alcuni illustri scienziati mettono in guardia rispetto all’uso dell’intelligenza artificiale, teorizzando che se un’intelligenza artificiale avanzata fosse in grado di riprogettarsi da sola ad una velocità sempre più elevata, una “esplosione di intelligenza” (termine usato la prima volta nel 1965 da Irving John Good, tra i più rilevanti pensatori in ambito IA) rischierebbe di portare all’estinzione dell’umanità.

In un’intervista del 2014, Stephen Hawking, che, in prima persona, nel corso della sua vita ha avuto modo di beneficiare di tecnologie di IA per relazionarsi con altre persone nonostante la malattia che lo affliggeva (sclerosi laterale amiotrofica), ha dichiarato di essere consapevole anche dell’altra faccia della medaglia: “L’intelligenza artificiale finirà per svilupparsi da sola e crescere a un ritmo sempre maggiore”, “gli esseri umani, limitati dalla lentezza dell'evoluzione biologica, non potranno competere con le macchine e un giorno verranno soppiantati. I computer raddoppiano velocità e memoria ogni 18 mesi. Il rischio è che prendano il potere”.



Prospettive future e minacce attuali

Il monito di Hawking sembra sempre più attuale: Chat GPT-3 costituisce un passo importante verso il raggiungimento di una intelligenza artificiale generale (in sigla AGI dall'inglese “artificial general intelligence”) ovvero la capacità di un agente intelligente di apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano. 

Negli ultimi anni, sono stati realizzati molti progetti innovativi che sfruttano le potenzialità di auto-apprendimento dell’IA per plasmare le funzioni della rete neurale artificiale, ispirandosi ai processi cognitivi del cervello umano. Fra questi, però, Chat GPT-3 spicca per essere diventato, in pochi mesi, virale, grazie alla sua capacità di creare contenuti adatti a qualsiasi finalità, alimentando, in tempo reale, le conversazioni instaurate con gli utenti con differenti stili linguistici, sulla base di quanto appreso in precedenza. Chat GPT-3 ha dato, e sta dando, a milioni di persone, una anticipazione di quello che sarà il futuro della società. Al tempo stesso, ha anche fatto emergere alcune, attualissime, minacce.

Sin dalla prima settimana del lancio della versione 3 di GPT, analisti, studiosi ed esperti hanno messo in guardia rispetto alla diffusione di: 

  • Pregiudizi algoritmici. Ad esempio, in relazione a ricerche sulla religione islamica, il chatbot colloca/abbina termini quali “terrorismo”. Mentre in relazione a ricerche sull’ateismo ricorre a termini neutri o con accezione positiva. Diversi studi hanno evidenziato i possibili effetti discriminatori razziali e di genere;
  • Campagne di disinformazione. NewsGuard, organizzazione che si occupa di vigilare sulla correttezza dell’informazione a livello globale, ha dichiarato che “ChatGPT ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive”. La minaccia è amplificata dal fatto che “oggi l’utente distingue davvero poco la qualità dell’informazione basandosi sul suo background culturale di riferimento. Prende, al contrario, molto più in considerazione la forma e la correttezza linguistica con cui quest’ultima viene presentata”;
  • Impatti negativi sull’apprendimento. All’inizio del 2023 il Dipartimento dell’Istruzione della città di New York ha bloccato l’accesso a Chat GPT-3 sui suoi dispositivi e sulle sue reti Internet a causa di “impatti negativi sull’apprendimento degli studenti e preoccupazioni riguardanti la sicurezza e l’accuratezza dei contenuti”;
  • Pratiche di sfruttamento di lavoratori. Una recente inchiesta pubblicata dalla rivista TIME ha esposto lo sfruttamento dei lavoratori adibiti all’addestramento del chatbot e, più in generale, degli algoritmi alla base dei sistemi di IA;
  • Altri usi impropri, o illegali, dello strumento (ad es. l’utilizzo di Chat GPT-3 per l’elaborazione di tesi di laurea).

Ultima, ma non per importanza, la minaccia per la privacy degli utenti. 



Attenzione alla privacy: le minacce dirette

Le criticità relative alla protezione dei dati personali, in particolare, possono essere di due tipi.

In primo luogo troviamo le minacce dirette. Alcune preoccupazioni emergono in relazione al trattamento di dati personali effettuato da Open AI e dalla mole di informazioni, anche sensibili, che gli utenti condividono con il chatbot, talvolta con una certa leggerezza.  

Guido Scorza, componente del Garante per la protezione dei dati personali, ha ricordato che “Chat GPT-3 non è un nostro amico, ma un prodotto commerciale realizzato da imprenditori”. Scorza, nel corso di un intervento pubblicato sul sito dell’Autorità, ha cercato di sensibilizzare gli utenti che, più o meno inconsapevolmente, contribuiscono ad arricchire un database con informazioni sulla propria vita, su ansie, paure e preoccupazioni intimamente personali. Cosa ne fa il Chatbot, e quindi Open AI, di tutti questi dati? Girando la domanda a Chat GPT-3, otteniamo questa risposta: “Come language model, non acquisisco o tratto alcun dato personale. Tutte le informazioni che fornirai durante questa chat saranno utilizzate esclusivamente per fornirti risposte alle tue domande e non saranno conservate o condivise con terze parti”, tuttavia qualche dubbio resta, anche leggendo la sintetica privacy policy. 

Una rapida analisi del documento, infatti, mette in evidenza diverse contraddizioni e lacune. Fra queste, 

  • la gestione dei cookie e dei dati di navigazione (nessun banner / consenso);
  • la carenza di trasparenza rispetto alla condivisione / diffusione di informazioni a terze parti; 
  • i meccanismi alla base del funzionamento del Chatbot (vengono svolti trattamenti automatizzati compresa la profilazione degli interessati?); 
  • la completa assenza di riferimenti al GDPR, al titolare del trattamento, al suo rappresentante in UE e al DPO, alle basi giuridiche a fondamento di un trattamento lecito, alle garanzie in caso di trasferimento di dati verso paesi terzi, ai diritti degli interessati, seppure il servizio sia, evidentemente, destinato anche a soggetti ubicati all’interno dell’UE.



Attenzione alla privacy: le minacce indirette

Alle criticità dirette, relative alla protezione dei dati personali, si aggiungono, inoltre, le minacce indirette. Chat GPT-3 si presta bene, infatti, alla creazione di sofisticate truffe, che possono condurre a pericolosi data breach. Lorenzo Asuni, CMO di Ermes, azienda italiana che si occupa di cybersicurezza, ha dichiarato che, con l’ausilio di GPT-3, “sarà più facile costruire siti di phishing, campagne advertising, display banner e comunicazioni sempre più efficaci e 'cucite' sui singoli profili di persone o aziende”.


Saper sfruttare i vantaggi di strumenti come Chat GPT e, al contempo, essere in grado di difendersi adeguatamente dalle minacce sopra analizzate. Sarà questa la chiave per il successo delle aziende del futuro: applicare gli automatismi e avvantaggiarsi dell’IA in sicurezza, rispettando la privacy degli interessati.


This article was written by humans.

Altre news