fbpx

Scopri Aliseo Plus

Scopri Aliseo Plus

ChatGPT: i dati degli utenti sono davvero al sicuro?

La riapertura del chatbot, disposta dal Garante, non scioglie i dubbi sulla sicurezza dei dati degli utenti. Rischi e opportunità dell'IA

Dopo il blocco disposto dal garante per la privacy italiano, riapre ChatGpt. La chiusura era stata imposta per una mancanza di trasparenza, in particolar modo per l’assenza di regole specifiche sulle modalità di raccolta dati degli utenti. Questo è da contestualizzare al quadro italiano in cui manca, sempre secondo il garante, una base giuridica a favore della raccolta massiccia di dati personali al fine di migliorare l’algoritmo della piattaforma. In seguito a delle modifiche applicate dalla società OpenAI il GPDP ha confermato la riapertura in un comunicato stampa del 28 aprile. Ma cos’è ChatGpt?

ChatGpt nasce con l’intento di simulare una conversazione con gli utenti. La piattaforma è gestita da un’intelligenza artificiale che reagisce agli input degli utenti con risposte testuali, utilizzando una grande mole di dati tratta da libri, conversazioni umane, siti web, articoli e altro, molto simili al testo generato da un utente umano.

Questo database è precostituito ma si pensa già ad un futuro in cui l’IA potrebbe accedere al mondo online. Il software ha velocemente ottenuto una grande popolarità tanto che uno dei suoi creatori, Elon Musk, a gennaio era in procinto di procedere ad un’offerta pubblica di acquisto per un valore di 29 miliardi di dollari. Nonostante ciò, il CEO di Tesla ha messo in guardia sui possibili effetti negativi dello sviluppo delle intelligenze artificiali.

Egli ha infatti sottoscritto, insieme a migliaia di ricercatori, studiosi e professionisti, una lettera aperta pubblicata dal Future of Life Institute, in cui si chiedeva uno stop di almeno sei mesi allo sviluppo di intelligenze artificiali, mettendone in evidenza le criticità. In particolare, affermavano che “l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo cambiamento tecnico non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”.

La questione della sicurezza dei dati

Un altro allarme è stato lanciato dal sito web Statista sulla possibilità di un uso improprio del software. Al centro della discussione vi sono la possibilità di utilizzare questo strumento nel mondo accademico, il rischio per la sicurezza informatica e la possibile sostituzione dei lavoratori con l’IA. Agli occhi di molti leader aziendali l’adozione di ChatGpt nel mondo del lavoro causerà un aumento dei licenziamenti, soprattutto nel lungo periodo. Inoltre, la piattaforma non riesce ad individuare completamente le richieste degli utenti che contengono minacce informatiche, come ad esempio il phishing. I professionisti IT e della sicurezza globali ritengono che questo possa essere la causa di un grave attacco informatico entro un anno.

Un altro punto critico è l’utilizzo di ChatGpt da parte dei dipendenti di aziende che, al fine di incrementare la loro produttività, hanno condiviso dati sensibili e anche riservati. Alcuni di loro credevano che la versione a pagamento proteggesse i propri dati, mentre anche in quel caso diventano di dominio pubblico sulla piattaforma. Questo comportamento è probabilmente correlato al fenomeno del privacy paradox, ossia la discrepanza che c’è tra le preoccupazioni o gli atteggiamenti espressi dagli individui e i loro comportamenti effettivi in materia di privacy. 

Prima di questo caso sono stati diversi gli esempi di data breach, cioè di violazione della sicurezza dei dati personali. Uno dei primi è il Watergate del 1972 che coinvolse l’allora presidente degli Stati Uniti Richard Nixon in una serie di intercettazioni illegali, costringendolo alle dimissioni; un altro scandalo, di maggiore portata, fu il Datagate in cui Edward Snowden denunciò le più grandi agenzie di sicurezza americane per l’illecita sorveglianza di massa praticamente in tutto il mondo; uno dei più recenti è il caso Cambridge Analytica/ Facebook in cui l’uso illecito dei dati personali degli utenti fu usato per influenzare alcune delle campagne politiche più influenti di quegli anni. 

Proprio dopo quest’ultimo scandalo l’Unione Europea cercò di redigere un documento che consentisse di prevenire e di perseguire i titolari degli illeciti, il Regolamento generale per la protezione dei dati personali 2016/679 meglio noto come GDPR. Tale regolamento ha come obiettivi principali quello di armonizzare la regolamentazione delle norme in questo settore, favorire lo sviluppo nel Mercato Unico Digitale e di rispondere alle nuove sfide derivanti dalle tecnologie digitali. Nel tempo, però, sono state individuate delle criticità non indifferenti inerenti al testo, che presenta dei vuoti normativi sostanziali.

Di questo argomento, ad esempio, ha ampiamente trattato il professore Alessandro Mei, docente di informatica all’università di Roma La Sapienza, nella sua ricerca “GDPR: quando il diritto di accedere ai dati personali diventa una minaccia”. In questo studio viene evidenziato come, nonostante il rispetto del GDPR in materia di conservazione dei dati, vi siano falle nelle procedure di identificazione degli utenti o nella fase di invio dei dati, esponendo i cittadini a nuove minacce, nel 50,4% dei casi. I risultati mostrano come, all’attuale stato di implementazione, l’attuazione del GDPR ha addirittura ridotto la privacy degli utenti dei servizi web. 

Anche altre problematiche sono emerse in questi anni, legate ad un’adeguata formazione del personale e del titolare del trattamento, alla figura del DPO (Data Protection Officer), i possibili conflitti d’interesse, i rapporti fra privacy e trasparenza, la sicurezza informatica, la governance in materia di protezione dei dati personali, la non distinzione tra enti pubblici e privati. Un altro esempio lampante è il dato che vede come, a partire dal 2020 e fino al primo quadrimestre del 2021, oltre il 71% delle sanzioni per violazione della privacy abbiano riguardato enti pubblici. Gli esempi sono tanti ma nel presente testo non ci soffermeremo su certe problematiche.

Per questi motivi è stato chiesto dal Future of Life Institute lo stop all’implementazione delle intelligenze artificiali. Troppe e troppo delicate sono le implicazioni di un possibile utilizzo delle IA in campi di particolare interesse come in politica o addirittura nelle forze armate. Proprio in quest’ultimo caso è stata recentemente introdotta la normativa Block Nuclear Launch by Autonomous Artifical Intelligence Act, che “proibisce l’uso dei fondi federali per lanciare un’arma nucleare utilizzando sistemi d’arma autonomo che non sono soggetti a un controllo umano significativo”. 

Al fine di regolamentare lo sviluppo e l’utilizzo dell’IA è stato presentato al Parlamento Europeo un nuovo testo di compromesso per la proposta di Regolamento sull’Intelligenza Artificiale o AI Act. Le modifiche proposte devono ancora essere discusse e poste al vaglio, anche perché sono molti i punti critici da affrontare che necessiteranno ulteriori approfondimenti tecnici.

Questo potrebbe essere uno dei passaggi cruciali al fine di integrare in modo significativo le intelligenze artificiali nella vita di tutti i giorni. Sicuramente il lavoro da fare è ancora molto, ma per il momento non possiamo che restare vigili sui futuri sviluppi.

Ultimi articoli a tema Politica

La politica, i conflitti, il mondo.

Spiegati bene da Aliseo per i membri del Club