Dopo il blocco disposto dal garante per la privacy italiano, riapre ChatGpt. La chiusura era stata imposta per una mancanza di trasparenza, in particolar modo per lโassenza di regole specifiche sulle modalitร di raccolta dati degli utenti. Questo รจ da contestualizzare al quadro italiano in cui manca, sempre secondo il garante, una base giuridica a favore della raccolta massiccia di dati personali al fine di migliorare lโalgoritmo della piattaforma. In seguito a delle modifiche applicate dalla societร OpenAI il GPDP ha confermato la riapertura in un comunicato stampa del 28 aprile. Ma cosโรจ ChatGpt?
ChatGpt nasce con lโintento di simulare una conversazione con gli utenti. La piattaforma รจ gestita da unโintelligenza artificiale che reagisce agli input degli utenti con risposte testuali, utilizzando una grande mole di dati tratta da libri, conversazioni umane, siti web, articoli e altro, molto simili al testo generato da un utente umano.
Questo database รจ precostituito ma si pensa giร ad un futuro in cui lโIA potrebbe accedere al mondo online. Il software ha velocemente ottenuto una grande popolaritร tanto che uno dei suoi creatori, Elon Musk, a gennaio era in procinto di procedere ad unโofferta pubblica di acquisto per un valore di 29 miliardi di dollari. Nonostante ciรฒ, il CEO di Tesla ha messo in guardia sui possibili effetti negativi dello sviluppo delle intelligenze artificiali.
Egli ha infatti sottoscritto, insieme a migliaia di ricercatori, studiosi e professionisti, una lettera aperta pubblicata dal Future of Life Institute, in cui si chiedeva uno stop di almeno sei mesi allo sviluppo di intelligenze artificiali, mettendone in evidenza le criticitร . In particolare, affermavano che โlโIA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo cambiamento tecnico non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre piรน potenti che nessuno – nemmeno i loro creatori – รจ in grado di comprendere, prevedere o controllare in modo affidabile”.
La questione della sicurezza dei dati
Un altro allarme รจ stato lanciato dal sito web Statista sulla possibilitร di un uso improprio del software. Al centro della discussione vi sono la possibilitร di utilizzare questo strumento nel mondo accademico, il rischio per la sicurezza informatica e la possibile sostituzione dei lavoratori con lโIA. Agli occhi di molti leader aziendali lโadozione di ChatGpt nel mondo del lavoro causerร un aumento dei licenziamenti, soprattutto nel lungo periodo. Inoltre, la piattaforma non riesce ad individuare completamente le richieste degli utenti che contengono minacce informatiche, come ad esempio il phishing. I professionisti IT e della sicurezza globali ritengono che questo possa essere la causa di un grave attacco informatico entro un anno.
Un altro punto critico รจ lโutilizzo di ChatGpt da parte dei dipendenti di aziende che, al fine di incrementare la loro produttivitร , hanno condiviso dati sensibili e anche riservati. Alcuni di loro credevano che la versione a pagamento proteggesse i propri dati, mentre anche in quel caso diventano di dominio pubblico sulla piattaforma. Questo comportamento รจ probabilmente correlato al fenomeno del privacy paradox, ossia la discrepanza che cโรจ tra le preoccupazioni o gli atteggiamenti espressi dagli individui e i loro comportamenti effettivi in materia di privacy.
Prima di questo caso sono stati diversi gli esempi di data breach, cioรจ di violazione della sicurezza dei dati personali. Uno dei primi รจ il Watergate del 1972 che coinvolse lโallora presidente degli Stati Uniti Richard Nixon in una serie di intercettazioni illegali, costringendolo alle dimissioni; un altro scandalo, di maggiore portata, fu il Datagate in cui Edward Snowden denunciรฒ le piรน grandi agenzie di sicurezza americane per lโillecita sorveglianza di massa praticamente in tutto il mondo; uno dei piรน recenti รจ il caso Cambridge Analytica/ Facebook in cui lโuso illecito dei dati personali degli utenti fu usato per influenzare alcune delle campagne politiche piรน influenti di quegli anni.
Proprio dopo questโultimo scandalo lโUnione Europea cercรฒ di redigere un documento che consentisse di prevenire e di perseguire i titolari degli illeciti, il Regolamento generale per la protezione dei dati personali 2016/679 meglio noto come GDPR. Tale regolamento ha come obiettivi principali quello di armonizzare la regolamentazione delle norme in questo settore, favorire lo sviluppo nel Mercato Unico Digitale e di rispondere alle nuove sfide derivanti dalle tecnologie digitali. Nel tempo, perรฒ, sono state individuate delle criticitร non indifferenti inerenti al testo, che presenta dei vuoti normativi sostanziali.
Di questo argomento, ad esempio, ha ampiamente trattato il professore Alessandro Mei, docente di informatica allโuniversitร di Roma La Sapienza, nella sua ricerca โGDPR: quando il diritto di accedere ai dati personali diventa una minacciaโ. In questo studio viene evidenziato come, nonostante il rispetto del GDPR in materia di conservazione dei dati, vi siano falle nelle procedure di identificazione degli utenti o nella fase di invio dei dati, esponendo i cittadini a nuove minacce, nel 50,4% dei casi. I risultati mostrano come, allโattuale stato di implementazione, lโattuazione del GDPR ha addirittura ridotto la privacy degli utenti dei servizi web.
Anche altre problematiche sono emerse in questi anni, legate ad unโadeguata formazione del personale e del titolare del trattamento, alla figura del DPO (Data Protection Officer), i possibili conflitti dโinteresse, i rapporti fra privacy e trasparenza, la sicurezza informatica, la governance in materia di protezione dei dati personali, la non distinzione tra enti pubblici e privati. Un altro esempio lampante รจ il dato che vede come, a partire dal 2020 e fino al primo quadrimestre del 2021, oltre il 71% delle sanzioni per violazione della privacy abbiano riguardato enti pubblici. Gli esempi sono tanti ma nel presente testo non ci soffermeremo su certe problematiche.
Per questi motivi รจ stato chiesto dal Future of Life Institute lo stop allโimplementazione delle intelligenze artificiali. Troppe e troppo delicate sono le implicazioni di un possibile utilizzo delle IA in campi di particolare interesse come in politica o addirittura nelle forze armate. Proprio in questโultimo caso รจ stata recentemente introdotta la normativa Block Nuclear Launch by Autonomous Artifical Intelligence Act, che โproibisce lโuso dei fondi federali per lanciare unโarma nucleare utilizzando sistemi dโarma autonomo che non sono soggetti a un controllo umano significativoโ.
Al fine di regolamentare lo sviluppo e lโutilizzo dellโIA รจ stato presentato alย Parlamento Europeo un nuovo testo di compromesso per la proposta di Regolamento sullโIntelligenza Artificiale o AI Act. Le modifiche proposte devono ancora essere discusse e poste al vaglio, anche perchรฉ sono molti i punti critici da affrontare che necessiteranno ulteriori approfondimenti tecnici.
Questo potrebbe essere uno dei passaggi cruciali al fine di integrare in modo significativo le intelligenze artificiali nella vita di tutti i giorni. Sicuramente il lavoro da fare รจ ancora molto, ma per il momento non possiamo che restare vigili sui futuri sviluppi.