OpenAI ha qualche problema con la sicurezza informatica

I professionisti del settore temono che la compagnia non sia in grado di gestire la sicurezza dei dati in suo possesso
Il logo di OpenAI
Il logo di OpenAI sullo schermo di uno smartphoneDilara Irem Sancar/Getty Images

Settimana turbolenta per OpenAI, che si è trovata colpita da non poche polemiche riguardo la sicurezza del suo chatbot. Appena qualche giorno fa, infatti, lo sviluppatore Swift Pedro José Pereira Vieito ha rivelato pubblicamente che l'app di ChatGpt per Macarchivia tutte le conversazioni in testo semplice ** ** in una posizione non protetta”, rendendole di fatto accessibili a “qualunque altra app/malware. Questo perché, non essendo disponibile nell'App Store di Apple, l'applicazione non deve necessariamente rispettare i requisiti di sandboxing - ossia di un sistema che consente l'esecuzione dell'app in un ambiente sicuro e isolato, evitando di compromettere le altre app installate sul dispositivo - della compagnia.

X content

This content can also be viewed on the site it originates from.

Nel giro di poche ore le affermazioni di Vieito hanno fatto il giro della rete, tanto da diventare l'argomento principale di un articolo di The Verge, che sembrerebbe aver convinto OpenAI a rilasciare immediatamente un aggiornamento che aggiunge la crittografia alle conversazioni salvate nella memoria locale, così da risolvere definitivamente la questione. Ma i problemi della compagnia non sono finiti qui. Una violazione dei sistemi di messaggistica interna di OpenAI, a cui un criminale ha avuto accesso in modo illecito nella primavera del 2023, potrebbe avere ripercussioni sullo stato attuale della sicurezza dell'azienda.

Secondo quanto riferito da Leopold Aschenbrenner - manager tecnico della compagnia - al New York Times, la violazione dello scorso anno implicava vulnerabilità interne di cui avrebbero potuto approfittare anche cybercriminali stranieri, magari legati ai gruppi russi e/o cinesi. Una dichiarazione importante, che ha lasciato spazio alle ipotesi che le cybergang potessero mettere mano sui dati in possesso di OpenAI. Di tutta risposta, la compagnia ha commentato di non essere d'accordo con le affermazioni di Aschenbrenner, licenziato per aver rivelato informazioni confidenziali. Eppure, sembrerebbe proprio che le dichiarazioni di OpenAI non siano bastate a placare gli esperti di sicurezza, preoccupati che questa non sia in grado di gestire al meglio l'enorme mole di dati che possiede.