ChatGPT perde dati?
Un approccio intenzionale e bilanciato tra persone, processi e tecnologie è l'unico modo per mitigare davvero il rischio di fuga di dati attraverso uno strumento GenAI.
Key Points
- Questo blog è stato originariamente pubblicato sul sito web di Code42, ma con l'acquisizione di Code42 da parte di Mimecast, ci assicuriamo che sia disponibile anche per i visitatori del sito web di Mimecast.
- Gli strumenti di IA generativa presentano rischi significativi per la sicurezza dei dati se vengono inserite informazioni sensibili, ma questi possono essere mitigati attraverso una politica intenzionale, l'educazione e l'integrazione della tecnologia.
- L'equilibrio tra gestione del rischio e innovazione consente alle organizzazioni di sfruttare in modo sicuro i vantaggi degli strumenti GenAI senza compromettere la sicurezza o la conformità.
Nel novembre 2022, OpenAI ha rilasciato ChatGPT, uno strumento di intelligenza artificiale generativa (GenAI), che da allora ha conquistato il mondo. Solo due mesi dopo il suo lancio, contava oltre 100 milioni di utenti, diventando "l'applicazione per i consumatori con la crescita più rapida della storia". E ChatGPT non è solo.
Sebbene qualsiasi nuova tecnologia presenti dei rischi, non significa che i rischi siano tutti nuovi. In effetti, le aziende potrebbero scoprire di avere già molte delle persone, dei processi e della tecnologia in atto per mitigare i rischi degli strumenti GenAI, ma di doverli mettere a punto per includere questa nuova categoria tecnologica.
Detto questo, le aziende non devono pensare di essere già protette da questi rischi; devono invece essere intenzionate a mitigarli.
I dipendenti amano GenAI. L'AI ombra ama i suoi dati. Con il 90% delle perdite di dati di Shadow AI che avvengono attraverso semplici azioni di copia-incolla, le sue informazioni riservate potrebbero scivolare via inosservate. Mimecast monitora l'uso rischioso di GenAI in tempo reale, in modo da consentire l'innovazione senza compromettere la sicurezza.
In che modo gli strumenti GenAI come ChatGPT possono rappresentare un rischio per le informazioni sensibili?
La maggior parte degli strumenti GenAI sono progettati per ricevere un 'prompt' dall'utente, che potrebbe essere un testo inserito/incollato, un file di testo, un'immagine, un audio dal vivo o registrato, un video o una combinazione di questi elementi, e poi eseguire un'azione basata sul prompt utilizzato. ChatGPT, ad esempio, può riassumere il contenuto di un prompt ("riassumi questi appunti di riunione...") e fare il debug del codice sorgente ("identifica cosa c'è di sbagliato in questo codice...").
Il rischio è che questi suggerimenti possano essere rivisti dagli sviluppatori dello strumento GenAI e possano essere utilizzati per addestrare una versione futura dello strumento. Nel caso di strumenti pubblici, i suggerimenti diventano parte del modello linguistico stesso, alimentandolo con contenuti e dati che altrimenti non avrebbe. Se questi prompt includono solo informazioni già pubbliche, il rischio potrebbe essere minimo; tuttavia, nell'esempio precedente, se gli appunti della riunione includevano informazioni sensibili o il codice sorgente era proprietario, questi dati riservati sono usciti dal controllo del team di sicurezza e potenzialmente mettono a rischio gli obblighi di conformità e le protezioni della proprietà intellettuale.
Nella situazione più estrema, l'input di qualcuno potrebbe diventare l'output di qualcun altro.
E questo non è solo teorico.
Nel gennaio 2023, Amazon ha emesso una comunicazione interna che limitava l'uso di ChatGPT dopo aver scoperto che i risultati di ChatGPT "imitavano i dati interni di Amazon". E mentre i dati iniziali utilizzati per addestrare ChatGPT hanno smesso di essere raccolti nel 2021, ChatGPT non ha finito di addestrarsi. In effetti, in futuro, quando un ingegnere chiederà aiuto per ottimizzare il proprio codice sorgente, questo potrebbe assomigliare ai dati proprietari della divisione semiconduttori di Samsung.
Con un rapporto che indica che due terzi dei lavori potrebbero essere almeno parzialmente automatizzati dagli strumenti GenAI, quali altre informazioni sensibili potrebbero finire per essere utilizzate come dati di formazione?
Tutto sta nell'equilibrio
Un approccio intenzionale e bilanciato tra persone, processi e tecnologia è l'unico modo per mitigare davvero il rischio di fuga di dati attraverso uno strumento GenAI.
Riunisca i suoi stakeholder
Inizi a riunire i suoi principali stakeholder: Risorse Umane, Ufficio Legale, IT e Sicurezza per definire le politiche e le procedure per l'utilizzo degli strumenti GenAI, in linea con le indicazioni dei dirigenti.
- Chi può usarlo quando?
- Cosa può essere utilizzato come input?
- Come può essere utilizzato il risultato?
Alcune aziende, come Amazon, scelgono di consentire l'uso dello strumento GenAI a condizione che i loro dipendenti siano attenti; altre, come Samsung, hanno deciso di vietarne del tutto l'uso.
La GenAI sta cambiando tutto, anche la sua superficie di rischio. Scopra come abbracciare l'innovazione dell'IA generativa senza esporre la sua organizzazione a fughe di dati, lacune nella conformità o rischi insider.
Scarica la Guida del leader della sicurezza a GenAI e alla sicurezza dei dati
Comunicare ed educare
- Fornisca una guida esplicita nella sua Politica d'Uso Accettabile.
- Richieda una formazione proattiva sui rischi associati all'uso degli strumenti GenAI.
- Faccia sapere ai dipendenti dove possono rivolgersi per ricevere assistenza sull'uso corretto e su come segnalare l'uso improprio.
Fermare, contenere e correggere
- Monitorare l'attività dei dipendenti verso gli strumenti GenAI non attendibili
- Bloccare l'attività di incollaggio in strumenti GenAI non approvati
- Generare avvisi per il caricamento di file sugli strumenti GenAI
- Rispondere con una formazione in tempo reale per i dipendenti che commettono un errore.
Molti dei rischi degli strumenti GenAI non sono nuovi, e con un approccio intenzionale e olistico le organizzazioni mitigano i rischi degli strumenti GenAI senza perdere lo slancio delle possibilità.
È pronto a scoprire come la sua azienda può proteggersi senza rimanere indietro?
In tal caso, potrebbe essere pronto a fissare una consulenza gratuita con i nostri consulenti in materia di protezione dei dati. Otterrà gli strumenti e la guida necessari per creare un programma di minacce interne trasparente, sostenibile e misurabile... senza vincoli.
Si abboni a Cyber Resilience Insights per altri articoli come questi.
Riceva tutte le ultime notizie e le analisi del settore della cybersecurity direttamente nella sua casella di posta elettronica.
Iscriviti con successo
Grazie per essersi iscritto per ricevere gli aggiornamenti del nostro blog
Ci terremo in contatto!