Salta al contenuto principale
  1. Come la penso/

Non esistono più segreti

·398 parole·2 minuti

Un tuo collega ha incollato un’intera offerta commerciale in ChatGPT per farsi suggerire come migliorarla? Un altro ha caricato un documento per farsi fare un’analisi dei costi? Un altro ancora ha chiesto a un’AI di riscrivere un contratto “in modo più chiaro”? Tutto normale. Veloce e – apparentemente – innocuo.

Il problema è che adesso quei dati non sono più solo della tua azienda.

Non ci sono più segreti. Tutto quello che si scrive, ammesso e non concesso che non sia già stato scritto da un’AI, può essere passato a un’altra AI perché qualcuno lo ha fatto tradurre, sintetizzare o analizzare per una risposta. E se provi a suggerire che quei dati sono stati usati per addestrare un modello, la risposta più elegante sono spallucce.

Non è colpa loro. È colpa dell’azienda che non ha una policy.

Le persone vogliono lavorare meglio e più velocemente. Vedono uno strumento che le aiuta e lo usano. È normale. Senza regole chiare, però, senza formazione né consapevolezza, ogni dipendente diventa un potenziale punto di fuga di informazioni sensibili. Non per malafede, semplicemente per ignoranza.

Servono policy chiare. Serve spiegare cosa si può condividere e cosa no. Serve indicare quali strumenti sono approvati dall’azienda e quali vanno evitati. Serve formare le persone su cosa significa “dato sensibile” e perché un’offerta commerciale, un contratto, una lista clienti non devono finire in un prompt qualsiasi.

E soprattutto, serve farle rispettare. Perché una policy scritta e dimenticata in un documento che nessuno legge vale zero. Le regole funzionano se sono chiare, se sono comunicate, se vengono ricordate e se ci sono conseguenze quando vengono ignorate.

Non bisogna vietare l’uso delle AI: sarebbe stupido e controproducente. L’uso delle AI va governato. Va deciso quali strumenti adottare, con quali garanzie, per quali scopi. Va capito dove vengono conservati i dati, chi vi può accedere, cosa succede quando li condividiamo.

L’intelligenza artificiale è uno strumento potente. Ma come tutti gli strumenti potenti, può fare danni se usato male. E in un’azienda dove ognuno fa come gli pare, dove non ci sono linee guida, dove “basta che funzioni”, i danni prima o poi arrivano.

La sicurezza dei dati non è più solo una questione tecnica di firewall e backup. È anche una questione di comportamento, di cultura, di consapevolezza. E se l’azienda non si prende la responsabilità di definire le regole, non può aspettarsi che le persone le indovinino.