Guida Legale-Tecnica 18 min lettura

Chatbot AI e Privacy: Guida GDPR per Sviluppare Assistenti Virtuali Conformi

Tutto quello che aziende e sviluppatori devono sapere per creare chatbot AI nel rispetto del GDPR e dell'AI Act europeo.

1. Perché privacy e AI sono inseparabili

I chatbot AI stanno trasformando il modo in cui le aziende interagiscono con clienti e dipendenti. Ma ogni conversazione contiene dati personali, e ogni risposta dell'AI può avere implicazioni legali.

💡 Il paradosso dell'AI conversazionale

Più il chatbot è "intelligente" e personalizzato, più dati deve trattare. Ma più dati tratta, maggiori sono i rischi privacy. L'obiettivo è trovare l'equilibrio: AI utile + privacy rispettata.

67% Aziende UE che usano chatbot
€20M Sanzione massima GDPR
2025 Anno entrata in vigore AI Act

I rischi concreti di un chatbot non conforme

⚖️

Sanzioni GDPR

Fino a €20 milioni o 4% del fatturato globale. Anche per PMI, sanzioni da €10.000-500.000 sono comuni.

📰

Danno reputazionale

"Azienda X multata per violazione privacy del chatbot" sui giornali. Perdita di fiducia dei clienti.

🔒

Data breach

Conversazioni sensibili esposte. Obbligo di notifica entro 72h al Garante + comunicazione agli interessati.

Blocco servizio

Il Garante può ordinare la sospensione del trattamento. Chatbot offline = customer service in crisi.

2. GDPR: i fondamenti per chi sviluppa AI

Prima di addentrarci nei chatbot, ripassiamo i principi GDPR che ogni sviluppatore deve conoscere:

Liceità, correttezza, trasparenza

I dati devono essere trattati in modo lecito (base giuridica), corretto (senza inganni) e trasparente (l'utente sa cosa succede).

👉 Per chatbot: L'utente deve sapere che parla con un'AI e che i dati vengono trattati.

Limitazione delle finalità

I dati raccolti per uno scopo non possono essere usati per scopi diversi senza nuovo consenso.

👉 Per chatbot: Se raccogli dati per assistenza, non puoi usarli per marketing senza consenso.

Minimizzazione dei dati

Raccogliere solo i dati strettamente necessari per la finalità dichiarata.

👉 Per chatbot: Non chiedere "come ti chiami" se non serve. Non loggare tutto "per sicurezza".

Esattezza

I dati devono essere accurati e aggiornati. Dati inesatti vanno corretti o cancellati.

👉 Per chatbot: L'AI non deve "inventare" dati sul cliente. Verificare prima di usare info precedenti.

Limitazione della conservazione

I dati vanno conservati solo per il tempo necessario alla finalità.

👉 Per chatbot: Log delle conversazioni con retention policy chiara (es. 90 giorni, poi cancellazione).

Integrità e riservatezza

Protezione da accessi non autorizzati, perdita, distruzione.

👉 Per chatbot: Crittografia, accessi limitati, backup sicuri, no dati in chiaro nei log.

📋 Ruoli nel GDPR: chi è responsabile del chatbot?

  • Titolare del trattamento: L'azienda che decide "perché" e "come" usare il chatbot
  • Responsabile del trattamento: Chi sviluppa/gestisce il chatbot per conto del titolare (es. Synaptica)
  • Sub-responsabile: Provider AI esterni (OpenAI, Anthropic, Google)

Serve un contratto di nomina a responsabile (Art. 28) tra titolare e chi sviluppa, e un DPA con i provider esterni.

3. AI Act europeo: cosa cambia nel 2025

L'AI Act (Regolamento UE 2024/1689) è la prima legge al mondo che regola l'intelligenza artificiale. Entra in vigore progressivamente dal 2025.

📅 Timeline AI Act

  • 2 febbraio 2025: Divieto AI inaccettabili (social scoring, riconoscimento emotivo sul lavoro)
  • 2 agosto 2025: Obblighi per AI generativa (trasparenza, watermarking)
  • 2 agosto 2026: Obblighi completi per AI ad alto rischio

Classificazione del rischio AI

🚫 Rischio inaccettabile

VIETATO

  • Social scoring (valutazione comportamento sociale)
  • Riconoscimento emotivo in contesti lavorativi/scolastici
  • Sistemi subliminali che manipolano

👉 Chatbot che analizzano emozioni dei dipendenti = vietato

⚠️ Alto rischio

Obblighi stringenti

  • AI per selezione del personale
  • AI per accesso a servizi essenziali (credito, sanità)
  • AI per amministrazione giustizia

👉 Chatbot HR che screena CV = alto rischio. Serve certificazione, audit, documentazione.

ℹ️ Rischio limitato

Obblighi di trasparenza

  • Chatbot per customer service
  • Sistemi di generazione contenuti (testo, immagini)
  • Deepfake

👉 La maggior parte dei chatbot aziendali. Obbligo: dire chiaramente che è un'AI.

✅ Rischio minimo

Nessun obbligo specifico

  • Filtri spam
  • Raccomandazioni prodotti
  • Videogiochi con AI

👉 Chatbot di e-commerce per raccomandazioni = rischio minimo

⚠️ Obblighi AI Act per chatbot (dal 2 agosto 2025)

  • Trasparenza: Informare l'utente che sta interagendo con un sistema AI
  • Watermarking: Contenuti generati da AI devono essere identificabili come tali
  • Documentazione: Tenere traccia di come funziona l'AI, su quali dati è addestrata
  • Supervisione umana: Possibilità di intervento umano quando necessario

4. Quali dati tratta un chatbot (e come proteggerli)

Un chatbot apparentemente "semplice" tratta molti più dati di quanto si pensi:

📝 Dati inseriti dall'utente

  • Nome, email, telefono
  • Contenuto dei messaggi
  • Domande e richieste
  • Documenti caricati
  • Preferenze espresse

🔍 Dati raccolti automaticamente

  • IP address
  • Device fingerprint
  • Timestamp conversazioni
  • Durata sessione
  • Pagine visitate prima del chat

🧠 Dati derivati/inferiti

  • Sentiment analysis
  • Intent detection
  • Profilo utente costruito nel tempo
  • Probabilità di acquisto
  • Segmentazione automatica

⚕️ Categorie particolari (Art. 9)

  • Dati sanitari (chatbot medici)
  • Opinioni politiche/religiose
  • Dati biometrici
  • Vita sessuale
  • Origine etnica

⚠️ Richiedono consenso esplicito o altra base giuridica specifica

Misure di protezione raccomandate

🔐

Crittografia

TLS 1.3 in transito, AES-256 a riposo. Anche i log devono essere crittografati.

🎭

Pseudonimizzazione

Separare identificativi diretti (nome, email) dal contenuto delle conversazioni.

⏱️

Retention policy

Definire per quanto tempo conservare: 30 giorni per log tecnici, 90 per conversazioni, poi cancellazione automatica.

👤

Accesso limitato

Solo personale autorizzato può accedere alle conversazioni. Log degli accessi.

🚫

Data masking

Oscurare automaticamente dati sensibili nei log (carte di credito, password, CF).

🗺️

Localizzazione dati

Dati in UE (meglio in Italia). Se provider extra-UE, verificare clausole contrattuali standard.

5. Consenso e basi giuridiche per chatbot AI

Non sempre serve il consenso per usare un chatbot. Dipende dalla finalità e dal tipo di dati.

6. OpenAI, Claude, Gemini: responsabilità con provider esterni

La maggior parte dei chatbot AI moderni usa LLM (Large Language Models) di terze parti. Questo crea una catena di responsabilità che deve essere gestita correttamente.

La catena di trattamento dati

Utente Scrive messaggio
Tuo chatbot Riceve e processa
Provider LLM Genera risposta
Tuo chatbot Restituisce risposta

⚠️ Il problema: dove vanno i dati?

Quando invii una domanda a OpenAI/Anthropic/Google:

  • Il messaggio dell'utente viaggia verso server del provider
  • Potrebbe essere conservato per training del modello (dipende dal piano)
  • Server potrebbero essere fuori UE (USA tipicamente)
  • Tu resti responsabile verso l'utente finale

Come gestire i provider esterni

1. Verifica DPA del provider

Tutti i principali provider offrono DPA (Data Processing Agreement) conformi GDPR:

  • OpenAI: DPA disponibile per API business (non ChatGPT free)
  • Anthropic (Claude): DPA standard per API
  • Google (Gemini): DPA tramite Cloud Terms
  • Azure OpenAI: DPA Microsoft (dati in UE possibili)

2. Disattiva training sui tuoi dati

I piani API business tipicamente NON usano i tuoi dati per training:

  • OpenAI API: opt-out automatico per API
  • Anthropic API: nessun training sui dati API
  • Verifica sempre le policy correnti del provider

3. Minimizza i dati inviati

Non mandare al LLM più dati del necessario:

  • Rimuovi PII (nome, email, telefono) prima di inviare
  • Usa token/ID invece di dati reali
  • Non includere storico completo se non serve

4. Considera alternative EU-based

Per dati molto sensibili, esistono opzioni europee:

  • Mistral AI (Francia)
  • Aleph Alpha (Germania)
  • Self-hosted open source (LLaMA, Mistral)
  • Azure OpenAI con region EU

📋 Informativa: cosa dire all'utente

L'informativa privacy deve specificare:

  • Che il chatbot usa AI di terze parti
  • Quali provider (OpenAI, Anthropic, ecc.)
  • Dove sono localizzati i server
  • Che i dati non vengono usati per training (se vero)
  • Link alle privacy policy dei provider

7. Privacy by design: come progettare chatbot conformi

La privacy non è un add-on da aggiungere dopo. Deve essere integrata nella progettazione fin dall'inizio (Art. 25 GDPR).

7 principi di Privacy by Design per chatbot

1

Proattività, non reattività

Prevenire i problemi privacy prima che accadano. Analisi dei rischi in fase di design, non dopo il lancio.

💻 Implementazione: DPIA (Data Protection Impact Assessment) prima dello sviluppo per chatbot ad alto rischio.

2

Privacy come impostazione predefinita

Le impostazioni di default devono essere le più protettive. L'utente può allentare, non deve proteggere.

💻 Implementazione: Log disabilitati di default. Profilazione opt-in, non opt-out.

3

Privacy incorporata nel design

Non è un modulo separato, è parte dell'architettura. Come la sicurezza strutturale di un edificio.

💻 Implementazione: Pseudonimizzazione nel database, non come layer applicativo.

4

Funzionalità completa (non zero-sum)

Privacy E funzionalità, non privacy O funzionalità. Non sacrificare l'UX per la compliance.

💻 Implementazione: Chatbot utile anche senza profilazione invasiva.

5

Sicurezza end-to-end

Protezione per tutto il ciclo di vita del dato: raccolta, uso, conservazione, cancellazione.

💻 Implementazione: Crittografia in transito e a riposo. Cancellazione sicura (non solo DELETE).

6

Visibilità e trasparenza

L'utente deve poter verificare cosa succede ai suoi dati. Non "trust me", ma "verify".

💻 Implementazione: Dashboard per l'utente: cosa abbiamo, cosa facciamo, come cancellare.

7

Rispetto per l'utente

L'interesse dell'utente al centro. Non sfruttare dark patterns per ottenere più dati.

💻 Implementazione: Cancellazione facile quanto l'iscrizione. No guilt-tripping per opt-out.

8. Trasparenza: informare l'utente che parla con un'AI

Dal 2 agosto 2025, l'AI Act impone di informare esplicitamente l'utente quando interagisce con un sistema AI. Ma è già best practice (e buon senso).

Come comunicare che è un'AI

✅ Esempi corretti

🤖

Ciao! Sono l'assistente virtuale di [Azienda]. Posso aiutarti con informazioni sui prodotti e ordini. Per questioni complesse, un operatore umano è disponibile.

Questo è un chatbot AI. Le risposte sono generate automaticamente e potrebbero non essere sempre accurate. Per assistenza medica, consulta un professionista.

❌ Esempi da evitare

👨‍💼

Ciao, sono Marco del servizio clienti! Come posso aiutarti oggi?

Perché è sbagliato: Simula un operatore umano. L'utente pensa di parlare con una persona.

✅ Checklist trasparenza AI

  • [ ] Messaggio iniziale che dichiara la natura AI del chatbot
  • [ ] Nome/avatar che non simula una persona reale
  • [ ] Disclaimer su limiti e possibili errori
  • [ ] Opzione chiara per parlare con un umano
  • [ ] Informativa privacy accessibile dal chat
  • [ ] Possibilità di rifiutare l'interazione con AI

9. Casi d'uso: e-commerce, sanità, HR

Le implicazioni privacy variano in base al settore. Ecco le specificità per i casi più comuni:

🛒 E-commerce

Rischio AI Act: Minimo (raccomandazioni, assistenza)

Dati tipici: Nome, email, storico ordini, preferenze prodotto

Base giuridica: Esecuzione contratto (ordini), interesse legittimo (pre-vendita)

Attenzione a:

  • Profilazione comportamentale richiede consenso
  • Pagamenti: no dati carta nel chat, redirect a gateway sicuro
  • Marketing: consenso separato per newsletter/promo

👉 Consiglio: Chatbot può raccogliere lead, ma il consenso marketing deve essere esplicito e separato.

⚕️ Sanità

Rischio AI Act: Alto (se triage/diagnosi), Limitato (se solo prenotazioni)

Dati tipici: Dati sanitari (Art. 9), sintomi, storico medico

Base giuridica: Consenso esplicito per dati sanitari

Attenzione a:

  • Dati sanitari = categorie particolari → consenso esplicito
  • No diagnosi automatiche senza supervisione medica
  • Log conversazioni con retention breve
  • Crittografia rafforzata, accesso solo a personale sanitario

👉 Consiglio: Separare chatbot prenotazioni (rischio basso) da chatbot triage (alto). DPIA obbligatoria per triage.

👥 HR / Recruiting

Rischio AI Act: Alto (se screening CV), Limitato (se solo FAQ)

Dati tipici: CV, competenze, aspettative salariali, feedback

Base giuridica: Consenso per candidati, interesse legittimo per dipendenti (con limiti)

Attenzione a:

  • AI per screening CV = alto rischio AI Act → certificazione, audit, spiegabilità
  • No discriminazione algoritmica (età, genere, origine)
  • Candidato deve poter richiedere revisione umana
  • Retention limitata: cancellare CV dopo X mesi se non assunti

👉 Consiglio: Chatbot HR per FAQ (ferie, policy) = ok. Per screening candidati, consulta un legale specializzato.

10. Checklist di conformità

Usa questa checklist prima di lanciare un chatbot AI:

📋 Documentazione legale

  • [ ] Informativa privacy aggiornata con sezione chatbot/AI
  • [ ] Contratto con sviluppatore (DPA Art. 28) se esterno
  • [ ] DPA con provider LLM (OpenAI, Anthropic, ecc.)
  • [ ] Registro dei trattamenti aggiornato
  • [ ] DPIA se trattamento ad alto rischio
  • [ ] LIA (Legitimate Interest Assessment) se base giuridica è interesse legittimo

🔐 Sicurezza tecnica

  • [ ] Crittografia TLS 1.3 in transito
  • [ ] Crittografia AES-256 a riposo
  • [ ] Pseudonimizzazione dati sensibili
  • [ ] Data masking per PII nei log
  • [ ] Retention policy con cancellazione automatica
  • [ ] Backup crittografati
  • [ ] Log degli accessi

👤 Diritti degli interessati

  • [ ] Meccanismo per esercizio diritti (accesso, rettifica, cancellazione)
  • [ ] Export dati in formato leggibile
  • [ ] Opt-out da profilazione funzionante
  • [ ] Possibilità di richiedere intervento umano

🤖 Trasparenza AI (AI Act)

  • [ ] Messaggio iniziale che dichiara natura AI
  • [ ] No simulazione identità umana
  • [ ] Disclaimer su limiti e possibili errori
  • [ ] Opzione per parlare con operatore umano
  • [ ] Documentazione tecnica del sistema AI

🧪 Test pre-lancio

  • [ ] Penetration test sicurezza
  • [ ] Test injection prompt
  • [ ] Verifica che AI non riveli dati di altri utenti
  • [ ] Test flusso cancellazione dati
  • [ ] Verifica funzionamento opt-out

11. Domande frequenti

Serve il consenso per usare un chatbot sul sito?

Dipende. Per chatbot FAQ o assistenza post-vendita, l'interesse legittimo può bastare. Per raccolta lead, profilazione o dati sensibili, serve consenso esplicito.

Posso usare ChatGPT/Claude per il mio chatbot aziendale?

Sì, ma con le API business, non la versione consumer. Le API hanno DPA GDPR-compliant e i dati non vengono usati per training. Verifica sempre le policy correnti.

Devo fare una DPIA per ogni chatbot?

Non sempre. La DPIA è obbligatoria per trattamenti ad alto rischio: dati sanitari, profilazione sistematica, monitoraggio su larga scala. Un chatbot FAQ semplice non la richiede.

Quanto tempo posso conservare le conversazioni?

Il minimo necessario per la finalità. Per assistenza clienti: 30-90 giorni. Per audit/compliance: fino a 2-5 anni (dipende dagli obblighi di settore). Definisci una policy e rispettala.

Il chatbot può chiedere dati sensibili (es. stato di salute)?

Sì, ma serve consenso esplicito (Art. 9 GDPR), finalità specifica, e misure di sicurezza rafforzate. In ambito sanitario, spesso serve anche supervisione medica.

Cosa cambia con l'AI Act dal 2025?

Obbligo di trasparenza (dire che è un'AI), documentazione tecnica, e per AI ad alto rischio (HR, sanità) certificazioni e audit. La maggior parte dei chatbot aziendali è a "rischio limitato" = solo trasparenza.

Vuoi sviluppare un chatbot AI conforme?

Synaptica sviluppa chatbot e assistenti AI con privacy by design. Dalla progettazione alla compliance, ti accompagniamo in ogni fase.

Parliamone
Scrivici su WhatsApp