
L’intelligenza artificiale è legge. Ora tocca a noi psicologi
1 Novembre 2025
Le linee guida per CTU che non sono linee guida
13 Novembre 2025Fino a non molto tempo fa, la nostra relazione con la tecnologia durante una seduta psicologica a distanza era semplice: un computer, una piattaforma di videoconferenza, due persone che parlavano.
Oggi, mentre lavoriamo, può accadere qualcosa di diverso, a volte quasi invisibile.
Una finestra che si apre in una piattaforma, o in Zoom:
“Vuoi attivare la trascrizione automatica con Intelligenza Artificiale?”
Oppure, dopo una seduta complessa, la tentazione:
“Potrei caricare l’audio su quell’app che fa il riassunto… mi risparmia mezz’ora di note.”
E così, con un clic, ciò che è stato detto in seduta — la parte più delicata e intima del lavoro psicologico — “esce” dallo spazio protetto tra noi e il paziente, e inizia un viaggio digitale di cui spesso non conosciamo le tappe.
Non riguarda solo le piattaforme
È un fraintendimento abbastanza diffuso pensare che il problema della privacy si ponga solo quando una piattaforma integri magari servizi di AI di terzi, creando un complesso ecosistema tecnologico e di responsabilità legali.
In realtà il rischio è identico (e talvolta maggiore) quando:
- usiamo un chatbot per farci scrivere le note della seduta,
- carichiamo un pezzo di dialogo nel nostro “assistente AI” personale,
- inviamo una trascrizione a un’app che promette di “sintetizzare tutto per te”.
Il problema è che molti di questi servizi vivono di dati: li raccolgono, li analizzano, li usano per migliorare il modello.
A volte lo scrivono chiaramente nei loro termini (“i contenuti possono essere utilizzati per migliorare i nostri algoritmi”). Altre volte… lo scrivono in modo che solo un avvocato molto attento lo noti.
E così, mentre noi crediamo di “semplificarci la vita”, potremmo inconsapevolmente aver appena caricato dati sanitari in un sistema che li conserva, li usa, li trasmette altrove.
Quando appare la funzione di riassunto automatico (o altre funzioni), spesso ciò che succede è infatti simile a questo:
- l’audio della seduta viene inviato a un servizio esterno, del nostro provider o di terze parti che hanno un accordo con il nostro provider;
- il servizio lo elabora nei propri server (magari in un altro Paese);
- restituisce il testo a noi o alla nostra piattaforma.
In questo giro, i materiali passano attraverso più soggetti terzi.
È come se durante una seduta riservata entrasse in studio una persona che non vediamo, prendesse appunti, uscisse, tornasse e ci consegnasse un riassunto. Magari affidabile, ma questo non ci esime da assicurarcene bene, a fronte di possibili responsabilità deontologiche e legali a nostro carico.
Che cosa dice la Legge
La normativa europea (GDPR e AI Act) e la recente Legge italiana 132/2025 sono molto chiare su un punto:
I dati clinici non possono essere usati per altro scopo che la cura, salvo consenso esplicito del paziente e in condizioni molto particolari.
Tradotto: niente “addestramento dell’AI usando i contenuti della seduta”, nemmeno in forma pseudonimizzata, nemmeno “per migliorare il servizio”.
Il paziente deve sapere se entra in gioco un algoritmo di AI generativa, e deve poter scegliere se e come i suoi dati clinici (dati sensibili, ex. art. 9 GDPR) vengano diffusi o elaborati da terze parti (anche se in formati non in chiaro). E la responsabilità finale resta nostra: non della piattaforma, del software, o della terza parte.
Quindi, qual è il punto?
La tecnologia è fondamentale, nel nostro lavoro. E le AI Generative hanno sviluppi di forte interesse per la nostra professione, ma serve una forte consapevolezza.
La domanda da porsi non è: “È comodo?”, ma piuttosto: “Io e il paziente abbiamo il controllo su dove finiscono questi dati sensibili?”
Se la risposta è incerta, abbiamo il dovere professionale di chiarire, approfondire o fermarci.
Cosa stanno facendo gli Ordini professionali di AP:
Gli Ordini regionali di AltraPsicologia, proprio davanti a questa complessità crescente (sia legata all’integrazione di sistemi di AI generativa in altri sistemi, creando così filiere molto complesse dei dati sensibili; sia nell’uso quotidiano dei singoli professionisti) hanno chiesto al Cnop, con l’inserimento di un punto in odg, di lavorare su un quadro nazionale che:
- stabilisca standard professionali chiari per i provider di servizi di AI Generativa in ambito clinico,
- interloquisca con GPDP e stakeholders di settore per la definizione di un quadro chiaro e trasparente sulle filiere di uso ed elaborazione dei dati clinici;
- sensibilizzi attivamente la categoria in merito.
In sintesi:
Se non siamo certi di poter spiegare al paziente (e a noi stessi!)
- chi vede i nostri dati,
- dove, come e da chi vengono elaborati,
- per quale scopo diretto e indiretto,
allora… “Houston, abbiamo un problema”.
La tecnologia è uno strumento, la relazione clinica è una responsabilità.

