
L’AI la sfidiamo nello spazio politico
26 Ottobre 2025
AI nelle sedute e nella pratica clinica: una nuova frontiera
8 Novembre 2025Il 10 ottobre 2025 è entrata in vigore la Legge 132 sull’intelligenza artificiale. Un testo che molti aspettavano da mesi e che segna l’inizio di una nuova stagione per il nostro Paese: quella in cui l’intelligenza artificiale smette di essere un oggetto misterioso o un esperimento da laboratorio e diventa materia di diritto, etica e responsabilità.
È la prima volta che l’Italia prova a dare una cornice organica a un fenomeno che, da tempo, è entrato nel cuore della società: nel lavoro, nelle scuole, nella sanità e nei nostri studi professionali.
La legge affianca l’AI Act europeo e ne traduce i principi in chiave italiana. Ogni organizzazione — e quindi ogni studio professionale, servizio pubblico o comunità terapeutica — dovrebbe partire da presidi chiari, ovvero confini di utilizzo e regole per la gestione e la tutela delle informazioni sensibili; trasparenza verso utenti, pazienti e colleghi; responsabilità e supervisione sull’uso degli strumenti; e infine una policy interna che aiuti a orientarsi nella quotidianità.
Cosa dice la legge
L’articolo 1 “promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica dell’intelligenza artificiale”, ponendo l’accento sulle opportunità e sulla necessità che il suo utilizzo debba restare centrato sulla persona e sui diritti fondamentali.
Per i professionisti, ma soprattutto per noi psicologi, il messaggio è chiaro: l’intelligenza artificiale può supportare (art. 13 comma 1), ma non sostituire il pensiero critico e il giudizio clinico.
Mantenere il primato dell’essere umano significa preservare autonomia, consapevolezza e responsabilità, evitando che decisioni automatizzate riducano la complessità dell’esperienza psichica o il valore della relazione professionale.
Questa legge è un richiamo a un uso dell’IA che amplifichi la competenza e l’empatia, non che le svuoti di significato.
Trasparenza e privacy sono due capisaldi di questa legge, che impone obblighi di informazione e controllo dei dati trattati: chi utilizza l’AI deve informare i soggetti potenzialmente interessati.
I nostri pazienti, dunque, “hanno diritto di essere informati sull’impiego di tecnologie di intelligenza artificiale” (art. 7 comma 3), ma anche conoscere gli obiettivi del suo impiego ed essere “rassicurati sui relativi rischi” di divulgazione dei suoi dati (art. 4 comma 3) oltre che del fatto che useremo tecnologie “affidabili, periodicamente verificati e aggiornati” (art. 7 comma 6).
Lo psicologo che desideri utilizzare l’AI per redigere una relazione o sintetizzare la trascrizione di una seduta dovrà informare il paziente di questa pratica, prevedendola espressamente nel contratto, in quanto l’uso di un assistente digitale, di un algoritmo per l’analisi del caso o di un sistema predittivo o diagnostico va dichiarato ed esplicitato al paziente.
Ciò detto, vista la legge n.124/2017 sull’obbligo di preventivo e gli artt. 9, 23, 24 e 31 del nostro C.D., che delineano il principio cardine della condivisione delle informazioni con il proprio paziente, possiamo collegare questo nuovo obbligo di comunicazione sull’uso dell’AI all’interno del Consenso Informato, in quanto giuridicamente è il contratto attraverso cui noi psicologi ci impegniamo a eseguire una prestazione.
Nell’articolo 7 comma 5 la trasparenza si coniuga con la responsabilità, in quanto la legge ribadisce che l’AI è solo uno strumento e, quindi, la responsabilità resta di chi la utilizza.
La psicologo che impiega questa tecnologia sarà responsabile delle informazioni, dei testi e delle considerazioni che riporterà nei propri lavori: un eventuale errore sarà imputabile a lui, non al sistema, “lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica”.
Interessante, e per certi versi cruciale, è anche il passaggio dell’articolo 7 comma 2 della legge, che affronta il tema delle possibili discriminazioni in ambito sanitario. Il testo stabilisce che “l’introduzione di sistemi di intelligenza artificiale nel sistema sanitario non può selezionare e condizionare l’accesso alle prestazioni sanitarie secondo criteri discriminatori”.
Cosa accade se un algoritmo – programmato per ottimizzare tempi, costi o efficacia – finisce per decidere chi riceve un servizio, quando e da chi? Basti pensare ai modelli adottati da alcune piattaforme di terapia online che utilizzano sistemi di “matching algoritmico” per individuare il miglior terapeuta per il cliente. In questo caso viene meno il rispetto di quanto indicato dal legislatore in tema di discriminazione?
Nel campo delle risorse umane, la Legge 132/2025 offre una cornice importante per comprendere come l’intelligenza artificiale possa entrare nei luoghi di lavoro senza snaturarne la dimensione umana.
L’articolo 11 chiarisce che l’IA può rappresentare un valido alleato per “migliorare le condizioni lavorative, tutelare l’integrità psicofisica delle persone e aumentare la qualità” e l’efficienza dei processi, ma solo se il suo impiego avviene nel pieno rispetto della dignità, dei diritti e della riservatezza dei lavoratori.
Il terzo comma dell’articolo 11 ribadisce inoltre che ogni uso dell’IA deve rispettare “i diritti inviolabili della persona” ed evitare qualsiasi forma di discriminazione, a prescindere da sesso, età, origine, credo o orientamento. Per le risorse umane, questo significa promuovere una cultura tecnologica fondata su trasparenza, fiducia e responsabilità, dove gli strumenti digitali aiutano a comprendere meglio le persone, non a giudicarle o controllare.
Questa norma ha un valore politico e simbolico enorme: sancisce che l’intelligenza artificiale non è più un tema per tecnici o visionari, ma una questione pubblica, etica e culturale. Riguarda la libertà, la responsabilità e la dignità dell’individuo e del suo stato di salute. Riguarda il modo in cui noi professionisti della salute mentale prendiamo decisioni e, soprattutto, il tipo di umanità che vogliamo preservare.
E allora sì, la legge è un passo avanti. Ma non basta.
La vera sfida, per noi psicologi, è etica e deontologica.
Serve una governance chiara, che parta dal CNOP, capace di definire regole deontologiche aggiornate, politiche di tutela e percorsi minimi di formazione per i professionisti.
E ce lo dice la stessa legge, che all’articolo 24 comma e-f prevede, infatti, che gli ordini professionali e le associazioni di categoria professionali “promuovano percorsi di alfabetizzazione e formazione sull’uso dell’intelligenza artificiale”, affinché i professionisti siano in grado di comprenderne limiti, potenzialità e rischi.
In altre parole, il legislatore ci ricorda che siamo noi i principali attori di questa evoluzione. Speriamo che al CNOP non si perdano questa opportunità, altrimenti, nel tempo, l’intelligenza artificiale rischia di diventare l’ennesimo strumento su cui la psicologia non riesce a dire la sua, se non qualche timida (scontata) dichiarazione.

