Psicologi e AI: resistenze non cliniche a un cambiamento inevitabile

Autore: M.Bottino, R.Cupiccia, M.de Marco

Psicologi e AI: resistenze non cliniche a un cambiamento inevitabile “Non stiamo vivendo un cambiamento tecnologico. Stiamo vivendo un cambiamento del nostro modo di essere nel mondo.” (Luciano Floridi)

Negli ultimi mesi l’Intelligenza Artificiale – e in particolare strumenti come ChatGPT – è entrata in modo massiccio anche nel mondo delle professioni di aiuto.
Eppure, proprio tra gli psicologi, si osserva una resistenza più forte rispetto ad altri ambiti. Non è un caso e, soprattutto, non è un problema di competenze digitali.
È qualcosa di più profondo.
La maggior parte degli psicologi che dice di non usare (o di non voler usare) l’Intelligenza Artificiale… in realtà non sta rifiutando uno strumento: sta difendendo un’idea di sé. E il punto non è che questa resistenza sia “sbagliata”, il punto è che spesso non è consapevole. Si appoggia a motivazioni tecnologiche che, a uno sguardo più attento, risultano deboli o non verificate, e finisce per non apparire come una scelta davvero libera.
Quando uno psicologo dice “l’AI non mi serve”, raramente sta facendo una valutazione tecnica. Sta prendendo una posizione identitaria.
 
Vediamo alcune delle motivazioni più frequenti.
 
1. “La uso già”: l’illusione della competenza
Molti professionisti dichiarano di usare già l’AI.
Ed è vero, ma nella maggior parte dei casi si tratta di un utilizzo saltuario, poco strutturato, più legato alla curiosità che a un reale processo di lavoro, ma soprattutto senza una capacità di verifica della veridicità e correttezza delle risposte avute.
Qui entra in gioco un meccanismo ben noto in psicologia: la sovrastima delle proprie competenze (effetto Dunning-Kruger). È come dire che “fare un colloquio” sia equivalente a saper condurre un processo terapeutico.
Le implicazioni teoriche e pratiche dell’uso delle Ai necessitano di altre conoscenze in ambiti “lontani” dalla psicologia: logica, analisi dei dati, analisi critica che vede molti professionisti trattare con sufficienza queste nuove aree del sapere.
La realtà è che siamo in piena epistemia perché gli Llm (Large Language Models) sono progettati per generare risposte linguisticamente plausibili, così ben articolate da indurci a considerarle vere! Ma siamo in grado di verificarne l’attendibilità?
In ultimo, ma non da ultimo: usare uno strumento significa integrarlo nel proprio modello operativo… ma quanti lo hanno?
 
2. “Trovo tutto gratis online”: la difesa dell’autosufficienza
Questa è una resistenza elegante, quasi intellettuale.
Dietro l’idea del “mi arrangio con i tutorial” c’è spesso il bisogno di controllo, la difficoltà a riconoscere un bisogno formativo o una difesa dall’esposizione (tornare, in qualche modo, principianti)
Il problema è che i contenuti online sono frammentati, decontestualizzati, pensati per tutti… e quindi, in fondo, per nessuno.
Uno psicologo non ha bisogno di sapere cos’è l’AI; ha bisogno di capire come usarla dentro il proprio setting professionale.
E questo difficilmente si trova in un video di pochi minuti.
 
3. “Ho paura che sia troppo tecnico”: la paura di non essere all’altezza
Qui tocchiamo qualcosa di più delicato.
Molti professionisti, soprattutto con esperienza, vivono l’AI come un territorio “da tecnici”, qualcosa che rischia di mettere in discussione il proprio senso di competenza.
Non lo diranno mai in questi termini, ma sotto c’è spesso una forma di inadeguatezza percepita.
Paradossalmente, persone molto competenti nella relazione umana si ritrovano improvvisamente nella posizione di “principianti”.
E questo, per chi ha costruito negli anni un’identità professionale solida, può essere destabilizzante.
La buona notizia è semplice: l’AI non richiede competenze tecniche avanzate; richiede chiarezza mentale e capacità di formulare domande.
Cioè, esattamente ciò che uno psicologo già possiede.
 
4. “L’AI mi sostituisce”: la paura più profonda
Questa è la resistenza centrale e va presa sul serio, senza liquidarla.
Perché tocca nodi fondamentali: il valore della relazione, l’unicità dell’essere umano, il senso stesso della professione
La domanda, esplicita o implicita, è: “Se una macchina può fare quello che faccio io, cosa resta del mio ruolo?
È una domanda legittima, anche perché, in altri ambiti, l’AI sta già sostituendo alcune funzioni.
Ma parte da un presupposto discutibile: l’AI non sostituisce la competenza umana, né tantomeno la relazione.
Sostituisce – o meglio, alleggerisce – la ripetizione. Qui succede qualcosa di interessante: più deleghi all’AI le attività standardizzabili, più sei chiamato a lavorare sulle tue competenze davvero distintive come il pensiero clinico, la capacità interpretativa, la qualità della relazione.
In altre parole: l’AI non impoverisce la professione, la mette a nudo, evidenziandone la preziosità.
Rimane sospesa l’osservazione di Paolo Benanti: “La questione non è se le macchine penseranno come noi, ma se noi continueremo a pensare mentre le macchine lo fanno.
 
5. “Non ho tempo”: la razionalizzazione perfetta
Questa è la resistenza più socialmente accettabile.
E anche la più difficile da mettere in discussione, perché è vera: gli psicologi lavorano molto.
E la formazione richiede tempo, energia, presenza mentale.
Ma qui si crea un paradosso evidente: non ho tempo per imparare uno strumento che potrebbe farmi risparmiare tempo.
È lo stesso meccanismo di chi dice: “Non ho tempo per fermarmi a capire perché sono sempre stanco”.
L’AI, se usata bene, è un moltiplicatore di tempo, se evitata, diventa una perdita indiretta di efficienza.
 
6. “Per il mio settore non serve”: il ritiro anticipato
Questa è una forma di auto-esclusione.
Chi non vede subito un’applicazione concreta tende a chiudere la questione prima ancora di esplorarla.
È comprensibile: evita lo sforzo cognitivo e protegge dall’incertezza, ma è anche limitante.
Perché l’AI non è uno strumento “di settore”: è uno strumento trasversale.
La differenza non sta nello strumento, ma nella capacità di declinarlo nel proprio contesto.
 
7. “Le risposte sono sbagliate”: la critica (legittima) usata come difesa
Questa è probabilmente l’obiezione più intelligente. Ed è anche vera perchè l’AI può sbagliare, semplificare, produrre contenuti superficiali.
Ma qui c’è un punto decisivo: l’errore dell’AI non è solo un limite dello strumento, è spesso un limite di chi lo usa senza guidarlo. Accade che la differenza delle risposte dell'Ai è proporzionata a quanto conosco di ciò che sto richiedendo per cui usare l’AI non significa “chiedere e copiare” ma significa formulare richieste precise, verificare le risposte, contestualizzare, integrare con il proprio sapere.
Esattamente quello che uno psicologo fa ogni giorno con le informazioni che riceve da un paziente.
 
Conclusione: la vera domanda non è tecnologica
Alla fine, la questione non è: “L’AI è utile o no?”, ma: “Sono disposto a rivedere il mio modo di lavorare?” 
È lì che nasce la resistenza, non davanti allo strumento, ma davanti al cambiamento.
E qui si apre uno spazio interessante per la formazione: non insegnare solo come usare l’AI, ma accompagnare i professionisti a ripensare il proprio ruolo in un contesto che sta cambiando.
 __________________
Note:
- L’immagine e il testo di questo articolo sono stati elaborati anche con il supporto di ChatGPT 5.3 (2025)
- Le dinamiche descritte trovano riscontro anche nel contributo di autori italiani che si occupano di trasformazione digitale, identità professionale ed etica dell’AI, tra cui Riccardo Scandellari, Cosimo Accoto, Luciano Floridi e Paolo Benanti. Al loro lavoro si rimanda per un approfondimento.
 

Categorie correlate