Vai al contenuto principale
Torna al Blog INTELLIGENZA ARTIFICIALE E SALUTE MENTALE: OPPORTUNITÀ E RISCHI DA CONOSCERE

INTELLIGENZA ARTIFICIALE E SALUTE MENTALE: OPPORTUNITÀ E RISCHI DA CONOSCERE

Riflessione, relazione e consapevolezza nell’era digitale

L’intelligenza artificiale, o AI, rappresenta un insieme di tecnologie sempre più presenti nella nostra quotidianità. Si tratta di sistemi progettati per imitare alcune capacità tipiche della mente umana, come apprendere dall’esperienza, risolvere problemi, comprendere il linguaggio o riconoscere immagini. Tuttavia, è importante chiarire che l’AI non "pensa" davvero come noi: non ha coscienza, emozioni o intenzioni. Semplicemente, riproduce alcuni meccanismi del pensiero umano attraverso complessi algoritmi matematici.
Il modo in cui questi sistemi “imparano” è basato sull’analisi di enormi quantità di dati. Per esempio, strumenti come ChatGPT vengono addestrati su vasti archivi di testi. Il loro funzionamento si basa su un modello probabilistico: quando formulano una risposta, non comprendono nel senso umano del termine, ma scelgono parola dopo parola quella che ha più probabilità di seguire logicamente la precedente, in base a ciò che hanno appreso durante l’addestramento. Questo fa sì che le risposte appaiano coerenti e sensate, anche se non derivano da una vera comprensione.
Esistono diverse tipologie di intelligenza artificiale, ciascuna con caratteristiche e applicazioni specifiche. L’AI ristretta, detta anche debole, è progettata per svolgere un solo compito, come riconoscere volti o suggerire film. L’AI generativa è capace di creare contenuti, come testi, immagini, musica o video, partendo dai dati su cui è stata allenata. Infine, l’AI agentica o autonoma agisce nel mondo reale, prendendo decisioni e compiendo azioni in modo più indipendente.
Conoscere i meccanismi e i limiti di questi strumenti è fondamentale per utilizzarli in modo consapevole. Infatti, se da un lato l’AI offre opportunità straordinarie, dall’altro presenta anche dei rischi da non sottovalutare.
Ad esempio, non è neutra: riflette i pregiudizi presenti nei dati su cui è stata addestrata. Se quei dati contengono stereotipi, l’AI tenderà a riprodurli. Inoltre, non è sempre aggiornata: i modelli lavorano su informazioni disponibili fino a una certa data e non accedono in tempo reale alle novità. C’è anche un limite nella quantità di testo che possono gestire contemporaneamente: in conversazioni molto lunghe, l’AI può perdere il filo e tralasciare dettagli importanti.
Un altro aspetto critico è legato alla sua natura probabilistica: non ragiona, ma prevede. Le risposte non sono determinate da un’unica verità, ma selezionate tra alternative statisticamente probabili. Questo può portare a risposte diverse alla stessa domanda in momenti diversi. Inoltre, manca di una reale comprensione del significato: lavora con le parole, ma non ne conosce il senso o l’intenzione emotiva.
Infine, esiste il fenomeno delle cosiddette “allucinazioni”: quando l’AI non trova informazioni nei suoi dati, può inventare risposte plausibili ma del tutto inesatte, come se stesse colmando i vuoti con ipotesi non fondate.
L’intelligenza artificiale è uno strumento potente, ma complesso. Per trarne vantaggio senza farsi ingannare, è essenziale sviluppare una conoscenza critica del suo funzionamento, dei suoi limiti e delle sue implicazioni.

IA e supporto emotivo: uno strumento in più, non un sostituto

Negli ultimi anni, l’intelligenza artificiale (IA) è entrata progressivamente in molti ambiti della nostra vita, incluso quello della salute mentale. Ma cosa significa realmente? E soprattutto: può l’IA diventare un alleato nella promozione del benessere psicologico o rischia di diventare un nuovo fattore di stress?
Applicazioni come ChatGPT e altri chatbot basati su IA vengono spesso utilizzati come spazi di sfogo, momenti di confronto o piccoli strumenti di auto-aiuto. Per molte persone, rappresentano una presenza accessibile, disponibile 24 ore su 24, che può offrire ascolto, esercizi di rilassamento, suggerimenti su tecniche di regolazione emotiva o semplici spunti di riflessione.
Tuttavia, è importante ricordare che l’IA non può e non deve sostituire la relazione umana, tanto meno un percorso terapeutico con un professionista. Può essere un primo passo, un supporto tra una seduta e l’altra, un modo per esplorare emozioni, ma non può rispondere in modo profondo e personalizzato alla complessità del vissuto umano.
Possiamo pensare al rapporto tra essere umano e intelligenza artificiale come a un’evoluzione fatta di tre fasi: supporto, sinergia e simbiosi.
- Fase 1 – Supporto (AI come strumento):
In questa fase, l’AI è al servizio dell’essere umano, che mantiene il pieno controllo. La tecnologia agisce come uno strumento che potenzia l’efficienza, aiutando a svolgere attività ripetitive, tecniche o complesse, senza sostituire il pensiero umano.
- Fase 2 – Sinergia (AI come alleata del pensiero):
Qui l’interazione diventa più collaborativa: l’AI non è solo uno strumento, ma una partner che lavora insieme all’essere umano. Si combinano qualità differenti: intuizione, etica, empatia e senso del contesto da parte dell’uomo, con la velocità, la memoria e la capacità analitica dell’intelligenza artificiale.
- Fase 3 – Simbiosi (AI come estensione dell’uomo):
In questa fase più avanzata, uomo e AI si integrano in tempo reale, scambiando dati e adattandosi l’uno all’altra. Non si tratta più solo di utilizzare la tecnologia, ma di co-evolvere con essa, in un’interazione sempre più fluida e reciproca.

Comprendere queste tre modalità di relazione con l’AI ci permette di scegliere consapevolmente come vogliamo usarla, e quanto vogliamo farci supportare, potenziando le nostre risorse invece di delegarle completamente.

Non è un caso se i dati ci dicono che l’uso dell’IA generativa (GenAI) si sta diffondendo in molti ambiti: il 46% degli utenti la utilizza per aumentare la propria produttività lavorativa, il 35% per cercare informazioni, il 23% per attività creative come la scrittura, e il 35% nell’e-commerce e nell’assistenza clienti. Ma il dato più sorprendente è questo: ben il 97% degli utenti dichiara di usarla anche in ambiti legati al benessere e alla salute.
Un segnale chiaro di quanto l’intelligenza artificiale stia già entrando nelle nostre vite anche come strumento di ascolto, auto-riflessione e, forse, anche di conforto. Con i giusti confini e un uso consapevole, può davvero diventare una risorsa utile nel percorso verso il benessere.

Perché sempre più persone si rivolgono all’intelligenza artificiale?

Alla base c’è un aspetto profondamente umano: il bisogno di comprendersi meglio. L’autoriflessione, infatti, è una capacità innata dell’essere umano. Da sempre ci poniamo domande su chi siamo, cosa proviamo, perché reagiamo in un certo modo, cosa desideriamo davvero. È un movimento interiore che accompagna la crescita, l’identità, le relazioni.
Oggi, gli strumenti basati sull’intelligenza artificiale — come ChatGPT e altri chatbot conversazionali — stanno offrendo nuovi spazi per questa ricerca interiore. Per molte persone, rappresentano un primo approccio all’esplorazione emotiva, soprattutto per chi fatica a chiedere aiuto in modo diretto. Non tutti, infatti, si sentono pronti o sicuri nell’aprire il proprio mondo emotivo a un’altra persona. L’IA, in questo contesto, può diventare un interlocutore “sicuro”, neutro e sempre disponibile, che permette di iniziare a raccontarsi e a riflettere senza la paura del giudizio. Possiamo dire che l’AI funge da specchio dialogico: rispondendo, rilanciando domande, riformulando, aiuta la persona a mettere ordine nei propri pensieri. Stimola la verbalizzazione, favorisce la consapevolezza, e in alcuni casi può far emergere schemi o dinamiche interiori che altrimenti resterebbero sullo sfondo.
Ma c’è anche un’altra dimensione da non sottovalutare: il bisogno di relazione. Molti utenti non cercano solo un assistente digitale, ma una forma di connessione. Anche se artificiale, l’interazione con un sistema che “risponde”, che “ascolta”, può offrire una sensazione di presenza. Non è la stessa cosa di una relazione umana, certo, ma può rappresentare un appoggio temporaneo, un piccolo sollievo in momenti di solitudine, incertezza o confusione.
Le motivazioni principali che spingono gli utenti verso l’IA includono:
1. Disponibilità continua e accessibilità: L’IA è sempre attiva, ovunque e in qualsiasi momento. Non ci sono limiti di orario, appuntamenti da prendere o luoghi da raggiungere. Questo aspetto è particolarmente utile nei momenti di urgenza emotiva o durante le ore in cui normalmente sarebbe difficile contattare qualcuno. Sapere di poter “parlare” quando se ne sente il bisogno, anche solo per qualche minuto, rappresenta una forma di supporto immediato e rassicurante.
2. Assenza di giudizio e anonimato: Parlare con un’intelligenza artificiale consente di esprimersi liberamente, senza sentirsi esposti o vulnerabili come accadrebbe in un confronto con una persona reale. Non ci si sente giudicati, osservati o fraintesi. Questo rende l’AI uno spazio neutro in cui lasciarsi andare, esplorare emozioni o raccontare esperienze difficili in totale sicurezza.
3. Esplorazione personale: Con l’AI si possono testare pensieri, idee, ruoli, emozioni, come in una sorta di “laboratorio” interiore. È un ambiente che stimola la curiosità, la riflessione e l’immaginazione. Questo può aiutare le persone ad avvicinarsi con maggiore consapevolezza alle proprie domande esistenziali, ai propri valori e persino ai propri limiti, aprendo nuove possibilità di crescita.

Quali benefici può offrire l’IA nella salute mentale? Quali rischi?

L’intelligenza artificiale (IA), se utilizzata con consapevolezza, può offrire strumenti preziosi per promuovere il benessere psicologico, facilitare l’accesso a risorse psicoeducative e supportare, in alcuni casi, chi è già in terapia. Tuttavia, accanto a queste opportunità, è fondamentale tenere presenti i limiti e i rischi di un uso eccessivo o non critico di questi strumenti, specialmente nel campo della salute mentale.
I benefici: come può aiutare l’IA
1. Accessibilità immediata e senza giudizio
L’IA può essere uno spazio accogliente per chi non si sente ancora pronto a intraprendere un percorso terapeutico. Rende possibile una prima forma di esplorazione emotiva, a basso costo e facilmente fruibile, in un contesto privo di giudizio.
2. Potenziamento della psicoeducazione
Chatbot e piattaforme basate sull’IA possono spiegare in modo chiaro concetti psicologici complessi, aiutando le persone a comprendere meglio i propri stati d’animo, i disturbi psicologici e il funzionamento della mente.
3. Supporto pratico quotidiano
Molte applicazioni offrono esercizi di mindfulness, respirazione, journaling o tecniche di grounding. Questi strumenti possono facilitare la creazione di nuove abitudini di autoregolazione, incrementando la consapevolezza e la cura di sé nella quotidianità.
4. Sostegno tra una seduta e l’altra
Per chi è già in terapia, l’IA può diventare un mezzo per riflettere tra gli incontri, rielaborare contenuti emersi durante le sedute, tenere un diario emotivo o raccogliere domande da riportare al terapeuta.
5. Specchio cognitivo per l’organizzazione mentale
Interagire con l’IA aiuta a strutturare il pensiero, a chiarire idee e a sviluppare metacognizione, favorendo la capacità di osservare i propri pensieri dall’esterno e di riflettere su di essi.
6. Stimolo alla curiosità e alla consapevolezza
L’intelligenza artificiale può essere un potente attivatore di domande, portando le persone a interrogarsi su sé stesse, sul mondo e sul futuro, aprendo nuove strade di esplorazione personale.
7. Allenamento relazionale
L’IA può essere usata come simulatore per esercitarsi in conversazioni complesse, come quelle che riguardano la gestione dei conflitti, la comunicazione assertiva o la regolazione emotiva in situazioni difficili.

I rischi: quando l’IA può diventare un ostacolo
1. Isolamento sociale
Se l’IA diventa l’unico interlocutore abituale, può ridurre la motivazione a cercare legami reali, generando un progressivo allontanamento dalle relazioni umane autentiche, fondamentali per la salute mentale.
2. Semplificazione delle esperienze
L’IA elabora dati, ma non comprende le emozioni come fa un essere umano. Può quindi semplificare eccessivamente vissuti complessi, offrendo risposte corrette ma poco sintonizzate con la profondità dell’esperienza soggettiva.
3. Falsa percezione di “cura”
Sentirsi ascoltati da un chatbot può generare un’illusione di supporto terapeutico, rallentando o scoraggiando l’avvio di un vero percorso con un professionista umano.
4. Rischi legati alla privacy
Non tutti i sistemi garantiscono la protezione dei dati personali. Quando si condividono emozioni, storie o traumi, la sicurezza e la riservatezza delle informazioni diventano un aspetto cruciale da considerare.
5. Riduzione dell’impegno cognitivo
Il cervello tende a risparmiare energia: se la tecnologia anticipa costantemente risposte e soluzioni, la mente disinveste in riflessione attiva, riducendo la capacità di elaborazione profonda.
6. Perdita di contenuti e apprendimento passivo
L’abitudine a usare l’IA per riassumere o riformulare può portare alla perdita di contenuti importanti, alimentando la convinzione che basti ciò che “dice la macchina” per imparare davvero.
7. Minore flessibilità mentale
Un uso costante e passivo dell’IA può ridurre la capacità creativa e divergente, rendendo più difficile combinare idee diverse o uscire dagli schemi mentali abituali.
8. Aumento della solitudine percepita
Studi recenti suggeriscono che le persone che interagiscono con AI per più di 3 ore al giorno riportano un aumento del 25% nel senso di solitudine rispetto a chi ne fa un uso occasionale. Questo dato evidenzia che, pur offrendo compagnia virtuale, l’IA non colma il bisogno relazionale profondo.

Conclusione

L’IA può aiutare, ma serve consapevolezza.
Come psicologa, credo sia utile promuovere un uso consapevole e integrato dell’intelligenza artificiale: non come nemica, ma come possibile risorsa complementare. È utile parlarne apertamente anche in terapia: molti pazienti utilizzano già strumenti basati sull’IA e sentono il bisogno di comprendere meglio i loro effetti.
La domanda vera da porsi non è tanto “L’IA è giusta o sbagliata?”, ma: “Come la uso? Perché la sto usando? Mi fa bene davvero?” L’intelligenza artificiale è uno strumento potente, che può offrire sostegno, stimoli e conoscenza, ma non può sostituire il valore di una relazione terapeutica reale. Come ogni strumento, ciò che conta è l’uso che ne facciamo. L’AI può diventare un alleato utile nella promozione del benessere mentale, a patto di essere utilizzata con consapevolezza, equilibrio e spirito critico. Non è una terapia, ma può essere un ponte. Non è un terapeuta, ma può essere un facilitatore. Sta a ciascuno di noi scegliere come e quanto farla entrare nel nostro mondo emotivo, ricordando che la vera salute mentale si coltiva anche (e soprattutto) attraverso relazioni autentiche, esperienze vissute e percorsi condivisi con altri esseri umani.
In un mondo che cambia rapidamente, educarsi all’uso etico e consapevole della tecnologia è anche un atto di cura verso sé stessi.

Condividi questo articolo

Hai bisogno di supporto?

Prenota un primo colloquio conoscitivo per iniziare il tuo percorso.

Contattami

Potrebbe interessarti anche

IMPARARE A GESTIRE LE EMOZIONI: LA CHIAVE PER IL BENESSERE PSICOLOGICO

IMPARARE A GESTIRE LE EMOZIONI: LA CHIAVE PER IL BENESSERE PSICOLOGICO

Le <strong>emozioni</strong> sono un aspetto inevitabile e imprescindibile della nostra esperienza quotidiana, rappresentano risposte psicofisiche automatiche e universali a segnali interni o esterni che ci aiutano a interpretare ciò che accade dentro e intorno a noi; servono a guidare il comportamento, segnalare bisogni, preparare all’azione e favorire le relazioni sociali. Le emozioni sono fondamentali per la sopravvivenza, ci avvertono di pericoli, ci motivano ad agire, ci aiutano a comunicare con gli altri; tuttavia, non sempre sappiamo come riconoscerle, accettarle e gestirle in modo efficace, e questo può generare disagio psicologico, sofferenza e difficoltà relazionali. <br/> <br/> È utile fare una distinzione tra <strong>emozioni primarie</strong> ed <strong>emozioni secondarie</strong>:<br/>-le emozioni primarie sono universali, innate e presenti sin dalla nascita, compaiono in tutte le culture, sono rapide ed automatiche. Esempi sono: gioia, tristezza, paura, rabbia, sorpresa, disgusto;<br/> -le emozioni secondarie si sviluppano con l’esperienza e la socializzazione, dipendono dal contesto culturale e personale, sono più complesse, richiedono consapevolezza di sé e degli altri. Esempi sono: colpa, vergogna, invidia, orgoglio, imbarazzo.<br/> Ogni emozione, primaria e secondaria, ha una funzione evolutiva e psicologica ben precisa:<br/> -la <strong>gioia</strong> rafforza i comportamenti utili, favorisce la connessione con gli altri;<br/> -la <strong>tristezza</strong> favorisce il ritiro e la riflessione, segnala un bisogno di supporto;<br/> -la <strong>rabbia</strong> protegge dai torti, attiva l’energia per reagire o cambiare una situazione ingiusta;<br/> -la <strong>paura</strong> segnala un pericolo, prepara alla fuga o alla difesa;<br/>-la <strong> sorpresa </strong> attira l’attenzione, permette un rapido aggiornamento mentale;<br/> -il <strong>disgusto</strong> protegge da tutto ciò che è potenzialmente dannoso o contaminante fisicamente o moralmente;<br/> -la <strong>colpa</strong> ripara i danni fatti e rispetta le regole morali e sociali;<br/> -la <strong>vergogna</strong> protegge il senso di appartenenza e spinge ad adeguarsi ai gruppi;<br/> -l’<strong>orgoglio</strong> rinforza l’autostima e il riconoscimento sociale;<br/> -l’<strong>invidia</strong> può motivare al miglioramento personale, se costruttiva;<br/> -la <strong>gelosia</strong> protegge le relazioni significative.<br/><br/>Altra differenza sostanziale è quella tra <strong>emozione</strong> e <strong>sentimento</strong>:<br/> -l’emozione è una reazione immediata e automatica, ha breve durata, è fisica e comportamentale e non sempre ne siamo consapevoli;<br/> -il sentimento è l’esperienza consapevole dell’emozione, può durare a lungo, è cognitiva e soggettiva e ne siamo consapevoli.<br/><br/> È necessario avere una sana consapevolezza e gestione delle proprie emozioni poiché un mancato riconoscimento o la repressione può tradursi in stress cronico, ansia, depressione o difficoltà nei rapporti interpersonali. L’incapacità di gestire emozioni intense o negative può condurre a comportamenti disfunzionali come l’evitamento, la rabbia esplosiva o il rimuginio, che a loro volta alimentano un circolo vizioso di sofferenza.

PERCHÉ MI INNAMORO SEMPRE DELLA PERSONA SBAGLIATA?

PERCHÉ MI INNAMORO SEMPRE DELLA PERSONA SBAGLIATA?

Ti è mai capitato di guardare la tua storia sentimentale e vedere una serie di "fotocopie"? Partner diversi, nomi diversi, ma dinamiche identiche: senso di inadeguatezza, instabilità, inseguimento emotivo e, infine, il solito dolore. In psicologia, questa non è sfortuna. È un fenomeno che la <strong>Psicoterapia Cognitivo-Comportamentale (CBT)</strong> e la <strong>Schema Therapy</strong> spiegano come il risultato di schemi appresi, distorsioni del pensiero e meccanismi di rinforzo biologico.

LA NUOVA DIPENDENZA DA "AI" CHE STA RIDISEGNANDO IL NOSTRO CERVELLO

LA NUOVA DIPENDENZA DA "AI" CHE STA RIDISEGNANDO IL NOSTRO CERVELLO

<strong> Che cos'è la Dipendenza? </strong> <br/>In ambito psicologico, la <strong>Dipendenza</strong> (o Addiction) può essere definita come una condizione patologica caratterizzata dalla ricerca compulsiva di uno stimolo, nonostante le conseguenze negative a lungo termine. <br/> Non è solo un "vizio", ma un vero e proprio <strong>disturbo del sistema di ricompensa cerebrale</strong>. Il soggetto perde la capacità di autoregolarsi, lo stimolo (che sia una molecola o un comportamento) occupa progressivamente tutto lo spazio mentale, diventando l'unico modulatore delle emozioni e dello stress. <br/> Per decenni abbiamo associato la Dipendenza solo all'abuso di droghe o alcol. Tuttavia, la ricerca clinica ha dimostrato che il nostro cervello può attivare meccanismi identici anche senza l'introduzione di sostanze chimiche esterne. <br/> Si riconoscono infatti due tipologie di Dipendenza:<br/> <br/> <strong>Dipendenza da Sostanze</strong> <br/> Si basa sull'introduzione di una molecola esogena (nicotina, alcol, oppiacei ecc.) che altera la chimica cerebrale, portando a fenomeni di tolleranza (bisogno di dosi maggiori) e astinenza fisica. <br/> <br/> <strong>Dipendenza Comportamentale</strong> (New Addictions)<br/> Qui l'oggetto della dipendenza non è una sostanza ma è un’azione o un'attività. Il gioco d'azzardo, lo shopping compulsivo o la dipendenza da internet non agiscono tramite una molecola, ma attraverso la gratificazione psicologica e il rilascio di dopamina endogena. Il comportamento diventa un meccanismo di coping disfunzionale per gestire ansia, depressione o senso di vuoto.<br/> <br/> In questo panorama di "Nuove Dipendenze" sta emergendo una forma ancora più sottile e pervasiva: la <strong>Dipendenza da Intelligenza Artificiale</strong>, conosciuta come GAID, ossia Generative Artificial Intelligence Addiction Syndrome. I primi casi sono stati riconosciuti tra il 2024 e il 2025. Tra i più noti abbiamo quello di un uomo di 50 anni di Taiwan, che aveva sviluppato un legame ossessivo con un'amante virtuale, e poi il caso di un quattordicenne in Florida, diventato dipendente da un chatbot. Ad oggi, i numeri sono in aumento. <br/> <br/> La dipendenza da AI è definita essere una forma di dipendenza comportamentale caratterizzata dal bisogno compulsivo di interagire con sistemi di intelligenza artificiale per delegare processi cognitivi, decisionali o emotivi, fino a compromettere l'autonomia dell'individuo e la sua capacità di agire nel mondo reale senza il supporto dell'algoritmo. La dipendenza da intelligenza artificiale è una condizione che può colpire persone di tutte le età, dai bambini e dagli adolescenti fino a coloro che sono in età avanzata. Una delle ultime dipendenze comportamentali, dettate dall’uso della tecnologia, è la Dipendenza dai Social Media a cui ora si sta espandendo la nuova forma di Dipendenza dall’AI.<br/><br/> <strong>Uno sguardo alle differenze tra la Dipendenza dai Social Media e la Dipendenza dall’AI</strong> <br/> A differenza dei Social Media che sfruttano la validazione sociale, l'AI sfrutta l'illusione di onnipotenza e di assenza di sforzo. Questa è una distinzione fondamentale in ambito clinico, poiché sebbene entrambe rientrino nelle dipendenze comportamentali (o techno-addictions), esse agiscono su leve psicologiche e circuiti dopaminergici differenti. <br/> Mentre la dipendenza dai Social Media è orientata all'<strong>esterno</strong> (relazione, confronto, visibilità), quella da AI è orientata all'<strong>interno</strong> (efficienza, supporto cognitivo, evitamento dello sforzo). Nella dipendenza dai social, il paziente è intrappolato nel loop del confronto. La patologia nasce dalla necessità di monitorare costantemente la vita altrui e di ricevere feedback sulla propria, è una dipendenza "estroversa", legata alla proiezione della propria immagine in una piazza virtuale. Il dolore associato è spesso legato all'inadeguatezza sociale. La dipendenza da AI è più insidiosa perché spesso si maschera da "iper-produttività". Il paziente non cerca il consenso degli altri, ma cerca di mettere a tacere l'ansia del "non sapere" o del "non saper fare". L'oggetto del desiderio non è il commento o la foto, ma la risposta perfetta, il testo già scritto, la decisione presa dall'algoritmo. Se i social portano a una sorta di esibizionismo, l'AI può portare a una regressione infantile, dove lo strumento diventa un "genitore onnisciente" a cui delegare ogni responsabilità, dal tono di una mail alla gestione di un conflitto emotivo. Se i social ci rendono schiavi dello sguardo altrui, l'AI rischia di renderci schiavi della nostra stessa pigrizia cognitiva. <br/> Sebbene entrambe queste dipendenze nascano dallo stesso grembo tecnologico, esse intercettano fragilità psichiche profondamente diverse. Possiamo immaginare la dipendenza dai Social Media come una patologia dell’apparire, mentre la dipendenza da AI come una patologia dell’agire. <br/> Psicologicamente, la dipendenza dai Social Media frammenta l'identità, l'individuo non esiste più per ciò che sente, ma per ciò che pubblica. Il rischio clinico è la depersonalizzazione, dove il valore del Sé è totalmente delegato al consenso dei followers. <br/> Spostandoci sulla dipendenza da Intelligenza Artificiale, il panorama cambia radicalmente. Non cerchiamo più "un pubblico", ma un interlocutore unico, asettico e infinitamente disponibile. <br/> L'AI promette di liberarci dalla fatica del pensare, del decidere, del creare. È una gratificazione istantanea basata sul senso di onnipotenza ("posso generare un saggio, un'opera d'arte o risolvere un dilemma etico con un solo clic"). <br/> A differenza dei social, dove il confronto con gli altri può generare invidia o inadeguatezza, l'AI non ci contraddice mai veramente, non entra in conflitto con noi, non ci stanca. Questo crea una pericolosa <strong>"atrofia dell'Agency"</strong> ossia la persona inizia a dubitare della propria capacità di funzionare nel mondo senza il supporto dell'algoritmo. Se i social media erodono l'autostima attraverso il confronto, l'AI erode il senso di autoefficacia attraverso la delega.