Interessante contributo di Gaia Bonafiglia e un invito ad approfondire per essere consapevoli e restare vigili su un dramma così vicino e vissuto dai nostri giovani.
LA
SCORCIATOIA EMOTIVA DEGLI ADOLESCENTI PER DUBBI, ANSIE E DECISIONI. SENZA PIÙ
CONFRONTO CON UN AMICO O UN ADULTO
di Gaia Bonafglia
fonte: Città Nuova 5 gennaio 2025
«Aspetta, lo
chiedo a ChatGPT».
La frase si infiltra ovunque: nelle scuole, nei gruppi
WhatsApp, nelle conversazioni familiari. Non è più una novità: è diventata un
gesto automatico, un modo veloce per togliersi un dubbio, una curiosità, un
peso.
Non si cercano più articoli, fonti o pagine web: si va direttamente alla
chat. Tutto arriva filtrato, ordinato, già digerito. Perfino nei momenti di
incertezza, l’IA diventa il canale più rapido, per alcuni persino il più
sicuro.
Quella che
nasce come scorciatoia cognitiva diventa presto scorciatoia emotiva. Gli
adolescenti, che dovrebbero imparare a gestire la complessità delle emozioni,
trovano nell’IA un interlocutore sempre presente, mai giudicante, capace di
restituire frasi pacate e comprensive. Proprio qui si apre la questione
delicata. Negli ultimi mesi, l’argomento ha assunto una dimensione drammatica.
Diversi casi di suicidio o tentato suicidio sono al centro di atti giudiziari
negli Stati Uniti. Nel caso Raine v. OpenAI, presentato presso l’Alta Corte di Giustizia
del Regno Unito e depositato anche negli Usa dal padre di Adam Raine, 16 anni,
la famiglia sostiene che la chatbot abbia fornito istruzioni su come realizzare
un cappio e per quanto tempo si può restare senza respirare. Il documento
legale – citato nel ricorso – riporta che il ragazzo avrebbe ricevuto dall’IA
frasi come «questo metodo è considerato efficace», formulazione che, secondo la
famiglia, avrebbe contribuito a normalizzare l’idea del gesto.
Nel deposito
giudiziario relativo al caso Lacey v. OpenAI, la madre di Amaurie, 17 anni,
afferma che la chatbot avrebbe descritto nodi e tecniche di strangolamento,
inducendo il ragazzo a percepire l’interazione come una forma di guida. Anche
nel caso Shamblin v. OpenAI, avviato dalla famiglia di Zane, 23 anni, gli atti
riportano frasi attribuite alla chatbot mentre il giovane mostrava un’arma in
camera: «Sono con te fino in fondo» e «Non stai andando di fretta, sei solo
pronto».
Tutte citazioni incluse nei documenti giudiziari ufficiali presentati
presso la Corte Distrettuale degli Stati Uniti.
Esistono poi
casi non legati alla mortalità, ma che mostrano un attaccamento emotivo
problematico. Nel procedimento avviato dalla famiglia di Joe Ceccanti, 48 anni,
viene descritto un quadro di «dipendenza relazionale» dalla chatbot, dopo mesi
di conversazioni quotidiane in cui l’IA avrebbe alimentato la sensazione di
essere un’entità senziente. Nel fascicolo è riportato che Ceccanti avrebbe
iniziato a credere che «l’IA provasse sentimenti per lui», una dinamica riconosciuta
come rischio clinico da diverse associazioni di salute mentale.
Di fronte a
questi segnali, OpenAI ha reso pubblici alcuni dati attraverso il proprio
Safety Report interno, documento citato nei procedimenti: circa lo 0,15% degli
utenti settimanali mostra indicatori di «pianificazione suicidaria» o
«intenzione esplicita». Su circa 800 milioni di utenti attivi a settimana,
significa che oltre un milione di persone potrebbe parlare all’IA di pensieri
suicidi o autolesivi. Per affrontare il fenomeno, l’azienda dichiara di aver
coinvolto più di 170 professionisti di salute mentale nella revisione dei
modelli e di aver introdotto protocolli specifici per riconoscere e
interrompere conversazioni ad alto rischio.
In Italia, il quadro di
vulnerabilità degli adolescenti aggiunge complessità.
Secondo
l’indagine CSA Research contenuta nell’Atlante dell’Infanzia Senza filtri di
Save the Children, oltre il 41% dei ragazzi ha chiesto aiuto all’IA in momenti
di tristezza, ansia o solitudine, e più del 42% l’ha consultata per scelte
personali difficili. Il 63,5% afferma di trovare «più soddisfacente» parlare
con una chatbot che con una persona reale. Numeri che si inseriscono in un
contesto dove solo il 49,6% degli adolescenti riferisce un equilibrio
psicologico soddisfacente, percentuale che scende al 34% tra le ragazze.
Un
ecosistema di fragilità – tra dipendenze digitali, phubbing, cyberbullismo e
ansia sociale – rende l’IA un rifugio apparentemente sicuro: una voce calma,
che non giudica, che non chiede nulla in cambio. Ma questa disponibilità
rischia di sottrarre ai giovani il confronto reale, con i suoi tempi, le sue
incertezze, la sua reciprocità.
L’IA può accogliere, ma non può condividere;
può rispondere, ma non può partecipare; può rassicurare, ma non può costruire.
Il pericolo non è che i ragazzi usino questi strumenti: è che inizino a
preferirli a tutto il resto. Come ricorda Save the Children, oggi la vera
urgenza è «rafforzare il benessere psicologico degli adolescenti e riaprire un
dialogo intergenerazionale autentico». Non per contrastare la tecnologia, ma
per restituire valore a ciò che nessun algoritmo può offrire: una presenza
reale, imperfetta, ma viva.
Gli
adolescenti continueranno a dire «lo chiedo a ChatGPT»: è parte del loro
linguaggio e modo di orientarsi nel mondo. La sfida è fare in modo che trovino
anche lo spazio – e il coraggio – di dirlo a un amico, a un adulto di
riferimento, a qualcuno che non offra solo una risposta ma anche un punto di
vista diverso, un dissenso.
Perché confrontarsi con il limite, soprattutto in
adolescenza, non è un ostacolo: è ciò che forma, che fa crescere, che
costruisce la realtà.
Perché nessun sistema, per quanto intelligente, potrà mai
sostituire l’esperienza di una relazione vera.
pubblicato da Annamaria Gatti
foto: Open