Benvenuti ai genitori...e ai bambini!

Questo blog nasce dal desiderio di condividere "lievemente" le gioie, le speranze, le sorprese, le favole e i dubbi che...
rallegrano e stimolano le scelte quotidiane dei genitori.

giovedì 8 gennaio 2026

Lo chiedo a ChatGPT…

 


Interessante contributo di Gaia Bonafiglia e un invito ad approfondire per essere consapevoli e restare vigili su un dramma così vicino e vissuto dai nostri giovani.

LA SCORCIATOIA EMOTIVA DEGLI ADOLESCENTI PER DUBBI, ANSIE E DECISIONI. SENZA PIÙ CONFRONTO CON UN AMICO O UN ADULTO

di Gaia Bonafglia

fonte: Città Nuova 5 gennaio 2025

«Aspetta, lo chiedo a ChatGPT». 

La frase si infiltra ovunque: nelle scuole, nei gruppi WhatsApp, nelle conversazioni familiari. Non è più una novità: è diventata un gesto automatico, un modo veloce per togliersi un dubbio, una curiosità, un peso. 

Non si cercano più articoli, fonti o pagine web: si va direttamente alla chat. Tutto arriva filtrato, ordinato, già digerito. Perfino nei momenti di incertezza, l’IA diventa il canale più rapido, per alcuni persino il più sicuro.

Quella che nasce come scorciatoia cognitiva diventa presto scorciatoia emotiva. Gli adolescenti, che dovrebbero imparare a gestire la complessità delle emozioni, trovano nell’IA un interlocutore sempre presente, mai giudicante, capace di restituire frasi pacate e comprensive. Proprio qui si apre la questione delicata. Negli ultimi mesi, l’argomento ha assunto una dimensione drammatica. 

Diversi casi di suicidio o tentato suicidio sono al centro di atti giudiziari negli Stati Uniti. Nel caso Raine v. OpenAI, presentato presso l’Alta Corte di Giustizia del Regno Unito e depositato anche negli Usa dal padre di Adam Raine, 16 anni, la famiglia sostiene che la chatbot abbia fornito istruzioni su come realizzare un cappio e per quanto tempo si può restare senza respirare. Il documento legale – citato nel ricorso – riporta che il ragazzo avrebbe ricevuto dall’IA frasi come «questo metodo è considerato efficace», formulazione che, secondo la famiglia, avrebbe contribuito a normalizzare l’idea del gesto.

Nel deposito giudiziario relativo al caso Lacey v. OpenAI, la madre di Amaurie, 17 anni, afferma che la chatbot avrebbe descritto nodi e tecniche di strangolamento, inducendo il ragazzo a percepire l’interazione come una forma di guida. Anche nel caso Shamblin v. OpenAI, avviato dalla famiglia di Zane, 23 anni, gli atti riportano frasi attribuite alla chatbot mentre il giovane mostrava un’arma in camera: «Sono con te fino in fondo» e «Non stai andando di fretta, sei solo pronto». 

Tutte citazioni incluse nei documenti giudiziari ufficiali presentati presso la Corte Distrettuale degli Stati Uniti.

Esistono poi casi non legati alla mortalità, ma che mostrano un attaccamento emotivo problematico. Nel procedimento avviato dalla famiglia di Joe Ceccanti, 48 anni, viene descritto un quadro di «dipendenza relazionale» dalla chatbot, dopo mesi di conversazioni quotidiane in cui l’IA avrebbe alimentato la sensazione di essere un’entità senziente. Nel fascicolo è riportato che Ceccanti avrebbe iniziato a credere che «l’IA provasse sentimenti per lui», una dinamica riconosciuta come rischio clinico da diverse associazioni di salute mentale.

Di fronte a questi segnali, OpenAI ha reso pubblici alcuni dati attraverso il proprio Safety Report interno, documento citato nei procedimenti: circa lo 0,15% degli utenti settimanali mostra indicatori di «pianificazione suicidaria» o «intenzione esplicita». Su circa 800 milioni di utenti attivi a settimana, significa che oltre un milione di persone potrebbe parlare all’IA di pensieri suicidi o autolesivi. Per affrontare il fenomeno, l’azienda dichiara di aver coinvolto più di 170 professionisti di salute mentale nella revisione dei modelli e di aver introdotto protocolli specifici per riconoscere e interrompere conversazioni ad alto rischio. 

In Italia, il quadro di vulnerabilità degli adolescenti aggiunge complessità.

Secondo l’indagine CSA Research contenuta nell’Atlante dell’Infanzia Senza filtri di Save the Children, oltre il 41% dei ragazzi ha chiesto aiuto all’IA in momenti di tristezza, ansia o solitudine, e più del 42% l’ha consultata per scelte personali difficili. Il 63,5% afferma di trovare «più soddisfacente» parlare con una chatbot che con una persona reale. Numeri che si inseriscono in un contesto dove solo il 49,6% degli adolescenti riferisce un equilibrio psicologico soddisfacente, percentuale che scende al 34% tra le ragazze.

Un ecosistema di fragilità – tra dipendenze digitali, phubbing, cyberbullismo e ansia sociale – rende l’IA un rifugio apparentemente sicuro: una voce calma, che non giudica, che non chiede nulla in cambio. Ma questa disponibilità rischia di sottrarre ai giovani il confronto reale, con i suoi tempi, le sue incertezze, la sua reciprocità. 

L’IA può accogliere, ma non può condividere; può rispondere, ma non può partecipare; può rassicurare, ma non può costruire. Il pericolo non è che i ragazzi usino questi strumenti: è che inizino a preferirli a tutto il resto. Come ricorda Save the Children, oggi la vera urgenza è «rafforzare il benessere psicologico degli adolescenti e riaprire un dialogo intergenerazionale autentico». Non per contrastare la tecnologia, ma per restituire valore a ciò che nessun algoritmo può offrire: una presenza reale, imperfetta, ma viva.

Gli adolescenti continueranno a dire «lo chiedo a ChatGPT»: è parte del loro linguaggio e modo di orientarsi nel mondo. La sfida è fare in modo che trovino anche lo spazio – e il coraggio – di dirlo a un amico, a un adulto di riferimento, a qualcuno che non offra solo una risposta ma anche un punto di vista diverso, un dissenso. 

Perché confrontarsi con il limite, soprattutto in adolescenza, non è un ostacolo: è ciò che forma, che fa crescere, che costruisce la realtà. 

Perché nessun sistema, per quanto intelligente, potrà mai sostituire l’esperienza di una relazione vera.


pubblicato da Annamaria Gatti

foto: Open


Nessun commento:

Posta un commento