Molti giovani si affidano all’intelligenza artificiale (IA), e non solo per lo studio. Secondo i dati di un’indagine promossa da Telefono Azzurro in collaborazione con Ipsos Doxa, quasi la metà dei ragazzi italiani tra i 12 e i 18 anni si rivolge a un chatbot come ChatGPT, progettato per simulare conversazioni umane, per ricevere consigli personali: il 14% lo fa spesso, il 34% qualche volta.
In molti casi instaurano un rapporto di fiducia, dialogano con una macchina come farebbero con un amico in carne ed ossa. I dati della ricerca indicano che i motivi principali sono la curiosità, la qualità dei consigli, il sentirsi non giudicati o meno soli. Il 7% dei ragazzi afferma addirittura di non avere altre persone di riferimento.

In un contesto già fragile, in cui circa un adolescente su sette sperimenta un disagio psichico (dati dell’Organizzazione mondiale della sanità), l’utilizzo dell’intelligenza artificiale generativa potrebbe creare nei giovani ulteriori problemi.
Ecco allora nove consigli per un uso consapevole dei chatbot da parte di bambini e adolescenti a cura del team di esperti di Telefono Azzurro.

1. Non condividere informazioni troppo personali
Nel momento in cui si confidano a un chatbot dettagli e informazioni intime, è importante ricordare che le conversazioni possono essere registrate e utilizzate per addestrare modelli. La privacy è una cosa seria: è importante scegliere con consapevolezza che cosa condividere e cosa no.

2. Ricordare che l’empatia è simulata
Il chatbot, grazie all’addestramento e agli algoritmi, utilizza linguaggi apparentemente inclusivi ed empatici con assenza di giudizio che fanno sentire accolti e capiti. Bisogna ricordare che si tratta di uno strumento digitale e che l’empatia è simulata. Distinguere tra empatia reale e simulata è essenziale per differenziare la realtà dalla finzione: un chatbot può impersonare ruoli e dare l’impressione di comprendere le emozioni umane, ma resta pur sempre un sistema artificiale.

3. Non prendere i consigli e le informazioni come verità assolute
Più della metà dei ragazzi che usa i chatbot attribuisce loro un’alta fiducia. Ma i chatbot possono fornire informazioni sbagliate, crearle appositamente e non comprenderne il contesto. Ciò può contribuire alla disinformazione e alla generazione di fake news. Le informazioni e i consigli forniti dai chatbot vanno sempre verificati con adulti di riferimento e con fonti affidabili.

4. Non usare il chatbot come unico canale di supporto emotivo
Se si sta affrontando un momento di difficoltà, il chatbot può essere un primo spazio di espressione in cui mettere per iscritto i propri pensieri e ricevere alcuni consigli utili su come cercare aiuto attivamente. Il chatbot non può essere l’unica fonte di sostegno: la sofferenza emotiva richiede il coinvolgimento di persone fidate, adulti di riferimento e professionisti. Soprattutto in caso di temi complessi come bullismo, cyberbullismo, autolesionismo, ideazione suicidaria e salute mentale in generale, è bene accedere alle persone che ci sono vicine e a sistemi di supporto sul territorio.

5. Non sostituire le relazioni reali
Il chatbot può essere uno strumento ricco di potenzialità e risorse raggiungibili con facilità, ma non deve mai diventare un sostituto delle proprie abilità personali, dei propri amici, della propria famiglia o di altre figure di riferimento. Il digitale deve arricchire, non sostituire!

6. Prestare attenzione all’uso eccessivo
La disponibilità 24/7 dei chatbot e la semplicità di utilizzo possono favorirne un uso eccessivo. Se il tempo trascorso con l’IA riduce le interazioni reali e lo strumento viene utilizzato in modo sistematico come sostitutivo dei normali impegni giornalieri (come i compiti a casa), è un segnale che lo si sta usando troppo e nel modo sbagliato. Un chatbot può aiutare a comprendere meglio argomenti e collegamenti, a schematizzare, a stimolare la riflessione ma non deve sostituire il ragionamento o diventare una “scorciatoia” automatica e alternativa alle proprie capacità critiche e cognitive. Analizza quanto tempo passi su questi strumenti!

7. Prestare attenzione al rischio di dipendenza
La percezione di accoglienza, comprensione e di assenza di giudizio, nonché l’accesso sempre garantito, possono portare a utilizzare il chatbot come un punto di riferimento, fino a non poterne più fare a meno. Il rischio è che ci si possa isolare e convincersi che tutte le risposte che si cercano siano a portata di app. L’IA non può, e non deve, sostituire l’accesso a risorse di aiuto e supporto umane. Va ricordato che nei momenti di fragilità o di solitudine percepita si potrebbe essere tentati di rifugiarsi, sempre di più, nel mondo digitale perdendo così il contatto con relazioni profonde e autentiche, amplificando il senso di solitudine.

8. Mantenere sempre uno spirito critico
Per un uso corretto e consapevole bisogna sempre tener conto che gli algoritmi influenzano ciò che si vede e ciò che viene offerto/risposto. Questo potrebbe amplificare un pensiero o un giudizio già esistente. È molto importante avvicinarsi sempre con uno spirito critico.

9. Parlare apertamente dell’uso dei chatbot
Se l’utilizzo di un chatbot fa sentire a disagio, o se si hanno dubbi e l’impressione che qualcosa non sia corretto, il coinvolgimento di figure di riferimento adulte è molto importante.