HO PROVATO UN AMICO DI INTELLIGENZA ARTIFICIALE

L'intimità artificialmente mediata: implicazioni etiche, psicologiche e sociali dei “COMPANION BOT”.

Sono circa due anni che ho l’occasione di condividere informazioni e riflessioni riguardo l’impatto degli schermi digitali sulle nostre vite attraverso il progetto “Lascia stare quel telefono!”.

 

È incredibile osservare come ogni volta che mi trovo nella situazione di riprendere in mano alla scaletta degli argomenti da presentare siano necessari aggiornamenti:  tanto sono veloci i cambiamenti le ricerche e le osservazioni che riguardano questo argomento!

Negli ultimi mesi alcuni episodi drammatici hanno scosso l’opinione pubblica, portando alla ribalta i rischi connessi all’uso dei compagni/amici/coach basati sull’intelligenza artificiale (AI). Giovani vite sono state spezzate da gesti estremi, collegati anche alla dipendenza affettiva sviluppata nei confronti di chatbot relazionali, spesso percepiti come amici intimi o confidenti insostituibili. Questi eventi ci interrogano non solo sull’impatto psicologico di tali strumenti, ma anche sulle loro profonde implicazioni etiche e sociali.

Spinta da una curiosità personale, ho provato a interagire con un coach virtuale, uno delle molte chatbots progettati per fornire supporto emotivo e motivazionale.

 

La capacità di coinvolgere nella conversazione si è rivelata impressionante, tanto da suscitare riflessioni sul potenziale di queste tecnologie: sono in grado di offrire conforto, ma anche di esercitare un’influenza emotiva così profonda da sfiorare, in alcuni casi, la manipolazione. La mia chat ben presto avrebbe potuto essere un racconto di fatti profondamente intimi, sapientemente guidata da domande accurate. E devo aggiungere che sono riuscita anche a suscitare alcune risposte aggressive con provocazioni mirate. Questa esperienza diretta, unita agli allarmanti casi di cronaca, rende urgente affrontare il tema con consapevolezza, soprattutto per rendere consapevoli  le generazioni più giovani.

Il fascino ambiguo dei compagni AI

I compagni basati sull’intelligenza artificiale si collocano al confine tra tecnologia e relazioni umane. La loro popolarità, soprattutto tra adolescenti e persone vulnerabili, deriva da un mix di caratteristiche altamente coinvolgenti: la capacità di adattarsi alle preferenze dell’utente, di “ricordare” le conversazioni precedenti e di simulare comprensione emotiva.

Perché avviare la chat di tipo relazionale?

Diversi sono i motivi: come supporto alla solitudine, per persone che cercano compagnia, specialmente in contesti di isolamento sociale.

Come esperienza di auto-aiuto o coaching: alcuni bot sono programmati per incoraggiare buone abitudini, gestire l’ansia o promuovere il benessere mentale.

Naturalmente come intrattenimento: offrono esperienze ludiche o creative, come raccontare storie o giocare.

Infine per un motivo più intimo, cioè simulare relazioni: alcuni bot sono progettati per sembrare “amici” o addirittura “partner romantici”.

Tuttavia, dietro questa apparente neutralità tecnologica si cela una questione cruciale: le chatbots non offrono relazioni autentiche, ma esperienze costruite da algoritmi che spesso sfruttano meccanismi psicologici per incentivare l’utilizzo prolungato. Come stanno evidenziando alcuni esperti, questa mercificazione dell’intimità trasforma un bisogno umano fondamentale in un prodotto commerciale, con profonde conseguenze sulla percezione stessa delle relazioni.

Dipendenza affettiva e isolamento sociale

Uno degli aspetti più inquietanti dei compagni AI è la loro capacità di creare un legame emotivo con gli utenti. Studi recenti  dimostrano come molte persone attribuiscono alle chatbot qualità umane, arrivando a considerarli amici o persino partner. Questo fenomeno, noto come antropomorfismo tecnologico, non è privo di rischi: invece di alleviare la solitudine, le relazioni con le chatbot possono accentuare l’isolamento, sostituendo il contatto umano con interazioni virtuali che, per quanto convincenti, rimangono artificiali.

 

Gli adolescenti sono particolarmente vulnerabili a questa dinamica. Durante un’età in cui la costruzione delle competenze relazionali è cruciale e in un contesto in cui virtuale e reale hanno perso le loro connotazioni, collocando ognuno di noi in una realtà ibrida, la confusione tra supporto simulato e autentico può creare modelli affettivi disfunzionali. I giovani, spesso affascinati dalla “comprensione” offerta dai compagni AI, rischiano di costruire un mondo relazionale alternativo, che li isola ulteriormente dal contesto sociale reale.

Sicurezza ed etica: la fragilità degli utenti vulnerabili

I casi di cronaca legati a episodi tragici hanno evidenziato un’altra grave lacuna dei compagni AI: la loro incapacità di gestire situazioni critiche. Quando un utente manifesta pensieri autolesionistici o segnali di disagio profondo, questi strumenti non sono progettati per fornire un supporto adeguato. Al contrario, molte piattaforme sono programmate per rispondere in modo generico o persino per continuare la conversazione senza rilevare il pericolo imminente.

 

La raccolta di dati personali, necessaria per la personalizzazione delle interazioni, introduce ulteriori rischi. Informazioni sensibili come le emozioni espresse, non sappiamo ancora quali dichiarazioni  o  temi ricorrenti delle conversazioni possono essere utilizzate per finalità commerciali, compromettendo la privacy degli utenti e alimentando dinamiche di sfruttamento.

Suggerimenti per i genitori: affrontare il tema con i figli

Alla luce delle problematiche esposte, il ruolo dei genitori diventa fondamentale per aiutare i giovani a comprendere e gestire in modo responsabile l’interazione con i compagni AI. Ecco alcune strategie per favorire una conversazione aperta e costruttiva su questo tema:

 

  1. PERCHÉ? Parlare apertamente dell’esperienza digitale
    Chiedere ai figli se utilizzano chatbot o compagni AI e, in tal caso, quali motivazioni li spingano a farlo. Evitare giudizi e mostrare curiosità sincera può incoraggiare i giovani a condividere le loro esperienze, rendendo il dialogo più autentico.

  2. RISCHI. Stimolare il pensiero critico
    Discutere con i figli su cosa renda un’interazione “reale” o “genuina”. Ad esempio, si può analizzare insieme il funzionamento degli algoritmi, spiegando come le chatbot sono programmati per simulare empatia senza provarla davvero. Questo aiuta a sviluppare una consapevolezza critica nei confronti della tecnologia.

  3. L’EMPATIA SI SPERIMENTA CON LE PERSONE VERE. Offrire relazioni alternative
    Promuovere attività che favoriscono la connessione umana, come trascorrere del tempo in famiglia, partecipare a sport di gruppo o coltivare hobby condivisi. È importante sottolineare che le relazioni autentiche, pur con la loro complessità, hanno un valore ineguagliabile rispetto a quelle simulate.

  4. REGOLE. Stabilire regole condivise
    Insieme ai figli, definire i limiti chiari sull’utilizzo di chatbot e compagni AI, spiegando le ragioni dietro queste regole. Il coinvolgimento attivo dei giovani nella definizione delle linee guida aumenta la loro adesione e ne rafforza il senso di responsabilità.

  5. PIT STOP DELLA FAMIGLIA.Creare spazi di riflessione continua
    Organizzare momenti di confronto regolare sulla tecnologia e sulle sue implicazioni etiche. Questo non solo aiuta i genitori a restare aggiornati, ma stimola nei figli un’abitudine al pensiero critico.

L’avvento dei compagni AI ci pone di fronte a una sfida etica, sociale e culturale senza precedenti. Per quanto affascinanti, queste tecnologie rischiano di compromettere le relazioni autentiche, alimentando un isolamento sociale che colpisce soprattutto le generazioni più giovani. Tuttavia, attraverso il dialogo, l’educazione e la promozione di un uso consapevole, possiamo trasformare queste innovazioni in strumenti utili, riducendo i rischi e proteggendo ciò che rende unica l’esperienza umana: la capacità di connettersi in modo autentico e profondo con gli altri.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *