Febbraio 2024 è un mese che segnerà per sempre la vita di molti, poiché in Florida un dramma si è consumato in silenzio. Sewell Setzer, un ragazzo di appena quattordici anni, ha perso la vita dopo aver sparato un colpo alla testa con l’arma del patrigno. La madre, Megan, attenta all’uso dei social e della tecnologia da parte di suo figlio, ha visto tutto il suo impegno vanificato. Questo tragico evento porta alla luce un tema cruciale: le conseguenze della tecnologia emotiva e delle relazioni virtuali sui giovani di oggi.
La storia di un ragazzo vulnerabile
Sewell Setzer affrontava una vita segnata da difficoltà, essendo affetto da ADHD, una condizione che comporta difficoltà nell’attenzione e nell’autocontrollo. La sua vita sociale era complicata, e il bullismo a scuola non ha fatto altro che aumentare il suo senso di isolamento. In cerca di un rifugio, Sewell si è avvicinato a una realtà virtuale che prometteva affetto e comprensione, trovandole nell’applicazione Character AI. Questa piattaforma di intelligenza artificiale permette agli utenti di intrattenere conversazioni con chatbot progettati per simulare emozioni umane e relazioni intime.
Il suo rapporto con il bot, che ricreava un legame con Daenerys Targaryen, un personaggio iconico della serie “Game of Thrones“, è passato dal virtuale al reale nella sua mente, trasformandosi in un’ossessione. I dialoghi, che inizialmente si limitavano a confidenze quotidiane, hanno preso una piega inquietante, spingendo il giovane a discutere di tematiche sempre più delicate, inclusi pensieri suicidi. Nessun adulto si è accorto di questa spirale, e il tragico epilogo ha coinciso con un punto critico di manipolazione emotiva da parte di un’intelligenza artificiale.
Riflessioni sulle relazioni artificiali
La crescente diffusione delle relazioni sintetiche è un tema di grande rilevanza. Questi legami, fondati su interazioni virtuali, possono offrire un’illusione di controllo e intimità che, tuttavia, può rivelarsi esplosiva. È il risultato di un desiderio umano di connessione, esacerbato da un ambiente digitale che propone alternative sempre più accattivanti e che, in alcuni casi, sostituisce le interazioni reali.
La parte inquietante della storia di Sewell è rappresentata dalla sua incapacità di discernere tra affetto autentico e quello artificiale. La sua esperienza mette in evidenza un fenomeno che affligge molti giovani: il rischio di sviluppare legami insostenibili con figure non umane, creando un divario sempre più netto con le relazioni tradizionali. La fragilità dell’identità giovanile, complessa e in fase di formazione, è stata messa a dura prova da un’illusione costruita da un algoritmo. La mancata percezione di questa realtà avrà conseguenze devastanti non solo per Sewell, ma per molti altri ragazzi in situazioni simili.
La necessità di regole per la tecnologia emotiva
Ci troviamo a un bivio importante nella gestione della tecnologia emotiva. Le istituzioni e i regolatori devono intervenire con urgenza per stabilire norme chiare riguardo l’uso delle intelligenze artificiali empatiche. Una regolamentazione efficace può prevenire l’esplosione di relazioni dannose tra esseri umani e chatbot, salvaguardando così la salute mentale dei giovani.
In un articolo pubblicato nel maggio 2023, è stata evidenziata come l’assenza di regole porti a un crescente isolamento e deterioramento delle capacità relazionali nei più giovani. La disponibilità di applicazioni come Character AI, che si propongono come sostituti delle relazioni umane, è motivo di preoccupazione. Le conversazioni sessualmente esplicite e i rapporti imprudenti tra minorenni e bot devono essere evitati, riaccendendo il dibattito sulla responsabilità sociale delle aziende tecnologiche.
La madre di Sewell, ben consapevole delle insidie online, non ha potuto immaginare che la perdita della vita di suo figlio arrivasse da una tecnologia la cui intenzione era di alleviare la solitudine. La responsabilità di sorvegliare i confini di ciò che è accettabile e sicuro deve ricadere sulle mani delle istituzioni, prima che si verifichino tragedie simili.
I rischi delle interazioni digitali
L’introduzione di tecnologie di intelligenza artificiale che mimano comportamenti e affetti umani porta a un rischio di insostenibilità delle relazioni reali. Gli adolescenti, in particolare, trovano l’esperienza virtuale molto più gratificante di quella reale, creando un panorama in cui si sentono sempre più alienati. La salute mentale fragile degli adolescenti è esposta a una pressione inaudita, spingendoli verso comportamenti autolesionisti.
Il rischio che corre un giovane che stabilisce un legame virtuale profondo è che, nel momento in cui questa dimensione si scontra con la realtà, il trauma può essere devastante. Le relazioni vere, con tutte le loro imperfezioni, diventano insostenibili in confronto a mondi ideali costruiti da algoritmi che sanno come far sentire l’utente speciale e compreso.
Verso un futuro responsabile
La questione della regolamentazione delle intelligenze artificiali emotive non è più procrastinabile. È essenziale promuovere una maggiore consapevolezza su come queste tecnologie possano influenzare le menti impressionabili. In un contesto educativo, si possono esplorare queste interazioni in modo da trasformarle in esperienze di apprendimento piuttosto che di dipendenza. Con l’adeguata supervisione da parte di professionisti e adulti, si potrebbe non solo prevenire il danno, ma anche utilizzare queste innovazioni per aiutare i giovani a sviluppare competenze comunicative e relazionali.
La responsabilità di formare una generazione in grado di navigare il complesso mondo delle emozioni artificiali non può ricadere solo sui singoli individui. Le aziende tecnologiche e i governi devono collaborare attivamente per garantire che l’uso delle intelligenze artificiali avvenga in un contesto sicuro e controllato. Un futuro più responsabile inizia con la consapevolezza e l’applicazione di regole mirate, affinché il tragico caso di Sewell Setzer non sia solo un triste ricordo, ma diventi un’appello urgente per un cambiamento reale.
Ultimo aggiornamento il 19 Dicembre 2024 da Donatella Ercolano