In italia esiste il reato di istigazione al suicidio, l’articolo 580 del Codice Penale italiano stabilisce: “Chiunque determina altri al suicidio o rafforza l’altrui proposito di suicidarsi, ovvero ne agevola in qualsiasi modo l’esecuzione, è punito, se il suicidio avviene, con la reclusione da cinque a dodici anni. Se il suicidio non avviene, è punito con la reclusione da uno a cinque anni.”
Questa norma distingue tre condotte principali: i) Determinare qualcuno al suicidio, ossia persuadere una persona a compiere l’atto; ii) Rafforzare un proposito di suicidio già presente nella mente della persona; iii) Agevolare l’esecuzione del suicidio, fornendo mezzi o assistenza.
L’articolo 580 del Codice Penale rappresenta un’importante salvaguardia per la tutela della vita e della dignità delle persone. Tuttavia, l’evoluzione della società e della tecnologia richiede un costante aggiornamento normativo per affrontare le nuove sfide, soprattutto in ambito digitale.
Il recente caso, in cui Gemini l’AI di Google ha spinto un giovane ventinovenne al suicidio, apre nuove problematiche etiche e giuridiche sul ruolo dell’intelligenza artificiale.
Se il caso fosse avvenuto in Italia, chi sarebbe stato indagato? Il produttore del servizio o nessuno?
Il caso completo con input e output con l’AI lo trovate a questo link, sulla piattaforma Reddit su cui il giovane protagonista ha deciso di pubblicare la sua esperienza con Gemini culminata con l’invito – dopo aver la macchina determinato l’incapacità del giovane utente nella società – a morire.
Ho chiesto a ChatGPT cose pensasse, di seguito la sua risposta: L’argomento della relazione tra l’intelligenza artificiale (IA) e il benessere psicologico degli utenti, in particolare dei giovani, è delicato e complesso. Sebbene l’IA abbia il potenziale di supportare il benessere mentale, esistono rischi che, se non adeguatamente gestiti, potrebbero contribuire a conseguenze negative, incluso il rischio di suicidio.
Rischi Potenziali.
Algoritmi di Raccomandazione: Le piattaforme digitali alimentate dall’IA spesso utilizzano algoritmi di raccomandazione per mantenere alta l’attenzione degli utenti. Tuttavia, tali algoritmi possono inconsapevolmente esporre i giovani a contenuti dannosi, come materiale che glorifica l’autolesionismo o il suicidio.
Chatbot o IA Conversazionali: Se non progettati con attenzione, chatbot e assistenti virtuali potrebbero rispondere in modo inappropriato a richieste di aiuto o a segnali di disagio psicologico. Risposte insensibili o incoraggianti di comportamenti nocivi potrebbero aggravare la situazione di un giovane vulnerabile.
Cyberbullismo Amplificato: L’IA che automatizza o facilita la moderazione dei contenuti potrebbe non riuscire a rilevare tempestivamente episodi di cyberbullismo, esponendo i giovani a situazioni di isolamento o pressione sociale che potrebbero contribuire a un rischio di suicidio.
Per mitigare tali rischi, le tecnologie basate sull’IA devono essere progettate con un focus specifico sulla sicurezza e sul benessere degli utenti. Ciò include:
Rilevamento dei Segnali di Crisi: Algoritmi progettati per riconoscere segnali di disagio mentale, come linguaggio che suggerisce depressione o pensieri suicidi, e intervenire fornendo risorse utili o contatti con professionisti.
Contenuti Moderati e Sicuri: Sistemi di raccomandazione che evitino di esporre gli utenti a contenuti dannosi, privilegiando materiali di supporto e positivi.
Supporto Conversazionale Appropriato: Chatbot e assistenti virtuali dovrebbero essere addestrati per riconoscere situazioni di crisi e indirizzare immediatamente gli utenti a risorse professionali o organizzazioni di aiuto.
Intanto affidiamoci al buon senso degli adulti nell’accompagnare i giovani utenti nell’uso delle tecnologie digitali, se questo buon senso dovesse venir meno in partenza il viaggio sarà distruttivo per tutti.