Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
HackTheBox 970x120 1
Un "deadbot" è un termine che si riferisce a un chatbot o a un'entità di intelligenza artificiale progettata per simulare conversazioni con persone decedute. Questi bot possono essere programmati per rispondere a domande, fornire consigli o anche imitare il comportamento e la personalità della persona defunta.

Deadbot: Resuscitare i morti con l’Intelligenza Artificiale non va bene e crea problemi psicologici

10 Maggio 2024 11:03

Gli esperti dell’Università di Cambridge hanno espresso preoccupazione per lo sviluppo di tecnologie di intelligenza artificiale che consentono conversazioni testuali e vocali con i defunti. Secondo i ricercatori, tali tecnologie, possono causare danni psicologici e creare l’illusione della presenza dei morti nella vita reale.

Un articolo pubblicato sulla rivista Philosophy and Technology parla dei potenziali pericoli derivanti dall’uso improprio di tali chatbot basati sull’intelligenza artificiale, inclusa la pubblicità clandestina di beni e servizi o la creazione di ansia tra i bambini sostenendo che un genitore deceduto è ancora “con loro”. Inoltre, interagire con i “Griefbots” o “Deadbot” può rappresentare un “onere emotivo schiacciante”.

Cybersecurity Awareness efficace? Scopri BETTI RHC!
Cybersecurity Awareness efficace? Scopri BETTI RHC!
Sei un’azienda innovativa, che crede nella diffusione dei concetti attraverso metodi non convenzionali? Il fumetto Betti RHC nasce con questo spirito: trasformare la formazione in cybersecurity in un’esperienza coinvolgente, narrativa e memorabile. Attraverso una Graphic Novel dal linguaggio diretto e contemporaneo, Red Hot Cyber racconta scenari realistici di attacchi informatici, errori umani e buone pratiche, rendendo accessibili anche i temi più complessi della sicurezza digitale.

Contattaci tramite WhatsApp al numero 375 593 1011o alla casella di posta graphicnovel@redhotcyber.com per saperne di più.

I ricercatori del Center for the Future of Intelligence di Cambridge hanno proposto di sviluppare protocolli di progettazione specifici per tali piattaforme per impedire l’uso di “deadbot” per scopi irriverenti, come pubblicità o attività sui social media. Insistono inoltre sul fatto che il consenso deve essere ottenuto dalle persone i cui dati vengono utilizzati per creare bot prima che muoiano.

Uno degli scenari proposti nell’articolo è una società che crea un bot per aiutare un bambino di otto anni a superare il dolore dopo la morte di sua madre. Il successo iniziale del robot terapeutico alla fine porta alla confusione del bambino a causa delle risposte ambigue dell’IA.

Tomasz Hollanek, coautore dello studio, ha suggerito di introdurre limiti di età per l’uso dei “deadbot” e di fornire “una trasparenza significativa” in modo che gli utenti siano sempre consapevoli che il loro interlocutore è un’intelligenza artificiale. Ciò potrebbe includere avvisi simili a quelli che avvertono di possibili attacchi epilettici durante la visualizzazione dei contenuti.

Infine, i ricercatori sottolineano l’importanza di sviluppare protocolli per consentire l’opt-out dei deathbot, consentendo agli utenti di smettere di interagire con loro, fornendo una chiusura emotiva.

Incoraggiano i team di sviluppo a pensare in anticipo a come mitigare i rischi sociali e psicologici dell’immortalità digitale, poiché la tecnologia è già qui.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer