
Gli esperti dell’Università di Cambridge hanno espresso preoccupazione per lo sviluppo di tecnologie di intelligenza artificiale che consentono conversazioni testuali e vocali con i defunti. Secondo i ricercatori, tali tecnologie, possono causare danni psicologici e creare l’illusione della presenza dei morti nella vita reale.
Un articolo pubblicato sulla rivista Philosophy and Technology parla dei potenziali pericoli derivanti dall’uso improprio di tali chatbot basati sull’intelligenza artificiale, inclusa la pubblicità clandestina di beni e servizi o la creazione di ansia tra i bambini sostenendo che un genitore deceduto è ancora “con loro”. Inoltre, interagire con i “Griefbots” o “Deadbot” può rappresentare un “onere emotivo schiacciante”.
I ricercatori del Center for the Future of Intelligence di Cambridge hanno proposto di sviluppare protocolli di progettazione specifici per tali piattaforme per impedire l’uso di “deadbot” per scopi irriverenti, come pubblicità o attività sui social media. Insistono inoltre sul fatto che il consenso deve essere ottenuto dalle persone i cui dati vengono utilizzati per creare bot prima che muoiano.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Uno degli scenari proposti nell’articolo è una società che crea un bot per aiutare un bambino di otto anni a superare il dolore dopo la morte di sua madre. Il successo iniziale del robot terapeutico alla fine porta alla confusione del bambino a causa delle risposte ambigue dell’IA.
Tomasz Hollanek, coautore dello studio, ha suggerito di introdurre limiti di età per l’uso dei “deadbot” e di fornire “una trasparenza significativa” in modo che gli utenti siano sempre consapevoli che il loro interlocutore è un’intelligenza artificiale. Ciò potrebbe includere avvisi simili a quelli che avvertono di possibili attacchi epilettici durante la visualizzazione dei contenuti.
Infine, i ricercatori sottolineano l’importanza di sviluppare protocolli per consentire l’opt-out dei deathbot, consentendo agli utenti di smettere di interagire con loro, fornendo una chiusura emotiva.
Incoraggiano i team di sviluppo a pensare in anticipo a come mitigare i rischi sociali e psicologici dell’immortalità digitale, poiché la tecnologia è già qui.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeAll’interno di un forum underground chiuso, frequentato da operatori malware e broker di accesso iniziale, è comparso un annuncio che ha attirato l’attenzione della comunità di cyber threat intelligence. Il post promuove “NtKiller”, una presunta…
Cyber ItaliaMentre la consapevolezza sulla cybersicurezza cresce, il mercato nero dei dati personali non accenna a fermarsi. Un recente post apparso su un noto forum frequentato da criminali informatici in lingua russa, scoperto dai ricercatori di…
Innovazioneprima di leggere questo articolo, vogliamo dire una cosa fondamentale: la robotica sta avanzando più velocemente degli approcci per proteggerla. Le macchine stanno diventando più intelligenti e accessibili, ma la sicurezza delle interfacce, dei protocolli…
CybercrimeC’è un momento preciso, quasi sempre notturno, in cui la curiosità supera la prudenza. Un repository appena aperto, poche stelle ma un exploit dal punteggio altissimo, il file README scritto bene quanto basta da sembrare…
CybercrimeUna campagna di cyberspionaggio su larga scala, caratterizzata da un elevato livello di automazione, sta colpendo in modo sistematico l’infrastruttura cloud che supporta numerose applicazioni web moderne. In meno di 48 ore, decine di migliaia…