Redazione RHC : 30 Marzo 2023 06:56
Più di mille personalità e specialisti famosi, tra cui Elon Musk e Steve Wozniak, hanno firmato una lettera aperta. Tale lettera invita tutti i laboratori di intelligenza artificiale a sospendere l’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4.
“Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superare in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non dovrebbero essere delegate a leader tecnologici non eletti”, afferma la lettera.
Nella lettera, un certo numero di ricercatori di intelligenza artificiale affermano che “un’intelligenza che rivaleggia con quella umana” potrebbe rappresentare un pericolo per la società.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I laboratori di intelligenza artificiale sono impegnati in “una corsa incontrollata per sviluppare e distribuire reti neurali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare in modo affidabile”, afferma la lettera.
I firmatari non chiedono un arresto completo dello sviluppo dell’IA, ma propongono una pausa di sei mesi per sviluppare e implementare protocolli di sicurezza comuni. Se una tale pausa nello sviluppo non può essere attuata rapidamente, i governi dovrebbero intervenire e imporre un divieto temporaneo allo sviluppo.
Gli esperti hanno inoltre esortato gli sviluppatori a lavorare a stretto contatto con i responsabili politici e a creare sistemi di gestione dell’IA che monitoreranno i contenuti generati dall’IA. Inoltre, è necessario introdurre audit e responsabilità in caso di danni causati dalla tecnologia.
È interessante notare che tra i firmatari non ci sono rappresentanti di OpenAI, ma ci sono Emad Mostak, fondatore e CEO di Stability AI, nonché ricercatori di DeepMind.
Jeff Jarvis, professore di giornalismo alla City University di New York, ha definito la lettera “assolutamente ridicola”. Jarvis ha detto che la lettera è stata firmata da “molti imprenditori sospetti in cerca di attenzioni”.
Altri ribattono che la lettera aperta è stata firmata da esperti di machine learning e che sembra ragionevole stabilire principi che governino lo sviluppo dell’IA.
La recente scomparsa di Andrea Prospero, avvenuta a Perugia dopo l’ingestione di pasticche di Oxycodone (meglio noto come OxyContin), ha acceso i riflettori su un fenomeno preoccupante che si s...
Tuabruzzo informa i propri utenti di una recente violazione di dati personali che ha coinvolto il fornitore di servizi informatici MyCicero S.r.l., incaricato come Responsabile del trattamento dei dat...
ATM (acronimo di Azienda Trasporti Milanesi) ha informato i propri utenti di un incidente di sicurezza che ha coinvolto l’app ufficiale. Nella serata di sabato 5 aprile, la società Mooney ...
Un avviso è comparso sul sito ufficiale di Busitalia, la società del gruppo Ferrovie dello Stato che gestisce il trasporto pubblico nelle province di Padova e Rovigo. In mezzo agli aggiornam...
Abbiamo già osservato come il tempo tra la divulgazione pubblica di un exploit e il suo sfruttamento reale si stia accorciando sempre di più. Questa tendenza è direttamente legata alla ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006