Redazione RHC : 12 Aprile 2023 07:16
Un gruppo di esperti nel campo dell’etica dell’IA ha risposto alla lettera Future of Life, firmata la scorsa settimana da circa un migliaio di esperti, tra cui Elon Musk, Steve Wozniak e Andrew Yang. Gli autori di questa risposta erano scettici sulla proposta di una “moratoria” di sei mesi sullo sviluppo dell’IA e sull’addestramento di sistemi che superano la potenza di GPT-4.
Hanno denunciato l’attenzione della lettera su ipotetiche minacce per il futuro associate allo sviluppo dell’intelligenza artificiale, ritenendo che l’uso della tecnologia AI oggi possa causare danni reali.
Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell sono ricercatori di intelligenza artificiale ed esperti di etica, meglio conosciuti per l’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure se solamente un curioso, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Attualmente lavorano presso il DAIR Institute, un centro di ricerca dedicato allo studio, alla rilevazione e alla prevenzione dei danni che l’IA può causare.
Gli autori della risposta alla lettera considerano pericoloso una “prospettiva a lungo termine” criticando l’IA perché ignora il danno reale che può causare oggi. Gli esperti di etica sottolineano la minaccia per l’ecosistema dell’informazione e dalla concentrazione del potere nelle mani di poche persone grazie all’intelligenza artificiale.
“Serve una regolamentazione che garantisca la trasparenza. È essenziale che sia chiaro quando incontriamo media sintetici e che le organizzazioni che costruiscono questi sistemi documentino e divulghino i dati di formazione e le architetture dei modelli. La responsabilità della creazione di strumenti sicuri dovrebbe ricadere sulle aziende che creano e implementano sistemi generativi, il che significa che i creatori di questi sistemi dovrebbero essere ritenuti responsabili dei risultati dai loro prodotti… “.
TechCrunch aggiunge una loro posizione con il seguente commento: “I timori di un’apocalisse robotica in stile Terminator o Matrix sono una distrazione quando allo stesso tempo abbiamo informazioni che aziende come Clearview AI vengono utilizzate dalla polizia per sorveglianza e incolpando persone innocenti”.
Gli esperti sottolineano la necessità di concentrarsi sulla regolamentazione e sulla trasparenza invece di sospendere l’IA.
In sintesi la risposta dei ricercatori si sintetizza nel dover disporre di documentazione obbligatoria compresa la divulgazione di informazioni sui dati e sull’architettura del modello e che le aziende siano ritenute responsabili della creazione di sistemi generativi sicuri e affidabili.
In questo modo è possibile controllare meglio l’impatto dell’IA sulla società e ridurre i rischi associati al suo utilizzo.
All’interno del Patch Tuesday di marzo è stata inclusa la CVE-2025-24983, una Vulnerabilità di elevazione dei privilegi del sottosistema kernel Win32 di Microsoft Windows. La Cybersec...
Giovedì 8 maggio, la Red Hot Cyber Conference 2025 ospiterà un’intera giornata dedicata ai ragazzi con i Workshop Hands-on (organizzati in collaborazione con Accenture Italia). Si tra...
Nelle ricognizioni nel mondo dell’underground e dei gruppi criminali svolte dal laboratorio di intelligence delle minacce DarkLab di Red Hot Cyber, ci siamo imbattuti all’interno di un D...
Nella giornata di oggi, la banda di criminali informatici di FUNKSEC rivendica all’interno del proprio Data Leak Site (DLS) un attacco informatico all’università italiana di Modena ...
L’attacco informatico a X, il social network di Elon Musk, ha scatenato una vera e propria caccia ai responsabili. Dopo le dichiarazioni dello stesso Musk, che ha attribuito l’attacco a ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006