Redazione RHC : 12 Ottobre 2024 12:34
Geoffrey Hinton, noto come uno dei pionieri dell’intelligenza artificiale (IA), ha suscitato grande interesse quando ha lasciato Google e ha espresso preoccupazioni crescenti riguardo ai rischi dell’IA avanzata. Secondo Hinton, la rapida evoluzione dell’IA potrebbe portare a conseguenze imprevedibili e pericolose. Dopo decenni di lavoro nel campo, incluso lo sviluppo di tecnologie cruciali come le reti neurali, Hinton ha messo in guardia sul potenziale di IA più potenti degli esseri umani, che potrebbero diventare incontrollabili o essere utilizzate per scopi dannosi.
Hinton ha lasciato Google non solo per poter parlare liberamente, ma anche per distanziarsi da un’industria che, a suo avviso, si muove verso lo sviluppo di IA superintelligenti senza avere una chiara comprensione dei rischi associati. Ha sottolineato che, sebbene l’IA abbia già portato enormi benefici, il suo uso senza regole adeguate potrebbe alterare significativamente la società, il mercato del lavoro e la politica globale.
Le sue dichiarazioni sono particolarmente rilevanti in un momento in cui giganti tecnologici come Google, OpenAI e altre aziende investono miliardi nello sviluppo di IA sempre più avanzate. Hinton teme che una corsa sfrenata alla supremazia tecnologica possa farci perdere di vista l’importanza di regolamentare queste innovazioni.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
La questione sollevata da Hinton non è solo tecnologica, ma anche etica. Invita i governi e le istituzioni a intervenire rapidamente per stabilire regolamentazioni che impediscano l’uso dell’IA per attività pericolose o incontrollabili. L’uso dell’IA in settori come la guerra, la sorveglianza e la manipolazione dell’opinione pubblica rappresenta uno dei principali timori espressi dallo scienziato.
Il messaggio finale di Hinton è chiaro: la strada verso l’intelligenza artificiale deve essere percorsa con grande cautela e responsabilità, con la consapevolezza che le decisioni prese oggi influenzeranno il futuro della civiltà umana.
Un nuovo annuncio pubblicato sul noto forum underground Exploit.in accende i riflettori su un’ennesima violazione ai danni di una realtà italiana. Questa volta si tratta di un e-...
A seguito dell’operazione Endgame, le forze dell’ordine hanno identificato i clienti della botnet Smokeloader e hanno segnalato l’arresto di almeno cinque persone. Ricordiamo che&...
I ricercatori della PCAutomotive hanno evidenziato diverse vulnerabilità nel veicolo elettrico Nissan Leaf. Gli esperti hanno dimostrato che i bug potrebbero essere utilizzati per l...
Poche ore fa, all’interno del famoso forum underground Breach Forums, un post da parte dell’utente “sentap” ha riportato la potenziale violazione dei dati dal Comune di Gro...
Dopo che il quarto corso si è concluso e i partecipanti iniziano ad entrare sempre più all’interno della CTI Attraverso i laboratori del gruppo DarkLab, il team di Formazione di Red H...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006