Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Un ex dipendente di Open AI paragona l’azienda alla White Star Line, che realizzò il Titanic.

Redazione RHC : 26 Luglio 2024 21:57

William Saunders, un ex dipendente di OpenAI che collaborava nel team di sicurezza, ha paragonato la società di intelligenza artificiale alla White Star Line, la società che costruì il Titanic.

Saunders, che ha lavorato per tre anni nel team di superallineamento di OpenAI, ha spiegato in una Recente intervista di essersi dimesso perché non voleva “finire a lavorare per una azienda simile al Titanic”.

Durante il suo periodo in OpenAI, Saunders si è chiesto se l’azienda assomigliasse di più al programma Apollo della NASA o al Titanic. Le sue preoccupazioni erano incentrate sul piano di OpenAI di raggiungere l’ Intelligenza Artificiale Generale (AGI) lanciando prodotti a pagamento.

FINO AL 31 DICEMBRE, sconti estremi sui corsi Red Hot Cyber

Affrettati!

Fino al 31 dicembre potrai acquistare a prezzi scontati i nostri corsi cliccando sui seguenti coupon:

  • NIS2 : Network and Information system 2 scontato del 25%
  • Dark Web & Cyber Threat Intelligence scontato del 50%

  • Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    Secondo Saunders, l’azienda dà priorità alla creazione di nuovi “prodotti scintillanti” invece di concentrarsi sulla sicurezza e sulla valutazione del rischio, rendendola meno simile al programma Apollo.

    Saunders ha osservato che il programma Apollo era caratterizzato da un’attenta previsione e valutazione dei rischi , mantenendo una “ridondanza sufficiente” per adattarsi a gravi problemi, come è accaduto con l’Apollo 13.

    Al contrario, la White Star Line costruì il Titanic con compartimenti stagni e lo promosse come inaffondabile, non fornì abbastanza scialuppe di salvataggio , il che alla fine si tradusse in tragedia quando si verificò il noto disastro.

    L’ex dipendente di OpenAI teme che l’azienda faccia troppo affidamento sulle sue attuali (e presumibilmente insufficienti) misure di sicurezza e ha suggerito che OpenAI dovrebbe ritardare il rilascio di nuovi modelli di IA per indagare sui potenziali pericoli . Saunders, che ha guidato un gruppo incentrato sulla comprensione dei comportamenti dei modelli di linguaggio di IA, ha espresso la necessità di sviluppare tecniche per valutare se questi sistemi “nascondono capacità o motivazioni pericolose”.

    Saunders ha anche espresso la sua delusione per le azioni di OpenAI fino a oggi. A febbraio ha lasciato l’azienda e a maggio OpenAI ha sciolto il team di superallineamento poco dopo aver rilasciato GPT-4 , il loro modello di intelligenza artificiale più avanzato.

    La risposta di OpenAI alle preoccupazioni sulla sicurezza e il loro ritmo accelerato di sviluppo sono stati criticati da vari dipendenti ed esperti, che hanno messo in guardia sulla necessità di un maggiore controllo governativo per prevenire future catastrofi.

    All’inizio di giugno, un gruppo di dipendenti di DeepMind e OpenAI ha pubblicato una lettera aperta , sottolineando che le attuali normative di controllo sono insufficienti per prevenire un disastro per l’umanità. Inoltre, Ilya Sutskever , co-fondatore di OpenAI ed ex scienziato capo, si è dimesso per avviare Safe Superintelligence , una startup che si concentrerà sulla ricerca sull’intelligenza artificiale con priorità sulla sicurezza.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.