Redazione RHC : 23 Novembre 2023 17:56
Prima del licenziamento del CEO di OpenAI Sam Altman, dei ricercatori hanno scritto al CDA dell’azienda avvertendo di una scoperta che secondo loro “potrebbe minacciare l’umanità”.
Questo lo ha riportato Reuters dopo aver avuto contatti con due persone a conoscenza della questione.
Questa lettera probabilmente ha influito sugli sviluppi chiave relativi alla cacciata di Altman da parte del consiglio. Altman è di fatto il simbolo dell’intelligenza artificiale generativa.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Prima del suo ritorno trionfale martedì scorso, più di 700 dipendenti avevano minacciato di dimettersi in massa. Questo dopo che Microsoft aveva offerto un posto ad Altman per guidare il reparto AI.
Le fonti hanno citato la lettera come uno dei fattori che hanno portato al licenziamento di Altman. Tra queste anche la commercializzazione dei progressi prima di comprenderne le conseguenze.
Al momento questa lettera non è stata divulgata e le persone contattate da Reuters non hanno risposto alle richieste di commento.
Dopo essere stata contattata da Reuters, OpenAI, che ha rifiutato di commentare. Ha riconosciuto in un messaggio interno allo staff un progetto chiamato Q*. Ha anche confermato di una lettera inviata al consiglio prima degli eventi del fine settimana, ha detto una delle persone.
Un portavoce di OpenAI ha affermato che il messaggio, inviato dal dirigente di lunga data Mira Murati, ha allertato lo staff.
Alcuni di OpenAI credono che Q* (pronunciato Q-Star) potrebbe essere una svolta nella ricerca verso l’intelligenza generale artificiale (AGI), ha detto a Reuters una delle persone. OpenAI definisce l’AGI come sistemi autonomi che superano gli esseri umani nei compiti economicamente più preziosi.
Date le vaste risorse informatiche, il nuovo modello è stato in grado di risolvere alcuni problemi matematici. Questo lo ha riportato la persona in condizione di anonimato perché non era autorizzata a parlare a nome dell’azienda.
Sebbene eseguissero calcoli solo al livello degli studenti delle scuole elementari, il superamento di tali test ha reso i ricercatori molto ottimisti riguardo al futuro successo di Q*, ha detto la fonte.
Gli hacker di NoName057(16) continuano anche oggi le loro attività ostili contro diversi obiettivi italiani, attraverso attacchi di Distributed Denial-of-Service (DDoS). A farne le...
Il settore delle telecomunicazioni è sempre più nel mirino dei cybercriminali, e l’ultimo attacco subito da Orange Group, uno dei principali operatori francesi, lo dimostra. Un hacker...
Un team di ricercatori dell’Università della California, Berkeley, e del Center for AI Safety ha sviluppato HackSynth, un sistema avanzato basato su Large Language Models (LLM) per lȁ...
Oggi, viviamo in un mondo in cui il WiFi è una necessità fondamentale, ma come è nata questa tecnologia che ormai diamo per scontata? Come si è poi sviluppata per diventare la...
Gli hacker di NoName057(16) continuano ancora le loro attività ostili contro diversi obiettivi italiani, attraverso attacchi di Distributed Denial-of-Service (DDoS). Gli obiettivi ...
Copyright @ 2003 – 2024 REDHOTCYBER Srl
PIVA 17898011006