Redazione RHC : 22 Agosto 2023 08:20
I programmi di intelligenza artificiale generativa come ChatGPT e Bard di Google hanno attirato l’attenzione del pubblico e il controllo dei legislatori, sebbene finora il Pentagono sia stato riluttante ad adottarli.
Ma recentemente, il Dipartimento della Difesa ha annunciato una task force per capire come potrebbe utilizzare tali strumenti in modo sicuro, rivelare situazioni in cui tali tecnologie non risultino sicure ed esplorare come paesi come la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti.
La task force, soprannominata Task Force Lima, “valuterà, sincronizzerà e impiegherà l’intelligenza artificiale generativa (AI) in tutto il Dipartimento“.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’intelligenza artificiale generativa si riferisce a “una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati”, secondo il World Economic Forum. È molto diverso dagli algoritmi di apprendimento automatico molto più semplici che prendono semplicemente dati strutturati come valori numerici e producono il prossimo probabile risultato statistico.
Gli strumenti di intelligenza artificiale generativa rivolti al pubblico includono i cosiddetti modelli di linguaggio di grandi dimensioni come ChatGPT che possono scrivere nuovo testo che è in gran parte indistinguibile dal linguaggio umano.
Questi strumenti sono già stati utilizzati per scrivere saggi, piani aziendali e persino articoli scientifici. Ma poiché i modelli di linguaggio di grandi dimensioni vengono addestrati su dati grandi quanto il Web, a volte mentono o, nel linguaggio dei ricercatori di intelligenza artificiale, vanno incontro alle “allucinazioni”.
Per questo motivo, i funzionari del Pentagono hanno espresso riluttanza ad abbracciare l’IA generativa.
Il nuovo sforzo sarà guidato da Craig Martell, chief digital officer del Dipartimento della Difesa. Martell ha detto che molto è ancora da capire, ma un obiettivo principale sarà quello di trovare una “serie di casi d’uso, all’interno del dipartimento”. Tuttavia, ci sono una serie di casi d’uso in cui i rischi di allucinazioni saranno troppo alti per impiegare un modello linguistico ampio, come “qualsiasi cosa cinetica” o avere a che fare con armi letali, ha affermato.
In un recente scambio con l’intelligenza artificiale Grok 3, è emerso un tema delicato e controverso: la pena di morte e chi, tra le persone viventi oggi in America, potrebbe meritarla per...
Negli ultimi giorni, il collettivo hacktivista italiano Anonymous Italia ha risposto agli attacchi informatici sferrati dal gruppo filorusso NoName057(16) colpendo una serie di obiettivi russi. Gli at...
Gruppo di ricerca MASSGRAVE ha presentato un Exploit chiamato TSforge che consente di attivare qualsiasi versione di Windows a partire da Windows 7, nonché tutte le edizioni di Microsof...
Su BreachForum un utente dallo pseudonimo EDRVendor ha venduto, dopo poche ore dall’annuncio, l’accesso ad una cassetta postale della polizia di stato italiana. Oltre alla mail viene off...
Team di intelligence sulle minacce di Google ha reso pubblica l’informazione sul gruppo di hacker Triplestrength, finora sconosciuto, attivo dal 2020. Il gruppo è composto da poc...
Copyright @ 2003 – 2024 REDHOTCYBER Srl
PIVA 17898011006