Redazione RHC : 22 Agosto 2023 08:20
I programmi di intelligenza artificiale generativa come ChatGPT e Bard di Google hanno attirato l’attenzione del pubblico e il controllo dei legislatori, sebbene finora il Pentagono sia stato riluttante ad adottarli.
Ma recentemente, il Dipartimento della Difesa ha annunciato una task force per capire come potrebbe utilizzare tali strumenti in modo sicuro, rivelare situazioni in cui tali tecnologie non risultino sicure ed esplorare come paesi come la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti.
La task force, soprannominata Task Force Lima, “valuterà, sincronizzerà e impiegherà l’intelligenza artificiale generativa (AI) in tutto il Dipartimento“.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’intelligenza artificiale generativa si riferisce a “una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati”, secondo il World Economic Forum. È molto diverso dagli algoritmi di apprendimento automatico molto più semplici che prendono semplicemente dati strutturati come valori numerici e producono il prossimo probabile risultato statistico.
Gli strumenti di intelligenza artificiale generativa rivolti al pubblico includono i cosiddetti modelli di linguaggio di grandi dimensioni come ChatGPT che possono scrivere nuovo testo che è in gran parte indistinguibile dal linguaggio umano.
Questi strumenti sono già stati utilizzati per scrivere saggi, piani aziendali e persino articoli scientifici. Ma poiché i modelli di linguaggio di grandi dimensioni vengono addestrati su dati grandi quanto il Web, a volte mentono o, nel linguaggio dei ricercatori di intelligenza artificiale, vanno incontro alle “allucinazioni”.
Per questo motivo, i funzionari del Pentagono hanno espresso riluttanza ad abbracciare l’IA generativa.
Il nuovo sforzo sarà guidato da Craig Martell, chief digital officer del Dipartimento della Difesa. Martell ha detto che molto è ancora da capire, ma un obiettivo principale sarà quello di trovare una “serie di casi d’uso, all’interno del dipartimento”. Tuttavia, ci sono una serie di casi d’uso in cui i rischi di allucinazioni saranno troppo alti per impiegare un modello linguistico ampio, come “qualsiasi cosa cinetica” o avere a che fare con armi letali, ha affermato.
L’imageboard di 4chan è praticamente inattivo da lunedì sera (14 aprile), apparentemente a causa di un attacco hacker. I membri dell’imageboard Soyjak party (noto anche semplic...
Apple ha rilasciato patch di emergenza per correggere due vulnerabilità zero-day. Secondo l’azienda, questi problemi sono stati sfruttati in attacchi mirati ed “estremamen...
Quanto accaduto in questi giorni deve rappresentare un campanello d’allarme per l’Europa.Mentre il programma CVE — pilastro della sicurezza informatica globale — rischiava ...
Il 16 aprile 2025, Spotify ha subito un’interruzione del servizio che ha colpito numerosi utenti in Italia e nel mondo. A partire dalle ore 14:00, migliaia di segnalazioni sono state re...
Fourlis Group, il gestore dei negozi IKEA in Grecia, Cipro, Romania e Bulgaria, ha dichiarato di aver subito un attacco ransomware prima del Black Friday del 27 novembre 2024, che ha causato...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006