Redazione RHC : 22 Agosto 2023 08:20
I programmi di intelligenza artificiale generativa come ChatGPT e Bard di Google hanno attirato l’attenzione del pubblico e il controllo dei legislatori, sebbene finora il Pentagono sia stato riluttante ad adottarli.
Ma recentemente, il Dipartimento della Difesa ha annunciato una task force per capire come potrebbe utilizzare tali strumenti in modo sicuro, rivelare situazioni in cui tali tecnologie non risultino sicure ed esplorare come paesi come la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti.
La task force, soprannominata Task Force Lima, “valuterà, sincronizzerà e impiegherà l’intelligenza artificiale generativa (AI) in tutto il Dipartimento“.
SCORSO DEL 25% SUL CORSO NIS2 FINO AL 31 DICEMBRE!
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce. Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi alla pagina del corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON NIS-84726 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’intelligenza artificiale generativa si riferisce a “una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati”, secondo il World Economic Forum. È molto diverso dagli algoritmi di apprendimento automatico molto più semplici che prendono semplicemente dati strutturati come valori numerici e producono il prossimo probabile risultato statistico.
Gli strumenti di intelligenza artificiale generativa rivolti al pubblico includono i cosiddetti modelli di linguaggio di grandi dimensioni come ChatGPT che possono scrivere nuovo testo che è in gran parte indistinguibile dal linguaggio umano.
Questi strumenti sono già stati utilizzati per scrivere saggi, piani aziendali e persino articoli scientifici. Ma poiché i modelli di linguaggio di grandi dimensioni vengono addestrati su dati grandi quanto il Web, a volte mentono o, nel linguaggio dei ricercatori di intelligenza artificiale, vanno incontro alle “allucinazioni”.
Per questo motivo, i funzionari del Pentagono hanno espresso riluttanza ad abbracciare l’IA generativa.
Il nuovo sforzo sarà guidato da Craig Martell, chief digital officer del Dipartimento della Difesa. Martell ha detto che molto è ancora da capire, ma un obiettivo principale sarà quello di trovare una “serie di casi d’uso, all’interno del dipartimento”. Tuttavia, ci sono una serie di casi d’uso in cui i rischi di allucinazioni saranno troppo alti per impiegare un modello linguistico ampio, come “qualsiasi cosa cinetica” o avere a che fare con armi letali, ha affermato.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009