Redazione RHC : 17 Luglio 2021 07:00
Le guerra “autonoma” sta per arrivare.
E con lei anche un arsenale di macchine intelligenti capaci di poter decidere se e come attaccare.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ne parlammo di recente in un nostro articolo dal titolo “Un drone militare guidato da una intelligenza artificiale, può uccidere?“, ma sembra che le cose stiano andando avanti, anche in questo caso in modo “autonomo”.
Infatti, il possibile utilizzo da parte di Russia e Cina di droni e sistemi d’arma basati sull’intelligenza artificiale preoccupa molto il Pentagono. Questo è stato scritto dall’editorialista Chris Osborne di recente in un suo articolo per il The National Interest.
L’autore fa riferimento alla dichiarazione del tenente generale Michael Groen, secondo il quale, se la Russia creerà una “IA militare”, gli Stati Uniti e i suoi alleati non potranno dare una risposta equivalente.
Ha spiegato questo con il fatto che le armi controllate dall’intelligenza artificiale non saranno guidate da considerazioni etiche o umanitarie prima di lanciare un attacco, mentre negli Stati Uniti, che non hanno un tale sistema, le persone prenderanno la decisione di attaccare evitando di far fare questo alle macchine.
A tal proposito, il tenente generale ritiene necessario creare e utilizzare armi altamente efficaci con il supporto dell’IA nel rispetto degli standard etici esistenti.
Attualmente, il Dipartimento della Difesa degli Stati Uniti sta valutando la possibilità di creare sistemi di intelligenza artificiale in grado di utilizzare armi non letali o di tipo difensivo contro missili, mortai e droni antinave in avvicinamento.
Questo, secondo i militari, aiuterà a introdurre principi etici nell’uso delle armi basate sull’intelligenza artificiale.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006