Redazione RHC : 19 Agosto 2024 09:23
Quello che stiamo per raccontarvi è qualcosa di inquietante, che risulta una ennesima deriva dell’intelligenza artificiale generativa e delle regolamentazioni ancora assenti sulle quali occorre lavorare.
Il Regno Unito ha dovuto affrontare un incidente inquietante in cui una famiglia è finita in ospedale dopo aver consumato funghi velenosi raccolti seguendo le raccomandazioni contenute in un libro acquistato da un’importante piattaforma online.
Questo libro di identificazione dei funghi, destinato ai principianti, è stato generato utilizzando l’intelligenza artificiale e conteneva errori che potevano portare a conseguenze tragiche.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il libro, con un titolo simile a Mushrooms UK: A Guide to Harvesting Safe and Edible Mushrooms, è stato regalato al compleanno di un capofamiglia. Tuttavia, dopo che tutti i membri della famiglia hanno manifestato sintomi di grave avvelenamento, è diventato chiaro che il libro conteneva informazioni errate. Dopo un’analisi più attenta, si è scoperto che le immagini dei funghi nel libro erano state generate dall’intelligenza artificiale e che il testo conteneva incongruenze e frasi senza senso.
Il caso ha portato l’attenzione del pubblico una questione più ampia: la proliferazione di libri scritti dall’intelligenza artificiale su piattaforme come Amazon. Gli esperti avvertono che tali libri possono essere pericolosi poiché contengono errori che potrebbero costare vite umane. Ad esempio, alcuni consigliano di utilizzare l’olfatto o il gusto per identificare i funghi, un metodo che può essere fatale. Oltre a ciò, è stato rivelato che molti di questi libri scritti dalle AI, i loro autori reali spesso non sono disponibili per essere contattati.
Amazon ha già ritirato dalla vendita questo particolare libro e ha dichiarato il proprio impegno per la sicurezza degli utenti. Tuttavia, il problema rimane: sulla piattaforma si possono ancora trovare molti libri simili, il che continua a rappresentare una minaccia per gli acquirenti disinformati.
Questo caso evidenzia l’importanza di selezionare attentamente le fonti di informazione, soprattutto in aree critiche come la raccolta dei funghi. Errori in tali libri possono avere gravi conseguenze, sollevando interrogativi sulla necessità di una regolamentazione più rigorosa dei contenuti generati dall’intelligenza artificiale.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006