Redazione RHC : 7 Ottobre 2024 07:36
I dispositivi intelligenti in movimento, per migliorare le proprie prestazioni, si basano sempre più sulle immagini che acquisiscono. Tuttavia, esiste una linea sottile tra l’uso dei dati per l’innovazione e la tutela della privacy, che richiede un’attenta valutazione.
Recentemente è stato scoperto che i robot aspirapolvere della Ecovacs, soffrono di gravi vulnerabilità in termini di sicurezza informatica . I prodotti raccolgono foto, video e registrazioni vocali scattate nelle case degli utenti per addestrare i modelli di intelligenza artificiale dell’azienda. Ecovacs, il produttore cinese dei famosi modelli Deebot, si è impegnato a sistemare queste vulnerabilità nel più breve tempo possibile.
Ha affermato che gli utenti partecipano volontariamente a un programma di miglioramento del prodotto, anche se quando si collegano tramite un’app per smartphone non specifica quali dati verranno raccolti.
SCONTO ESTREMO DEL 50% FINO AL 31 Dicembre sul corso Dark Web & Cyber Threat Intelligence in E-learning version
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti
darà diritto ad uno sconto del 50% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765.
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Secondo la politica sulla privacy di Ecovacs , l’azienda può raccogliere mappe delle case 2D e 3D, registrazioni vocali del microfono e immagini della fotocamera del dispositivo a fini di ricerca e del miglioramento del prodotto stesso.
Ma anche dopo che tali dati sono stati cancellati, potrebbero rimanere sui server Ecovacs ed essere utilizzati per ulteriori sviluppi anche da eventuali attacchi informatici da parte di terzi. I rappresentanti dell’azienda hanno confermato che i dati raccolti vengono utilizzati per addestrare l’intelligenza artificiale, mentre le informazioni sarebbero rese anonime a livello di dispositivo.
Tuttavia, gli esperti di sicurezza informatica hanno espresso preoccupazioni sulla capacità dei dispositivi intelligenti di proteggere tali dati. In precedenza, il ricercatore Dennis Giese aveva identificato delle vulnerabilità che consentono l’accesso remoto alle telecamere degli aspirapolvere, mettendo in discussione la sicurezza delle informazioni riservate degli utenti. Il ricercatore ha inoltre sottolineato che, anche se un’azienda non ha intenzioni dolose, potrebbe diventare vittima dello spionaggio industriale o delle azioni di altri Stati.
Ecovacs, valutata 4,6 miliardi di dollari, ha promesso di risolvere i problemi segnalati sui suoi modelli di punta già a novembre. La società ha inoltre affermato che i dati raccolti nell’ambito del programma di miglioramento del prodotto vengono resi anonimi prima di essere inviati ai server e l’accesso agli stessi è limitato da rigorosi protocolli di governance.
Si sono già verificati casi di immagini trapelate scattate da aspirapolvere robotici. Nel 2022, le foto intime scattate dai dispositivi iRobot sono state pubblicate su Facebook, suscitando una tempesta di critiche sulla sicurezza dei dati raccolti da tali dispositivi. Queste perdite erano dovute alle azioni degli appaltatori assunti per analizzare i dati raccolti. Una delle società responsabili della fuga di dati, Scale AI, è specializzata nella creazione di dati per algoritmi di addestramento e i suoi appaltatori hanno precedentemente diffuso immagini degli utenti sui social media.
Nel frattempo, i ricercatori dell’Australian Robotics Centre hanno sviluppato una tecnologia che potrebbe prevenire tali incidenti. Cambia il modo in cui funziona la fotocamera di un robot, rendendo le immagini irriconoscibili pur conservando informazioni sufficienti per la navigazione. Questa soluzione potrebbe essere la chiave per migliorare la privacy in futuro, ma non è ancora pronta per la produzione di massa.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009