Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
LinkedIn sotto accusa: avrebbe usato i messaggi privati degli utenti per addestrare l’AI

LinkedIn sotto accusa: avrebbe usato i messaggi privati degli utenti per addestrare l’AI

29 Gennaio 2025 09:19

È stata presentata una denuncia legale contro LinkedIn, sostenendo che la piattaforma di networking professionale ha divulgato illecitamente messaggi privati ​​dei suoi abbonati Premium a terze parti per addestrare modelli di intelligenza artificiale (IA) generativa.

Un utente LinkedIn Premium, ha presentato la causa presso la Corte distrettuale settentrionale della California per conto proprio e di altri utenti paganti del servizio, accusando la società di aver divulgato “informazioni incredibilmente sensibili” riguardanti impiego, compensi e altre comunicazioni private a “affiliati” terzi all’interno della struttura aziendale del suo proprietario, senza il loro permesso.

Inoltre, la causa sostiene anche che, utilizzando discussioni private per addestrare modelli di intelligenza artificiale, l’azienda ha “incorporato in modo permanente” i dati dei clienti nei suoi sistemi di intelligenza artificiale, esponendoli a futuri utilizzi non autorizzati.

L’anno scorso, LinkedIn ha aggiornato i suoi termini di servizio confermando che utilizzerà i dati dei membri per addestrare modelli di intelligenza artificiale generativa. Nella sua politica sulla privacy aggiornata, l’azienda ha specificato che per la sua formazione di intelligenza artificiale utilizzerà “tecnologie di miglioramento della privacy per censurare o rimuovere dati personali dai suoi set di formazione e, sebbene abbia un’opzione di opt-out per i suoi utenti, questa è disattivata di default. Tuttavia, gli utenti dell’UE non sono rimasti interessati da queste modifiche.

La causa sostiene che le presunte azioni di LinkedIn sono particolarmente gravi poiché gli utenti Premium pagano quote per i loro abbonamenti, che includono una maggiore tutela della privacy, e chiede al tribunale di ordinare a LinkedIn di eliminare tutti i modelli di intelligenza artificiale addestrati utilizzando i messaggi privati ​​degli utenti Premium e di pagare 1.000 dollari di danni per utente interessato dalle azioni dell’azienda.

Rispondendo a una richiesta dei media, un portavoce di LinkedIn ha dichiarato a SiliconRepublic.com che la causa contiene “affermazioni false senza fondamento”.

Lo scorso ottobre, la Commissione irlandese per la protezione dei dati, al termine di un’indagine durata quasi sei anni su LinkedIn, ha inflitto alla società una multa di 310 milioni di euro dopo aver scoperto che le pratiche di elaborazione dei dati di LinkedIn violavano numerosi articoli del Regolamento generale sulla protezione dei dati (GDPR) dell’UE.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…