Redazione RHC : 22 Novembre 2023 07:44
Perché la “memoria” dei cani robot giapponesi AIBO è archiviata nel cloud e in che modo gli esperti di marketing ci fanno provare simpatia per gli oggetti inanimati? Leggi questo in un estratto dal libro del pioniere della crittografia moderna, Bruce Schneier.
Durante le elezioni americane del 2016, circa un quinto di tutti i tweet politici sono stati postati da bot. Durante il voto sulla Brexit nel Regno Unito di quell’anno, la quota era pari a un terzo. Un rapporto del 2019 dell’Oxford Internet Institute ha trovato prove dell’uso di bot per diffondere propaganda in 50 paesi. Di norma, si trattava di programmi semplici, che ripetevano slogan senza pensare. Ad esempio, dopo l’omicidio di Jamal Khashoggi nel 2018, circa un quarto di milione di tweet filo-sauditi, “Ci fidiamo tutti del [principe ereditario] Mohammed bin Salman”, sono stati pubblicati tramite bot.
Nel 2017, la Federal Communications Commission ha annunciato che avrebbe avviato discussioni pubbliche online sui suoi piani per abrogare la neutralità della rete. Sono stati ricevuti l’incredibile cifra di 22 milioni di commenti, molti dei quali, forse la metà, sono stati inviati utilizzando identità rubate. Questi commenti falsi sono stati fatti in modo molto rozzo: 1,3 milioni di essi sarebbero stati creati a partire dallo stesso modello, con alcune parole modificate per renderlo unico. Questo era visibile ad occhio nudo.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Tali tentativi diventeranno sempre più sofisticati. Per anni, i programmi di intelligenza artificiale hanno prodotto notizie sportive e finanziarie per organi di informazione reali come l’Associated Press. La natura limitata della maggior parte dei report su questi argomenti ha reso più semplice l’adattamento all’intelligenza artificiale. Oggi l’intelligenza artificiale viene utilizzata per scrivere storie più generali. I moderni sistemi di generazione di testo come GPT-3 di Open AI possono scrivere storie vere basate sui fatti che forniscono, ma possono anche scrivere notizie false quando vengono alimentate con bugie.
Non ci vuole molta immaginazione per capire come l’intelligenza artificiale peggiorerà il discorso politico. I personaggi controllati dall’intelligenza artificiale possono già scrivere lettere a giornali e funzionari eletti, lasciare commenti comprensibili su siti di notizie e bacheche e discutere di politica sui social network. Man mano che questi sistemi diventano più dettagliati e simulano in modo più convincente la personalità, diventa sempre più difficile distinguerli dalle persone reali. Le tattiche che una volta erano ovvie non sono più così facili da riconoscere oggi.
In un recente esperimento, i ricercatori hanno utilizzato un programma di generazione di testo per inviare 1.000 commenti in risposta a una richiesta del governo affinché i cittadini intervenissero su una questione di aiuto medico. Ogni commento sembrava unico, come se persone reali difendessero le proprie posizioni politiche. Gli amministratori del sito Medicaid.gov non hanno nemmeno dubitato della loro autenticità e hanno preso tutto per oro colato. I ricercatori hanno successivamente segnalato loro questi commenti e hanno chiesto loro di rimuoverli per evitare pregiudizi nei dibattiti politici. Tuttavia, non tutti saranno così etici.
Questi metodi vengono già utilizzati nel mondo reale per influenzare la politica. Una campagna di propaganda online ha utilizzato immagini facciali generate dall’intelligenza artificiale per creare falsi giornalisti. La Cina ha diffuso messaggi di testo generati dall’intelligenza artificiale progettati per influenzare le elezioni di Taiwan del 2020. La tecnologia Deepfake, che utilizza l’intelligenza artificiale per creare video realistici di eventi falsi, spesso coinvolgendo persone reali, per raffigurarle mentre dicono qualcosa che non hanno mai detto, è già in uso per scopi politici in paesi come Malesia, Belgio e Stati Uniti.
Un esempio di estensione di questa tecnologia è il bot come persone. Un’intelligenza artificiale che finge di essere un essere umano sui social media. I bot hanno una storia personale, un carattere e uno stile di comunicazione propri. Non si impegnano in una vera e propria propaganda. Tali robot vengono introdotti in vari gruppi di interesse: giardinaggio, lavoro a maglia, modellismo ferroviario, qualunque cosa. Si comportano come membri regolari di queste comunità, pubblicano, commentano e discutono. Sistemi come GPT-3 consentono loro di estrarre facilmente informazioni da conversazioni precedenti e contenuti Internet rilevanti per apparire come esperti in un particolare campo.
Quindi, di tanto in tanto, la persona del bot potrebbe pubblicare qualcosa di politico, come un articolo sulla reazione allergica di un operatore sanitario al vaccino COVID-19, accompagnato da commenti preoccupati. Oppure fornire l’opinione sulle recenti elezioni, sulla giustizia razziale o su qualsiasi altro argomento polarizzante. Una “persona-bot” non può cambiare l’opinione pubblica, ma cosa succede se ce ne sono migliaia? O milioni?
A questo fenomeno è già stato dato un nome: propaganda computazionale. Cambierà radicalmente la nostra comprensione della comunicazione. L’intelligenza artificiale ha il potenziale per rendere infinita la diffusione della disinformazione. E può cambiare completamente il concetto stesso di comunicazione. Nel 2012, l’etica della robotica Kate Darling ha condotto un esperimento con un dinosauro di plastica animatronica chiamato Cleo, un giocattolo che rispondeva in modo diverso al tatto. Dopo che i partecipanti alla conferenza scientifica hanno giocato con Cleo, lei ha cercato di convincerli a “ferire” il giocattolo in vari modi.
Tuttavia, anche giocare con Cleo per un breve periodo ha fatto provare così tanta simpatia alle persone che si sono rifiutate di farlo, anche se il giocattolo chiaramente non sentiva dolore. Questa è una reazione umana fondamentale. Intellettualmente potremmo capire che Cleo sia solo un dinosauro di plastica verde, ma la grande testa abbinata ad un corpo piccolo ci fa percepire l’oggetto come un bambino. Inoltre, il giocattolo ha un nome che ci dice che è “lei”! E lei reagisce ai nostri tocchi!
All’improvviso iniziamo a trattarla come un essere vivente e ci sentiamo obbligati a proteggerla da qualsiasi male. E anche se questa reazione sembra piuttosto benevola, cosa succede quando questo simpatico robottino guarda i suoi proprietari con grandi occhi tristi e chiede loro di comprargli un aggiornamento software?