Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

L’IA sta rivoluzionando il mondo ma nasconde una questione cruciale: la dipendenza

Nicola Tarlini : 28 Aprile 2025 08:04

In questo articolo si vogliono aiutare le persone esperte e meno esperte tecnologicamente a comprendere cosa sia l’IA (Intelligenza Artificiale) e come questa possa e stia modificando il tessuto sociale della nostra realtà circostante.

Inizieremo con una breve storia riguardante la nascita dell’IA, un’analisi delle tipologie e delle applicazioni della stessa in vari campi della nostra vita, fino ad arrivare al punto centrale e l’obiettivo dell’articolo: la dipendenza da IA.

La nascita dell’IA moderna

L’essere umano ha sempre avuto un certo fascino nel cercare di automatizzare processi produttivi e non solo, creando i cosiddetti “automi”. Gli automi sono macchine che eseguono azioni in autonomia e senza l’intervento diretto dell’uomo. La prima volta che è stato creato il termine “automa” è stato intorno al 400 a.C. per poi essere ripreso da menti geniali, ad esempio Leonardo Da Vinci, molti anni dopo.

Iscriviti GRATIS alla RHC Conference 2025 (Venerdì 9 maggio 2025)

Il giorno Venerdì 9 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la RHC Conference 2025. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico.

La giornata inizierà alle 9:30 (con accoglienza dalle 9:00) e sarà interamente dedicata alla RHC Conference, un evento di spicco nel campo della sicurezza informatica. Il programma prevede un panel con ospiti istituzionali che si terrà all’inizio della conferenza. Successivamente, numerosi interventi di esperti nazionali nel campo della sicurezza informatica si susseguiranno sul palco fino alle ore 19:00 circa, quando termineranno le sessioni. Prima del termine della conferenza, ci sarà la premiazione dei vincitori della Capture The Flag prevista per le ore 18:00.
Potete iscrivervi gratuitamente all'evento utilizzando questo link.

Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

All’inizio del 1900 si è iniziato a parlare di argomenti considerati folli, ad esempio di esseri umani artificiali. Nel 1921, infatti, è stato introdotto il termine “robot” per la prima volta all’interno di un’opera di fantascienza “I robot universali di Rossum” a cura di Karel Čapek per parlare di persone artificiali[1].

Si è arrivati ad una svolta epocale nel momento in cui Edmund Callis Berkley, uno scienziato informatico, nel 1949, ha pubblicato un libro dal nome “Cervelli giganti o macchine che pensano”[2] con lo scopo di confrontare i nuovi modelli di computer con il cervello umano.

Ma è tra il 1950 e il 1955 che si è arrivati al culmine della ricerca e dello sviluppo dell’intelligenza artificiale con il contributo di Alan Turing, Arthur Samuel e John McCarthy. Queste, e non solo, menti illuminate hanno contribuito alla creazione del termine e alle idee che hanno, di fatto, dato il via alla nascita dell’intelligenza artificiale.

Da questo periodo storico fino ai nostri giorni, siamo arrivati ad utilizzare l’IA senza neanche accorgerci di cosa sia e senza neanche sapere come funzioni. Giornalmente varie forme di IA vengono utilizzate senza neanche la percezione dell’utente di chi, cosa o perché gli stia consigliando i contenuti che visualizza. Dalla tastiera che suggerisce le parole successive per comporre le frasi, passando per negozi online che mettono in evidenza i prodotti più affini fino ad arrivare a interi social network che si trasformano e si personalizzano autonomamente a seconda dell’utilizzatore.

Modelli di IA

Le intelligenze artificiali stanno permeando la quotidianità delle persone in molte forme diverse, come assistenti vocali (es. Cortana di Microsoft, Alexa di Amazon, Google Assistant di Google e Siri di Apple), robot sociali (es. Pepper di SoftBank Robotics America Inc), chatbot e chatbot per compagnia (es. Replika di Luka Inc, Anima: AI Friend di Labane Corp Ltd e Kindroid AI Companion di Kindroid), IA per video (es. AI Video Generator di HeyGen) e molto altro.

Ma cosa rende queste forme di IA così diversi l’uno dall’altro, pur avendo lo stesso ruolo o la stessa finalità? I modelli di IA.[3]

Una vera e propria definizione di quello che l’IA può ricevere e di come lavorare ciò che gli viene fornito per trarne delle conclusioni e poi un risultato finale nella forma definita. Ogni modello ha bisogno di essere “allenato” o, per meglio dire, tarato in modo da permettere di perfezionare le risposte ed evitare azioni non previste. I modelli di IA possono essere tarati per diversi scopi: riconoscimento di immagini e video, riconoscimento del linguaggio umano (linguaggio naturale), monitoraggio di anomalie, analisi di sistemi, predizione del comportamento, robotica, ecc.

I modelli di IA funzionano ricevendo vaste quantità di dati e generando o utilizzando approcci tecnici specifici possono scoprire tendenze e schemi che sono preesistenti nei dati forniti. Poiché il modello è sviluppato su un programma che funziona su grandi serie di dati, aiuta gli algoritmi a trovare e comprendere la correlazione in modelli e tendenze che possono essere utilizzati per prevedere o formulare strategie basate su dati precedentemente sconosciuti.

Ecco alcuni dei modelli di IA più comuni:

  • Modelli di apprendimento supervisionato: questi modelli imparano dai dati precedentemente etichettati e vengono utilizzati in compiti come il riconoscimento di immagini e parole, l’analisi dei sentimenti e il rilevamento delle frodi. Per esempio, un sistema IA che riconosce gli oggetti nelle immagini è stato addestrato utilizzando grandi quantità di dati di immagini, ognuna etichettata precedentemente con il nome dell’oggetto corretto.
  • Modelli di apprendimento non supervisionati: questi modelli apprendono schemi dai dati non etichettati e vengono utilizzati in compiti quali catalogazione (o raggruppamento), rilevamento delle anomalie e altre applicazioni tecniche. Ad esempio, le piattaforme di social media utilizzano questo tipo di modello IA per raggruppare gli utenti con interessi simili.
  • Modelli di apprendimento rinforzato: questi modelli imparano interagendo con un ambiente e ricevendo feedback sotto forma di ricompense o penalità. Sono utilizzati in settori quali la robotica, i giochi e la navigazione. Per esempio, le auto senza conducente utilizzano l’apprendimento di rinforzo per navigare su reti stradali complesse.
  • Modelli generativi: questi modelli apprendono la distribuzione sottostante dei dati e possono generare nuovi dati che assomigliano ai dati utilizzati durante l’”allenamento”. Sono utilizzati in settori quali la generazione di arte, la generazione di testi e la scoperta di farmaci.
  • Modelli di apprendimento trasferibili: questi modelli sono addestrati su un compito e perfezionati su un compito diverso ma correlato. Sono utilizzati in aree in cui i dati sono scarsi o costosi da raccogliere. Per esempio, un modello addestrato a riconoscere i gatti può essere perfezionato per riconoscere i cani.

Tutti questi modelli sono utilizzati in vari settori, tra cui sanità, finanza, istruzione, trasporti, intrattenimento e altro ancora. Aiutano a fare previsioni, automatizzare le attività, migliorare processi decisionali e creare esperienze personalizzate.

Dipendenza da IA

Il mondo è circondato, ormai, da un ambiente naturale di IA, dove la capacità generativa dell’IA viene sempre più utilizzata in vari contesti per l’apprendimento, l’intrattenimento e consigli personali, ben diverso dall’utilizzo classico delle tecnologie utilizzate in precedenza. Per fare un esempio, gli studenti possono chiedere all’IA di completare esami, compiti per casa o altro al posto loro. Questo può influenzare i giovani non permettendo loro di trovare delle motivazioni personali per cui assumersi delle responsabilità e può portare ad una perdita di pensiero critico e creativo.

Su “National Library of Medicine”, l’anno scorso, è stato pubblicato un interessante report intitolato “AI Technology panic—is AI Dependence Bad for Mental Health? A Cross-Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents”[4] con il supporto del National Social Science Fund of China. In questo report, gli scienziati hanno intervistato e analizzato le abitudini e i comportamenti di oltre 3.500 adolescenti cinesi e hanno scoperto che le motivazioni in comune che portano alla dipendenza da IA sono quella di tipo evasiva e quella sociale. In tale ricerca (realizzata un anno fa) si evidenzia come sia presto parlare di dipendenza vera e propria nei giovani riguardo l’utilizzo di IA. Allo stesso tempo, si evidenzia come i giovani stiano tendendo ad una alienazione dalla società che li circonda e di come preferiscano fare “amicizia” con le IA piuttosto che con altre persone.

Nello stesso periodo, altri ricercatori hanno scritto un articolo scientifico in cui venivano presi in esame circa 300 studenti della Corea del Sud e hanno verificato quelli che potevano essere degli effetti della dipendenza da IA. L’articolo è stato pubblicato a Maggio 2024 su “International Journal of Educational Technology in Higher Education” dal titolo “Do you have AI dependency? The roles of academic self-efficacy, academic stress, and performance expectations on problematic AI usage behavior”[5]. I risultati di tale ricerca scientifica hanno mostrato che l’efficacia accademica dei singoli studenti non era significativamente influenzata alla dipendenza da IA. Tuttavia, questa dipendenza deriva  principalmente dallo stress accademico e dalle aspettative di rendimento. Com’è naturale pensare, le conseguenze della dipendenza da IA sono variabili e personali. Fra le conseguenze più riscontrate abbiamo: l’aumento della pigrizia, la diffusione di informazioni errate, la diminuzione della creatività e la riduzione del pensiero critico e indipendente.

Secondo un report fornito da Forbes[6] metà degli utenti americani utilizza regolarmente la ricerca vocale tramite un assistente IA, quasi tre imprese su quattro hanno iniziato a utilizzare l’IA per almeno una funzione aziendale e, per finire, è prevista una sostituzione di circa 92 milioni di posti di lavoro in tutto il mondo entro il 2030.

Conclusioni

Non ci sono dubbi sulle capacità dei nuovi modelli di IA riguardo al supporto alle persone e al miglioramento della disponibilità delle informazioni sotto una forma più accessibile per tutti. Infatti, grazie a questa, adesso è possibile parlare quasi in simultanea in lingue diverse e farsi comprendere da più persone contemporaneamente, è possibile reperire ricerche scientifiche, dati pubblici e novità importanti nel giro di pochi secondi e con una spiegazione che possa riassumere il contenuto dei risultati corrispondenti alla richiesta.

L’Intelligenza Artificiale è un grande strumento e una grande risorsa per l’umanità per riuscire a colmare le disparità e le incomprensioni fra i popoli. Sta all’essere umano, come al solito, decidere come utilizzare uno strumento dal potenziale quasi illimitato.

Tuttavia, è importante notare che i modelli di IA non sono perfetti e possono commettere errori. Queste IA vengono allenate e vengono formate sulla base di dati selezionati da società e persone preparate per farlo. Cosa succederebbe se, durante l’allenamento di una IA, si inserissero solo dati falsati, non corretti o addirittura completamente inventati? Questi risponderebbero e si comporterebbero di conseguenza, portando risultati errati o compiendo azioni ingiuste.

Le IA dovrebbero essere utilizzati come strumenti per assistere gli esseri umani, non sostituirli.


[1] John M. Jordan, “The Czech Play That Gave Us the Word ‘Robot’”, 29 Luglio 2019, The MIT Press Reader, https://thereader.mitpress.mit.edu/origin-word-robot-rur/

[2] Church, A. (1950). Edmund Callis Berkeley. Giant brains. Or machines that think. John Wiley Sons, New York; Chapman & Hall, London; 1949, xvi + 270 pp. Journal of Symbolic Logic, 15(3), 202–203. doi:10.2307/2266793

[3] Tu, Xiaoguang & He, Zhi & Huang, Yi & Zhang, Zhi-Hao & Yang, Ming & Zhao, Jian. (2024). An overview of large AI models and their applications. Visual Intelligence. 2. 10.1007/s44267-024-00065-8.

[4] Huang S, Lai X, Ke L, Li Y, Wang H, Zhao X, Dai X, Wang Y. AI Technology panic—is AI Dependence Bad for Mental Health? A Cross-Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents. Psychol Res Behav Manag. 2024;17:1087-1102

[5] Zhang, S., Zhao, X., Zhou, T. et al. Do you have AI dependency? The roles of academic self-efficacy, academic stress, and performance expectations on problematic AI usage behavior. Int J Educ Technol High Educ 21, 34 (2024). https://doi.org/10.1186/s41239-024-00467-0

[6] Haan, K., & Holznienkemper, L. (2024, October 16). 22 top AI statistics and Trends. Forbes Advisor. https://www.forbes.com/advisor/business/ai-statistics/

Nicola Tarlini
Nicola è uno specialista della sicurezza informatica e lavora da oltre cinque anni nel settore. Ha iniziato la scalata professionale nella Cyber Security lavorando come analista di sicurezza per grandi aziende, tra cui grandi società bancarie e assicurative. Ha poi avviato un percorso lavorativo incentrato sul coordinamento di progetti di evoluzione digitale e miglioramento della sicurezza per società di multi-utility. Attualmente lavora come ingegnere per la sicurezza informatica per grandi società, con lo scopo di costruire e progettare infrastrutture ibride e soluzioni per il monitoraggio attivo ed efficiente della sicurezza perimetrale e non solo. Le capacità sviluppate di comunicazione sono state utili per lavorare anche come formatore di un team di 10 analisti SOC su tecnologie specifiche.

Lista degli articoli

Articoli in evidenza

Cyberattacchi senza precedenti: il Report DarkMirror di DarkLab lancia l’allarme per l’Italia

Il report DarkMirror Q1 2025 di DarkLab, il laboratorio di Cyber Threat Intelligence di Red Hot Cyber, offre un’analisi dettagliata dell’evoluzione del ransomware in Italia e nel mondo. ...

Ma quale Agenda 2030! 9 reattori nucleari per un chatbot è l’altra faccia dell’intelligenza artificiale

Lo sviluppo di supercomputer per l’intelligenza artificiale sta entrando in una nuova orbita: in termini di scala, costi e consumi energetici e infrastrutture e megaprogetti. Uno studio condott...

25 Aprile: Dalla Resistenza alla Cyber Resistenza – Difendiamo la Libertà Digitale

Il 25 Aprile, data simbolo della Liberazione italiana dal fascismo, ci ricorda il valore della libertà, conquistata con il sacrificio di partigiani e combattenti. In un’era dominata dal di...

Le Action Figure della Cyber Security. Red Hot Cyber lancia la serie “Chiama Ammiocuggino!”

In un mondo dove ogni giorno si registrano migliaia di attacchi informatici, molte aziende continuano a sottovalutare l’importanza della cybersecurity, affidandosi a “sedicenti esperti&#...

GPT-4 scrive un exploit prima del PoC pubblico. La corsa alla Patch non è mai stata così essenziale

AI, AI e ancora AI. E sembra che l’intelligenza artificiale giorno dopo giorno ci porti innovazioni sia come difesa ma soprattutto, come attacco. L’intelligenza artificiale è gi...