Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca
Vulnerabilità Critiche in Splunk Enterprise Consentono l’Esecuzione di Codice Remoto  ///    hai una start-up innovativa sulla cybersecurity? Candidati alla call!    ///  Un Threat Actors mette in vendita 180.000 utenti di Shopify  ///    scopri betti-rhc, il fumetto sul cybersecurity awareness    ///  GlitchZone: la Nuova Frontiera della Cybersecurity Promossa da Scientifica Venture Capital  ///    Scropri i corsi di Red Hot Cyber    ///  CPU Intel Vulnerabili! Nuovo Attacco “Indirector” Minaccia Rileva Dati Sensibili  ///    Iscriviti al nostro canale Whatsapp    ///  OpenSSH: Una RCE eseguita come Root mette a rischio 14 milioni di istanze su Linux  ///    hai una start-up innovativa sulla cybersecurity? Candidati alla call!    ///  Poseidon, il Dio dei Malware! MacOS Affonda nel Malvertising  ///    scopri betti-rhc, il fumetto sul cybersecurity awareness    ///  Juniper Networks Rilascia Aggiornamenti di Sicurezza per una Vulnerabilità Critica 10.0  ///    Scropri i corsi di Red Hot Cyber    ///  Bologna: Gli hacker scrivono un’App Illegale che paralizza il Bike Sharing. L’80% delle Biciclette Fuori Uso  ///    Iscriviti al nostro canale Whatsapp    ///  Il database del Dipartimento elettorale della Virginia potrebbe essere stato violato e finisce nel Dark Web  ///    hai una start-up innovativa sulla cybersecurity? Candidati alla call!    ///  Cambridge University Press & Assessment finisce nel DLS di INC Ransomware  ///  

Breve Storia Dell’Intelligenza artificiale. Da Alan Turing alle AI Generative

Redazione RHC : 1 Luglio 2024 08:08

L’intelligenza artificiale (AI) è oggi sotto i riflettori, generando interesse e dibattito senza precedenti. Tuttavia, è importante riconoscere che questa tecnologia rivoluzionaria ha una ricca storia che abbraccia oltre settant’anni di sviluppo continuo. Per apprezzare appieno le capacità e il potenziale dei moderni strumenti di intelligenza artificiale, è necessario tracciare l’evoluzione di questo campo, dalle sue origini allo stato attuale.

Questo contesto storico non solo approfondisce la nostra comprensione dei progressi attuali, ma ci consente anche di prevedere con maggiore precisione le direzioni future dello sviluppo dell’IA.

Alan Turing: COMPUTING MACHINERY AND INTELLIGENCE

La storia dell’intelligenza artificiale inizia con una pubblicazione di Alan Turing nel 1950, in cui pose la domanda: “Le macchine possono pensare?” Propose il “gioco dell’imitazione”, ora noto come test di Turing, in cui una macchina è considerata intelligente se non può essere distinta da un essere umano in una conversazione cieca.

Il Dartmouth Summer Research Project

Nel 1955, la frase “intelligenza artificiale” fu usata per la prima volta in una proposta per il Dartmouth Summer Research Project sull’intelligenza artificiale. Da allora, l’intelligenza artificiale ha attraversato diverse fasi di sviluppo.

A partire dagli anni ’60 iniziarono a svilupparsi sistemi esperti che rappresentavano l’IA simbolica. Questi sistemi registravano la conoscenza umana in aree specializzate. Un esempio notevole è stato il sistema R1, che nel 1982 ha aiutato la Digital Equipment Corporation a risparmiare 25 milioni di dollari all’anno creando configurazioni efficienti di minicomputer.

Il vantaggio dei sistemi esperti era che gli specialisti senza conoscenze di programmazione potevano creare e mantenere basi di conoscenza. Questi sistemi rimasero popolari negli anni ’80 e sono ancora in uso oggi.

Mentre i sistemi esperti modellavano la conoscenza umana, un movimento noto come connessionismo cercava di modellare il cervello umano. Nel 1943, Warren McCulloch e Walter Pitts svilupparono un modello matematico dei neuroni.

Il Multilayer Perceptron (MLP)

Le prime implementazioni informatiche delle reti neurali furono create nel 1960 da Bernard Widrow e Ted Hoff. Tuttavia, questi modelli hanno trovato applicazione pratica solo nel 1986 con l’avvento dell’algoritmo di apprendimento per il percettrone multistrato (MLP). Questo algoritmo ha consentito ai modelli di apprendere dagli esempi e quindi classificare nuovi dati.

L’MLP è un’architettura chiave nel campo delle reti neurali artificiali, tipicamente costituite da tre o quattro strati di neuroni artificiali. Ogni livello di questa struttura è completamente connesso al successivo, il che garantisce un’efficiente trasmissione ed elaborazione delle informazioni.

Una svolta rivoluzionaria nello sviluppo dell’MLP si è verificata con l’avvento dell’algoritmo di backpropagation. Questo metodo di apprendimento ha permesso di creare il primo strumento pratico in grado non solo di apprendere informazioni da un set di dati di addestramento, ma anche di generalizzare efficacemente la conoscenza acquisita per classificare dati di input nuovi e mai visti prima.

Il modo in cui funziona l’MLP si basa sull’assegnazione di pesi numerici alle connessioni tra neuroni e sulla loro messa a punto. Il processo di addestramento consiste nell’ottimizzare questi pesi per ottenere la migliore classificazione sui dati di addestramento. Una volta completata la formazione, la rete è in grado di classificare con successo nuovi esempi.

MLP dimostra una versatilità impressionante, che gli consente di risolvere un’ampia gamma di problemi pratici. Una condizione fondamentale per un utilizzo efficace è la presentazione dei dati in un formato compatibile con l’architettura di rete. Un classico esempio di utilizzo dell’MLP è il riconoscimento dei caratteri scritti a mano. Tuttavia, per ottenere risultati ottimali in questa attività, è necessaria la pre-elaborazione delle immagini per estrarre le caratteristiche principali.

Da MLP alle Convolutional Neural Network (CNN)

Dopo il successo dell’MLP sono emerse varie forme di reti neurali. Una di queste è stata la rete neurale convoluzionale (CNN) del 1998, in grado di identificare automaticamente le caratteristiche chiave delle immagini.

MLP e CNN rientrano nella categoria dei modelli discriminativi. La loro funzione principale è prendere decisioni classificando i dati di input, che consentono l’interpretazione, la diagnosi, la previsione o le raccomandazioni sulla base delle informazioni ricevute.

Parallelamente allo sviluppo di modelli discriminativi, procedeva lo sviluppo di reti neurali generative. Questi modelli hanno la capacità unica di creare nuovi contenuti dopo essere stati addestrati su ampi set di esempi esistenti. L’ambito dei modelli generativi è estremamente ampio e comprende la generazione di testi da brevi messaggi a opere letterarie a tutti gli effetti, la creazione di immagini da semplici illustrazioni a complesse composizioni fotorealistiche, la composizione di musica da melodie a opere musicali a tutti gli effetti, così come così come la sintesi di nuove sequenze di dati che contribuiscono alle scoperte scientifiche in vari settori.

Pertanto, mentre i modelli discriminativi si specializzano nell’analisi e nella classificazione dei dati esistenti, i modelli generativi aprono nuovi orizzonti nel campo dell’intelligenza artificiale, consentendo la creazione di contenuti unici e promuovendo l’innovazione nella scienza e nell’arte. Questa varietà di approcci e capacità dimostra la versatilità e il potenziale delle moderne reti neurali nel risolvere un’ampia gamma di problemi e nel creare nuove forme di attività intellettuale.

Le Reti Generative Avversarie (GAN) e i Large Language Model

I modelli generativi includono reti generative avversarie (GAN) e reti di trasformatori, come GPT-4 e la sua versione testuale ChatGPT. Questi modelli sono addestrati su enormi set di dati e sono in grado di generare testo, immagini e musica.

Gli impressionanti progressi nei modelli linguistici di grandi dimensioni (LLM) hanno dato origine a un’ondata di previsioni allarmanti sul dominio dell’intelligenza artificiale nel mondo. Tuttavia, tali scenari apocalittici sembrano ingiustificati e prematuri. Non c’è dubbio che i moderni modelli di intelligenza artificiale abbiano compiuto progressi significativi rispetto ai loro predecessori, ma il loro sviluppo mira ad aumentare la capacità, l’affidabilità e la precisione, piuttosto che ad acquisire autoconsapevolezza o autonomia.

Falsi miti e paure dell’Intelligenza Artificiale

Il professor Michael Wooldridge, parlando alla Camera dei Lord del Regno Unito nel 2017, ha giustamente osservato: “La fantasia hollywoodiana delle macchine coscienti non è inevitabile, e non vedo alcun modo reale per realizzarla”. Sette anni dopo, questa valutazione rimane rilevante, evidenziando il divario tra la realtà scientifica e i miti popolari sull’IA.

Il potenziale dell’intelligenza artificiale offre molte prospettive positive ed entusiasmanti, ma è importante ricordare che il machine learning è solo uno strumento nell’arsenale dell’IA. L’intelligenza artificiale simbolica continua a svolgere un ruolo importante nel consentire l’integrazione della conoscenza consolidata, della comprensione e dell’esperienza umana nei sistemi.

Gli esempi di applicazioni pratiche di questo approccio combinato sono numerosi. Le auto a guida autonoma potrebbero essere programmate per tenere conto delle regole del traffico, eliminando la necessità di “imparare dagli errori”. I sistemi diagnostici medici basati sull’intelligenza artificiale possono essere verificati confrontando i loro risultati con le conoscenze mediche esistenti, aumentando l’affidabilità e la spiegabilità dei risultati. Le norme sociali e i principi etici possono essere incorporati negli algoritmi per filtrare contenuti inappropriati o distorti.

Il futuro dell’intelligenza artificiale è visto come ottimista e sfaccettato. Sarà caratterizzato dalla sinergia di vari metodi e approcci, compresi quelli sviluppati decenni fa. Questo approccio olistico creerà sistemi di intelligenza artificiale più affidabili, etici ed efficienti che possano coesistere armoniosamente con la società umana e integrare le nostre capacità anziché sostituirci.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.