Marcello Politi : 26 Agosto 2023 22:22
Sia il mondo naturale che il campo dell’intelligenza artificiale presentano numerosi casi di capacità emergenti. Quando i singoli componenti interagiscono all’interno di un sistema, producono comportamenti e modelli che non sono stati progettati esplicitamente.
Esistono molte fenomeni emergenti in natura, vediamo alcuni esempi:
Intelligenza collettiva delle formiche: le formiche, possiedono capacità cognitive relativamente semplici e informazioni limitate. Tuttavia, quando si riuniscono e interagiscono all’interno di una colonia, mostrano comportamenti cooperativi complessi e altamente efficienti che portano all’emergere di un’intelligenza sofisticata, senza alcun controllo centrale o istruzioni esplicite.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Coscienza: Un neurone, l’unità fondamentale del cervello, ha principi operativi relativamente semplici. Riceve segnali, li elabora e li invia. Tuttavia, quando miliardi di neuroni si interconnettono, formando reti vaste e intricate, il comportamento collettivo porta a fenomeni come il pensiero, la memoria, le emozioni e, forse, la coscienza.
Manifestazione dello spazio-tempo: alcune teorie contemporanee della fisica, sostengono che lo spazio-tempo potrebbe non essere un concetto fondamentale, ma piuttosto un fenomeno emergente derivante dall’intricata rete dell’entanglement quantistico.
Nello stesso modo le Neural Networks formate da milioni di neuroni artificiali connessi tra loro con capacità limitate, hanno iniziato a presentare capacità emergenti, riuscendo a risolvere task per i quali non sono mai state addestrate.
Una delle architetture di reti neurali rivoluzionarie nel mondo dell’AI è chiamata Transformer, presentata per la prima volta nel paper “Attention is All You Need“.
In questo paper gli autori hanno utilizzato il transformer per risolvere il task di Machine Translation, tradurre quindi frase da una lingua in un altra. In questo caso si passano al modello di AI, coppie di frasi inglese-italiano ad esempio, e si inizia l’addestramento. Chiaramente una volta addestrato, il modello sarà bravissimo a tradurre frassi dall’inglese all’italiano.
Recentemente, in modelli come chatGPT, si è utilizzato un approccio differente. Invece di addestrare il modello su un task specifico come quello della traduzione, lo si allena su tutto il testo che è possibile trovare su internet. Vengono collezionate milioni e milioni di frasi, alle quali vengono oscurate delle parole, e viene chiesto al modello di indovinare quale parola è stata nascosta.
Ad esempio, nella frase “Mi piace molto giocare a ____”, l’AI deve capire qual’è la parola nascosta, ad esempio “calcio”. I modelli addestrati in questo modo vengono chiamati Foundation Models.
La magia avviene adesso, i Foundation Models addestrati in questo modo, riescono a risolvere task di vario tipo su cui non sono mai stati addestrati, come la Machine Translation, a patto che gli si faccia la domanda giusta.
Potrei chiedere al modello “Puoi tradurmi la frase ‘I like football’ in Italiano?“, e questo fornirà in output la traduzione. Queste capacità hanno aperto un mondo, perchè adesso possiamo addestrare i modelli per la risoluzione di particolari task su tutti i dati che si possono trovare su internet, senza dover creare dataset custom che molte volte sono costosi da annotare.
Inoltre questo modelli hanno fatto nascere una nuovo campo di studio, quello del Prompt Engineering.
A seconda di come vengono poste le query (o domande) al modello, riceveremo risposte più o meno accurate, e quindi è fondamentale capire come porre le query nel modo migliore.
La comprensione delle capacità emergenti, sia in natura che nell’intelligenza artificiale, ci invita a riflettere sulla meraviglia dell’interconnessione. I sistemi, siano essi colonie di formiche, reti neurali complesse o la stessa coscienza umana, sono più grandi della somma delle loro parti. Questi fenomeni, quando visti attraverso la lente dell’emergenza, rivelano la potenza delle interazioni, piuttosto che delle singole entità.
La natura ci ha dimostrato come l’organizzazione e la collaborazione di entità semplici possono dar vita a comportamenti e capacità complessi e sofisticati. Similmente, il progresso nell’ambito dell’IA, in particolare con i Foundation Models, sottolinea come l’addestramento su vasti set di dati possa sprigionare capacità inaspettate e rivoluzionarie nei modelli.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006