Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Microsoft afferma di essere ad un passo dall’AGI. Le AI stanno diventando senzienti?

Redazione RHC : 17 Maggio 2023 11:17

Microsoft ha pubblicato un provocatorio articolo scientifico in cui afferma che il suo nuovo sistema di intelligenza artificiale (AI) è ad un passo verso l’intelligenza artificiale generale (AGI, Artificial General Intelligence), ovvero una macchina in grado di fare tutto ciò che può fare il cervello umano.

Un articolo intitolato “Sparks of Artificial General Intelligence” è stato pubblicato ad aprile su Internet Research Repository. “Le capacità di GPT-4, riteniamo che possa ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza artificiale generale (AGI)” E’ stato riportato nella prima pagina dell’articolo.

Gli autori dell’articolo sostengono che GPT-4 fa parte di una nuova coorte di modelli linguistici di grandi dimensioni, tra cui ChatGPT e PaLM di Google, che mostrano un’intelligenza più generale rispetto ai precedenti modelli di intelligenza artificiale.

La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

I ricercatori hanno dimostrato che la rete neurale può risolvere problemi nuovi e complessi senza particolari sollecitazioni, anche nei campi della matematica, della medicina, del diritto e della psicologia.

Microsoft è stata la prima grande azienda tecnologica a fare un’affermazione così audace, scatenando uno serie di dibattiti accesi nel mondo della tecnologia: l’industria sta costruendo qualcosa di simile all’intelligenza umana? O alcune delle menti più brillanti del settore stanno soccombendo alla loro immaginazione?

L’articolo di Microsoft tocca ciò per cui i tecnologi si sono battuti – e temuti – per decenni. Se costruiscono una macchina che funziona come il cervello umano o anche meglio, potrebbe cambiare il mondo. Ma questa tecnologia può anche portare molti problemi.

O forse sciocchezze. Affermare che AGI può essere il killer degli informatici. Ciò che un ricercatore considera un segno di intelligenza può essere facilmente confutato da un altro, e il dibattito spesso suona più appropriato per un club di filosofia che per un laboratorio informatico.

L’anno scorso, Google ha licenziato un ricercatore che sosteneva che un sistema di intelligenza artificiale simile fosse cosciente, un passo avanti rispetto a quanto affermato da Microsoft. Un sistema cosciente non sarebbe solo intelligente. Sarebbe in grado di percepire o sentire cosa sta succedendo nel mondo intorno a lei.

Circa cinque anni fa, aziende come Google, Microsoft e OpenAI hanno iniziato a creare modelli linguistici di grandi dimensioni, o LLM. Questi sistemi impiegano spesso mesi ad analizzare enormi quantità di testo digitale, inclusi libri, articoli di Wikipedia e chat room. Identificando i modelli in questo testo, imparano a generare il proprio testo, inclusi saggi, poesie e codici informatici. Possono persino portare avanti una conversazione.

La tecnologia con cui hanno lavorato i ricercatori Microsoft, GPT-4 di OpenAI, è considerata la più potente di questi sistemi. Microsoft è uno stretto partner di OpenAI e ha investito 13 miliardi di dollari nella società con sede a San Francisco.

Tra i ricercatori c’era il dottor Bubek, un immigrato francese di 38 anni ed ex professore alla Princeton University. Una delle prime cose che lui e i suoi colleghi hanno fatto è stata chiedere a GPT-4 di scrivere una dimostrazione matematica che esiste un numero infinito di numeri primi.

La prova poetica della tecnologia era così impressionante – sia matematicamente che linguisticamente – che aveva difficoltà a capire con chi stava comunicando. “In quel momento, ho pensato, cosa sta succedendo?” ha detto a marzo in un seminario al Massachusetts Institute of Technology.

Nel corso di diversi mesi, lui ei suoi colleghi hanno documentato il comportamento complesso del sistema e hanno creduto che dimostrasse una “comprensione profonda e flessibile” dei concetti e delle abilità umane. Quando le persone usano GPT-4, sono “stupite dalla sua capacità di generare testo”, ha detto il dottor Lee. “Ma si scopre che analizza, sintetizza, valuta e giudica il testo molto meglio di come lo genera”.

Quando hanno chiesto al sistema di disegnare un unicorno utilizzando il linguaggio di programmazione TiKZ, ha generato immediatamente un programma in grado di disegnare un unicorno. Quando hanno rimosso il pezzo di codice che disegnava il corno dell’unicorno e hanno chiesto al sistema di cambiare il programma in modo da disegnare di nuovo l’unicorno, ha fatto proprio questo.

Hanno anche chiesto al sistema di analizzare il loro peso, altezza e risultati degli esami del sangue per determinare se fossero a rischio di diabete. Hanno chiesto alla rete neurale di scrivere una lettera di sostegno per l’elettrone come candidato alla presidenza degli Stati Uniti a nome del Mahatma Gandhi e di indirizzarla a sua moglie. E le hanno chiesto di scrivere un dialogo socratico che esplorasse gli abusi ei pericoli del LLM.

Ha fatto tutto in modo tale da sembrare di comprendere campi così diversi come la politica, la fisica, la storia, l’informatica, la medicina e la filosofia e ha unito le sue conoscenze.

Alcuni esperti di intelligenza artificiale hanno preso l’articolo di Microsoft come un modo pratico per fare grandi affermazioni su una tecnologia che nessuno comprende appieno. I ricercatori sostengono inoltre che l’intelligenza generale richiede familiarità con il mondo fisico, che in teoria GPT-4 non ha.

Il dottor Bubek e il dottor Lee hanno affermato di non essere sicuri su come descrivere il comportamento del sistema e alla fine hanno optato per AGI Sparks perché pensavano che avrebbe catturato l’immaginazione di altri ricercatori.

Microsoft afferma che il sistema disponibile al pubblico non è potente come la versione che hanno testato.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.