
l’intelligenza artificiale generale (AGI) è un tema caldo che provoca polemiche tra scienziati, uomini d’affari e pubblico. Alcuni sostengono che siamo vicini alla creazione di un sistema in grado di risolvere qualsiasi problema a livello umano o anche meglio. Altri dubitano che ciò sia persino possibile.
Uno dei sistemi più famosi che ora afferma di essere AGI è GPT-4 di OpenAI. È un modello di linguaggio di grandi dimensioni (LLM) che analizza miliardi di testi da Internet e genera diversi tipi di output, tra cui poesie e codice di programma.
Microsoft, che ha investito 10 miliardi di dollari in OpenAI a gennaio, e ha condotto una serie di esperimenti propri con GPT-4, in cui gli esperti hanno concluso che il modello può manipolare concetti complessi, che è un aspetto chiave del ragionamento.
Tuttavia, non tutti sono d’accordo con tali tesi.
Gli esperti di scienze cognitive e neuroscienze affermano che i grandi modelli linguistici non possono pensare e comprendere il linguaggio. Criticano anche l’uso del test di Turing, un metodo per valutare la capacità di una macchina di imitare un essere umano nel dialogo, come criterio per valutare l’intelligenza della macchina.
Il dottor Andrea Martin del Max-Planck Institute afferma che il concetto stesso di AGI è discutibile. Crede inoltre che l’utilizzo del test di Turing per determinare la capacità di una macchina di pensare come un essere umano sia semplicemente un’errata interpretazione del concetto stesso del test di Turing.
La professoressa Tali Sharot dell’University College di Londra ritiene che i grandi modelli linguistici siano in grado di apprendere e acquisire conoscenze e abilità, ma questo è molto lontano dal modo di ragionare delle persone.
Il famoso programmatore Grady Booch è propenso all’idea che l’AGI non verrà mai raggiunta a causa della mancanza della “giusta architettura per la semantica della causalità, il ragionamento abduttivo, il buon senso, la teoria della mente e l’esperienza soggettiva”.
I grandi modelli linguistici affrontano anche problemi di responsabilità etica e legale. OpenAI è stata recentemente colpita da un’azione legale collettiva per aver demolito dati protetti da copyright. Inoltre, è stato dimostrato più e più volte che le risposte GPT-4 contengono molti pregiudizi razziali e sociali.
Sebbene i moderni modelli linguistici di grandi dimensioni esibiscano un alto livello di elaborazione e generazione del testo, sono ancora lontani dalla piena comprensione e analisi del contesto, nonché dalla vera comprensione del linguaggio e delle interazioni interpersonali che sono caratteristiche dell’intelligenza umana. Inoltre, il cervello umano ha la capacità di pensiero creativo, comprensione astratta ed emotiva, nonché intuizione e buon senso, che rimangono ancora una sfida per gli sviluppatori di intelligenza artificiale.
Pertanto, mentre i modelli di linguaggi di grandi dimensioni possono effettivamente essere utili, i loro sostenitori tendono ad esagerare sia il loro valore che le loro capacità. È improbabile che l’intelligenza artificiale nei prossimi anni sarà in grado di avvicinarsi in qualche modo al cervello umano in termini di capacità complete.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber ItaliaPoco fa, l’Università La Sapienza intorno alle 12:28 ha confermato di essere stata vittima di un attacco informatico che ha costretto al blocco temporaneo di tutti i sistemi digitali dell’ateneo. A darne informazione è il…
CybercrimeSe vi state chiedendo quanto sia grande 31,4 terabit al secondo, la risposta pratica è: abbastanza da far sembrare “un problema di rete” quello che in realtà è un problema di ecosistema. Perché il punto…
Cyber ItaliaLa mattina di lunedì 2 febbraio si è aperta con una notizia inattesa per studenti, docenti e personale della Sapienza Università di Roma. I principali servizi digitali dell’ateneo sono risultati improvvisamente irraggiungibili, generando incertezza e…
Cyber NewsBETTI RHC è un progetto editoriale e culturale ideato da Red Hot Cyber, realtà italiana punto di riferimento nel panorama della cybersecurity e della divulgazione tecnologica. Non si tratta di un semplice fumetto, ma di…
Cyber NewsMentre il cloud è diventato il cuore dell’economia digitale, l’Unione europea si trova davanti a una scelta storica: trasformare la certificazione cloud in uno strumento di sovranità o limitarsi ad un semplice controllo tecnico. Il…