Redazione RHC : 6 Luglio 2023 17:57
l’intelligenza artificiale generale (AGI) è un tema caldo che provoca polemiche tra scienziati, uomini d’affari e pubblico. Alcuni sostengono che siamo vicini alla creazione di un sistema in grado di risolvere qualsiasi problema a livello umano o anche meglio. Altri dubitano che ciò sia persino possibile.
Uno dei sistemi più famosi che ora afferma di essere AGI è GPT-4 di OpenAI. È un modello di linguaggio di grandi dimensioni (LLM) che analizza miliardi di testi da Internet e genera diversi tipi di output, tra cui poesie e codice di programma.
Microsoft, che ha investito 10 miliardi di dollari in OpenAI a gennaio, e ha condotto una serie di esperimenti propri con GPT-4, in cui gli esperti hanno concluso che il modello può manipolare concetti complessi, che è un aspetto chiave del ragionamento.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Tuttavia, non tutti sono d’accordo con tali tesi.
Gli esperti di scienze cognitive e neuroscienze affermano che i grandi modelli linguistici non possono pensare e comprendere il linguaggio. Criticano anche l’uso del test di Turing, un metodo per valutare la capacità di una macchina di imitare un essere umano nel dialogo, come criterio per valutare l’intelligenza della macchina.
Il dottor Andrea Martin del Max-Planck Institute afferma che il concetto stesso di AGI è discutibile. Crede inoltre che l’utilizzo del test di Turing per determinare la capacità di una macchina di pensare come un essere umano sia semplicemente un’errata interpretazione del concetto stesso del test di Turing.
La professoressa Tali Sharot dell’University College di Londra ritiene che i grandi modelli linguistici siano in grado di apprendere e acquisire conoscenze e abilità, ma questo è molto lontano dal modo di ragionare delle persone.
Il famoso programmatore Grady Booch è propenso all’idea che l’AGI non verrà mai raggiunta a causa della mancanza della “giusta architettura per la semantica della causalità, il ragionamento abduttivo, il buon senso, la teoria della mente e l’esperienza soggettiva”.
I grandi modelli linguistici affrontano anche problemi di responsabilità etica e legale. OpenAI è stata recentemente colpita da un’azione legale collettiva per aver demolito dati protetti da copyright. Inoltre, è stato dimostrato più e più volte che le risposte GPT-4 contengono molti pregiudizi razziali e sociali.
Sebbene i moderni modelli linguistici di grandi dimensioni esibiscano un alto livello di elaborazione e generazione del testo, sono ancora lontani dalla piena comprensione e analisi del contesto, nonché dalla vera comprensione del linguaggio e delle interazioni interpersonali che sono caratteristiche dell’intelligenza umana. Inoltre, il cervello umano ha la capacità di pensiero creativo, comprensione astratta ed emotiva, nonché intuizione e buon senso, che rimangono ancora una sfida per gli sviluppatori di intelligenza artificiale.
Pertanto, mentre i modelli di linguaggi di grandi dimensioni possono effettivamente essere utili, i loro sostenitori tendono ad esagerare sia il loro valore che le loro capacità. È improbabile che l’intelligenza artificiale nei prossimi anni sarà in grado di avvicinarsi in qualche modo al cervello umano in termini di capacità complete.
Redazione: [email protected]
© Copyright RED HOT CYBER. PIVA 16821691009