
l’intelligenza artificiale generale (AGI) è un tema caldo che provoca polemiche tra scienziati, uomini d’affari e pubblico. Alcuni sostengono che siamo vicini alla creazione di un sistema in grado di risolvere qualsiasi problema a livello umano o anche meglio. Altri dubitano che ciò sia persino possibile.
Uno dei sistemi più famosi che ora afferma di essere AGI è GPT-4 di OpenAI. È un modello di linguaggio di grandi dimensioni (LLM) che analizza miliardi di testi da Internet e genera diversi tipi di output, tra cui poesie e codice di programma.
Microsoft, che ha investito 10 miliardi di dollari in OpenAI a gennaio, e ha condotto una serie di esperimenti propri con GPT-4, in cui gli esperti hanno concluso che il modello può manipolare concetti complessi, che è un aspetto chiave del ragionamento.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Tuttavia, non tutti sono d’accordo con tali tesi.
Gli esperti di scienze cognitive e neuroscienze affermano che i grandi modelli linguistici non possono pensare e comprendere il linguaggio. Criticano anche l’uso del test di Turing, un metodo per valutare la capacità di una macchina di imitare un essere umano nel dialogo, come criterio per valutare l’intelligenza della macchina.
Il dottor Andrea Martin del Max-Planck Institute afferma che il concetto stesso di AGI è discutibile. Crede inoltre che l’utilizzo del test di Turing per determinare la capacità di una macchina di pensare come un essere umano sia semplicemente un’errata interpretazione del concetto stesso del test di Turing.
La professoressa Tali Sharot dell’University College di Londra ritiene che i grandi modelli linguistici siano in grado di apprendere e acquisire conoscenze e abilità, ma questo è molto lontano dal modo di ragionare delle persone.
Il famoso programmatore Grady Booch è propenso all’idea che l’AGI non verrà mai raggiunta a causa della mancanza della “giusta architettura per la semantica della causalità, il ragionamento abduttivo, il buon senso, la teoria della mente e l’esperienza soggettiva”.
I grandi modelli linguistici affrontano anche problemi di responsabilità etica e legale. OpenAI è stata recentemente colpita da un’azione legale collettiva per aver demolito dati protetti da copyright. Inoltre, è stato dimostrato più e più volte che le risposte GPT-4 contengono molti pregiudizi razziali e sociali.
Sebbene i moderni modelli linguistici di grandi dimensioni esibiscano un alto livello di elaborazione e generazione del testo, sono ancora lontani dalla piena comprensione e analisi del contesto, nonché dalla vera comprensione del linguaggio e delle interazioni interpersonali che sono caratteristiche dell’intelligenza umana. Inoltre, il cervello umano ha la capacità di pensiero creativo, comprensione astratta ed emotiva, nonché intuizione e buon senso, che rimangono ancora una sfida per gli sviluppatori di intelligenza artificiale.
Pertanto, mentre i modelli di linguaggi di grandi dimensioni possono effettivamente essere utili, i loro sostenitori tendono ad esagerare sia il loro valore che le loro capacità. È improbabile che l’intelligenza artificiale nei prossimi anni sarà in grado di avvicinarsi in qualche modo al cervello umano in termini di capacità complete.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàFino a poco tempo fa, le vulnerabilità zero-day sembravano artefatti esotici provenienti dal mondo delle operazioni speciali e dello spionaggio. Ora sono uno strumento comune per hackerare le reti aziendali, e non solo perché gli…
CulturaMentre il settore dibatte su quale rete neurale sia la “più intelligente” e quale framework sia il “più moderno”, tecnologie vecchie di decenni continuano a turbinare silenziosamente sotto la superficie del settore bancario. Quest’anno, COBOL…
CulturaVuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? Se la risposta è SI, ti consigliamo di leggere questo articolo. Il panorama della sicurezza informatica cambia velocemente: nuove vulnerabilità,…
InnovazioneIl professore di informatica Geoffrey Hinton, uno dei fondatori delle moderne tecnologie di intelligenza artificiale, ha affermato che l’IA potrebbe portare a perdite di posti di lavoro su larga scala già nel 2026. Secondo lui,…
DirittiPrima di addentrarci nell’analisi, è bene precisare che questo contributo è la prima parte di una ricerca più estesa. Nel prossimo articolo esploreremo il conflitto tra algoritmi di rilevazione automatica e crittografia end-to-end (E2EE), analizzando…