Redazione RHC : 6 Luglio 2023 17:57
l’intelligenza artificiale generale (AGI) è un tema caldo che provoca polemiche tra scienziati, uomini d’affari e pubblico. Alcuni sostengono che siamo vicini alla creazione di un sistema in grado di risolvere qualsiasi problema a livello umano o anche meglio. Altri dubitano che ciò sia persino possibile.
Uno dei sistemi più famosi che ora afferma di essere AGI è GPT-4 di OpenAI. È un modello di linguaggio di grandi dimensioni (LLM) che analizza miliardi di testi da Internet e genera diversi tipi di output, tra cui poesie e codice di programma.
Microsoft, che ha investito 10 miliardi di dollari in OpenAI a gennaio, e ha condotto una serie di esperimenti propri con GPT-4, in cui gli esperti hanno concluso che il modello può manipolare concetti complessi, che è un aspetto chiave del ragionamento.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tuttavia, non tutti sono d’accordo con tali tesi.
Gli esperti di scienze cognitive e neuroscienze affermano che i grandi modelli linguistici non possono pensare e comprendere il linguaggio. Criticano anche l’uso del test di Turing, un metodo per valutare la capacità di una macchina di imitare un essere umano nel dialogo, come criterio per valutare l’intelligenza della macchina.
Il dottor Andrea Martin del Max-Planck Institute afferma che il concetto stesso di AGI è discutibile. Crede inoltre che l’utilizzo del test di Turing per determinare la capacità di una macchina di pensare come un essere umano sia semplicemente un’errata interpretazione del concetto stesso del test di Turing.
La professoressa Tali Sharot dell’University College di Londra ritiene che i grandi modelli linguistici siano in grado di apprendere e acquisire conoscenze e abilità, ma questo è molto lontano dal modo di ragionare delle persone.
Il famoso programmatore Grady Booch è propenso all’idea che l’AGI non verrà mai raggiunta a causa della mancanza della “giusta architettura per la semantica della causalità, il ragionamento abduttivo, il buon senso, la teoria della mente e l’esperienza soggettiva”.
I grandi modelli linguistici affrontano anche problemi di responsabilità etica e legale. OpenAI è stata recentemente colpita da un’azione legale collettiva per aver demolito dati protetti da copyright. Inoltre, è stato dimostrato più e più volte che le risposte GPT-4 contengono molti pregiudizi razziali e sociali.
Sebbene i moderni modelli linguistici di grandi dimensioni esibiscano un alto livello di elaborazione e generazione del testo, sono ancora lontani dalla piena comprensione e analisi del contesto, nonché dalla vera comprensione del linguaggio e delle interazioni interpersonali che sono caratteristiche dell’intelligenza umana. Inoltre, il cervello umano ha la capacità di pensiero creativo, comprensione astratta ed emotiva, nonché intuizione e buon senso, che rimangono ancora una sfida per gli sviluppatori di intelligenza artificiale.
Pertanto, mentre i modelli di linguaggi di grandi dimensioni possono effettivamente essere utili, i loro sostenitori tendono ad esagerare sia il loro valore che le loro capacità. È improbabile che l’intelligenza artificiale nei prossimi anni sarà in grado di avvicinarsi in qualche modo al cervello umano in termini di capacità complete.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006