Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Dei ricercatori italiani portano ChatGPT all’allucinazione che crea un rapporto medico completamente falso

Redazione RHC : 6 Dicembre 2023 07:45

Alcuni ricercatori italiani hanno recentemente scoperto che i dati generati dall’intelligenza artificiale possono essere fuorvianti. Il risultato principale dello studio, condotto da Giuseppe Giannaccare, chirurgo oftalmico dell’Università di Cagliari, è che ChatGPT può generare dati convincenti ma falsi.

Giannaccare osserva che ChatGPT ha creato un set di dati falso di centinaia di pazienti in pochi minuti. Questa scoperta è preoccupante, soprattutto alla luce della crescente minaccia di dati falsificati nella ricerca medica.

Il Dizionario dell’Università di Cambridge ha addirittura inserito il termine “allucinazione” (la produzione di false informazioni da parte di ampi modelli linguistici) come parola dell’anno. Esempi di uso improprio di ChatGPT hanno già portato a sanzioni: due avvocati che lo hanno utilizzato per preparare la documentazione del caso sono stati multati di 5.000 dollari per aver utilizzato informazioni fittizie.

FINO AL 31 DICEMBRE, sconti estremi sui corsi Red Hot Cyber

Affrettati!

Fino al 31 dicembre potrai acquistare a prezzi scontati i nostri corsi cliccando sui seguenti coupon:

  • NIS2 : Network and Information system 2 scontato del 25%
  • Dark Web & Cyber Threat Intelligence scontato del 50%

  • Per ulteriori informazioni, scrivi a [email protected] oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    I ricercatori hanno utilizzato ChatGPT connesso a un modello avanzato di analisi dei dati Python per generare dati di studi clinici per il trattamento del cheratocono. Tuttavia, i dati generati erano del tutto fittizi, nonostante fossero convincenti.

    Giannaccare sottolinea l’importanza di riconoscere il “lato oscuro dell’intelligenza artificiale e la necessità di sviluppare metodi migliori per individuare le frodi. Osserva inoltre che un uso adeguato dell’intelligenza artificiale può contribuire in modo significativo alla ricerca scientifica.

    L’articolo, pubblicato su JAMA Ophthalmology, indica che un’analisi più approfondita dei dati potrebbe rivelare segni di falsificazione, come un numero innaturale di età dei soggetti che termina con 7 o 8.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.