Alessia Tomaselli : 20 Febbraio 2023 07:52
Le conversazioni troppo lunghe confondono Bing, quindi Microsoft le ha disattivate.
Microsoft ha annunciato un cambiamento radicale del suo chatbot Bing AI, svelato per la prima volta al mondo la scorsa settimana.
A partire dal 18 febbraio, gli utenti che hanno accesso all’anteprima di Bing non potranno più chattare liberamente con la sua intelligenza artificiale: le conversazioni saranno limitate a soli 5 messaggi per sessione e 50 domande al giorno.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’azienda afferma di aver introdotto questi limiti perché i test hanno riscontrato che il chatbot può confondersi facilmente durante le conversazioni più lunghe, in quanto fatica a tenere il passo con tutti i contesti e i dati che gli vengono presentati. Come risultato spesso l’AI bot va fuori tema e in alcuni casi diventa addirittura scortese o comincia a rispondere in modo strano.
Per evitare che il chatbot cominci a rimproverare gli utenti, in modo addirittura acerbo e vibrato, Bing è arrivato a questa soluzione.
Ora, quando l’utente tenta di continuare una conversazione dopo il 5° messaggio inviato in chat, l’intelligenza artificiale di Bing chiederà all’utente di resettare la conversazione e ricominciare. Dopo il 50° turno avvenuto durante lo stesso giorno, il bot di chat smetterà di funzionare completamente e l’utente sarà invitato a tornare il giorno successivo.
“I nostri dati hanno dimostrato che la stragrande maggioranza delle persone trova le risposte che cerca entro 5 messaggi e che solo l’1% delle conversazioni in chat ha più di 50 messaggi. Dopo che una sessione di chat raggiunge i 5 turni, alle persone verrà richiesto di iniziare un nuovo argomento. Alla fine di ogni sessione di chat, il contesto deve essere cancellato per evitare che l’intelligenza artificiale si confonda. Basta fare clic sull’icona della scopa a sinistra della casella di ricerca per ricominciare da capo. In base ai feedback che riceveremo, valuteremo la possibilità di ampliare i limiti delle sessioni di chat”.
Si tratta di un cambiamento importante, che mette in evidenza la natura molto precoce dei chatbot AI alimentati da grandi modelli di linguaggio naturale.
Detto questo, è raro che ci siano persone che utilizzano Bing AI più di un paio di volte alla settimana, e quasi nessuno lo utilizza più volte al giorno, quindi questo cambiamento probabilmente non sarà un grosso problema per la maggior parte delle persone.
Lo sviluppo di supercomputer per l’intelligenza artificiale sta entrando in una nuova orbita: in termini di scala, costi e consumi energetici e infrastrutture e megaprogetti. Uno studio condott...
Il 25 Aprile, data simbolo della Liberazione italiana dal fascismo, ci ricorda il valore della libertà, conquistata con il sacrificio di partigiani e combattenti. In un’era dominata dal di...
In un mondo dove ogni giorno si registrano migliaia di attacchi informatici, molte aziende continuano a sottovalutare l’importanza della cybersecurity, affidandosi a “sedicenti esperti&#...
AI, AI e ancora AI. E sembra che l’intelligenza artificiale giorno dopo giorno ci porti innovazioni sia come difesa ma soprattutto, come attacco. L’intelligenza artificiale è gi...
Il collettivo di ricerca in sicurezza informatica HackerHood, parte dell’universo della community di Red Hot Cyber, ha recentemente scoperto due nuove vulnerabilità ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006