Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Microsoft limita il chatbot Bing a soli 5 messaggi per evitare che l’AI diventi aggressivo

Alessia Tomaselli : 20 Febbraio 2023 07:52

Le conversazioni troppo lunghe confondono Bing, quindi Microsoft le ha disattivate.

Microsoft ha annunciato un cambiamento radicale del suo chatbot Bing AI, svelato per la prima volta al mondo la scorsa settimana.

A partire dal 18 febbraio, gli utenti che hanno accesso all’anteprima di Bing non potranno più chattare liberamente con la sua intelligenza artificiale: le conversazioni saranno limitate a soli 5 messaggi per sessione e 50 domande al giorno.

Il motivo di questa scelta

Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.

Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.

Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

L’azienda afferma di aver introdotto questi limiti perché i test hanno riscontrato che il chatbot può confondersi facilmente durante le conversazioni più lunghe, in quanto fatica a tenere il passo con tutti i contesti e i dati che gli vengono presentati. Come risultato spesso l’AI bot va fuori tema e in alcuni casi diventa addirittura scortese o comincia a rispondere in modo strano.

Per evitare che il chatbot cominci a rimproverare gli utenti, in modo addirittura acerbo e vibrato, Bing è arrivato a questa soluzione.

Ora, quando l’utente tenta di continuare una conversazione dopo il 5° messaggio inviato in chat, l’intelligenza artificiale di Bing chiederà all’utente di resettare la conversazione e ricominciare. Dopo il 50° turno avvenuto durante lo stesso giorno, il bot di chat smetterà di funzionare completamente e l’utente sarà invitato a tornare il giorno successivo.

“I nostri dati hanno dimostrato che la stragrande maggioranza delle persone trova le risposte che cerca entro 5 messaggi e che solo l’1% delle conversazioni in chat ha più di 50 messaggi. Dopo che una sessione di chat raggiunge i 5 turni, alle persone verrà richiesto di iniziare un nuovo argomento. Alla fine di ogni sessione di chat, il contesto deve essere cancellato per evitare che l’intelligenza artificiale si confonda. Basta fare clic sull’icona della scopa a sinistra della casella di ricerca per ricominciare da capo. In base ai feedback che riceveremo, valuteremo la possibilità di ampliare i limiti delle sessioni di chat”.

Si tratta di un cambiamento importante, che mette in evidenza la natura molto precoce dei chatbot AI alimentati da grandi modelli di linguaggio naturale.

Conclusioni

Detto questo, è raro che ci siano persone che utilizzano Bing AI più di un paio di volte alla settimana, e quasi nessuno lo utilizza più volte al giorno, quindi questo cambiamento probabilmente non sarà un grosso problema per la maggior parte delle persone.

Alessia Tomaselli
Laureata in Mediazione Linguistica per le lingue inglese e spagnolo, attualmente lavora come copywriter presso s-mart.biz, società leader nella sicurezza informatica.