Redazione RHC : 31 Agosto 2023 11:41
I funzionari britannici stanno mettendo in guardia le aziende dall’integrazione dei chatbot basati sull’intelligenza artificiale poiché la ricerca ha dimostrato che possono essere indotti con l’inganno a eseguire azioni dannose.
In due post sul blog pubblicati mercoledì, il National Cyber Security Center ( NCSC ) del Regno Unito ha indicato che gli esperti non hanno ancora valutato tutti i potenziali problemi di sicurezza associati agli algoritmi in grado di creare interazioni di tipo umano – i cosiddetti modelli linguistici di grandi dimensioni (LLM).
Gli strumenti basati sull’intelligenza artificiale stanno iniziando a essere utilizzati come chatbot, che secondo alcuni sostituiranno non solo le ricerche sul web, ma anche il lavoro del servizio clienti e le chiamate di vendita.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
L’NCSC ha messo in guardia dai rischi, soprattutto se tali modelli vengono integrati nei processi aziendali. I ricercatori hanno scoperto che i chatbot possono essere ingannati impartendo comandi dannosi o aggirando i meccanismi di protezione integrati. Ad esempio, un chatbot utilizzato da una banca può essere indotto con l’inganno a eseguire una transazione non autorizzata.
L’NCSC afferma in uno dei suoi post: “Le organizzazioni che sviluppano servizi basati su LLM dovrebbero prestare la stessa cautela come se utilizzassero un prodotto o una libreria di codici in beta testing. LLM dovrebbe essere affrontato con la stessa cautela”.
Le autorità di tutto il mondo sono alle prese con l’ascesa di programmi LLM come ChatGPT di OpenAI, che le aziende stanno incorporando in una vasta gamma di servizi, comprese le vendite e il servizio clienti. Anche l’impatto dell’intelligenza artificiale sulla sicurezza è ancora sotto i riflettori, con le autorità statunitensi e canadesi che affermano di aver visto gli hacker utilizzare questa tecnologia.
Oselokka Obiora, CTO della società di sicurezza informatica RiverSafe, ha affermato che la corsa per integrare l’intelligenza artificiale nelle pratiche aziendali sarebbe “disastrosa” se i leader aziendali non introducessero i controlli necessari.
“Prima di seguire le ultime tendenze nel campo dell’intelligenza artificiale, i top manager devono rivalutare la situazione, valutare i pro e i contro e implementare le necessarie misure di difesa informatica”, ha affermato.