Microsoft ha contattato il governo degli Stati Uniti con una proposta per creare un’agenzia speciale che si occuperà della regolamentazione dell’intelligenza artificiale (AI). Lo riporta la rivista americana PCMag.
Secondo Microsoft, l’intelligenza artificiale è uno strumento potente che può essere utilizzato per scopi sia buoni che cattivi. Pertanto, è necessario sviluppare regole e standard che garantiscano sicurezza, etica e responsabilità nell’applicazione dell’IA in vari ambiti della vita.
Ad esempio, la società ha citato il caso in cui la sua rete neurale ChatGPT è stata vietata in Italia per violazione della legge sull’uso dei dati personali. ChatGPT è un chatbot in grado di imitare il linguaggio naturale e conversare con un essere umano su qualsiasi argomento. Tuttavia, la rete neurale può anche generare informazioni false o dannose che possono influenzare l’opinione o il comportamento dell’interlocutore.
Microsoft sostiene che tali casi mostrano la necessità di un organismo indipendente per supervisionare lo sviluppo e l’uso dell’IA nell’interesse pubblico. La società propone che questa agenzia sia simile alla Federal Trade Commission (FTC) o alla Federal Communications Commission (FCC), che regolano rispettivamente i mercati dei beni di consumo e delle telecomunicazioni.
“Pensiamo di dover creare una nuova agenzia di intelligenza artificiale che abbia l’autorità di stabilire regole per sviluppatori e utenti di intelligenza artificiale, condurre ispezioni e punire le violazioni”, ha affermato Brad Smith, presidente di Microsoft.
Smith ha anche osservato che Microsoft è pronta a collaborare con il governo e altre parti interessate su questo tema. Ha espresso la speranza che la nuova agenzia per l’intelligenza artificiale contribuisca a rafforzare la fiducia nella tecnologia e a promuoverne lo sviluppo innovativo.
Microsoft non è l’unica azienda a sostenere la regolamentazione dell’IA. In precedenza, iniziative simili erano state espresse da Google, IBM, Facebook e altri leader del settore. Hanno invitato i governi di tutto il mondo ad adottare norme e principi internazionali che garantiscano l’uso sicuro ed etico dell’IA.
Gli esperti suggeriscono di introdurre un’etichettatura obbligatoria per tali contenuti per distinguerli dai contenuti creati dall’uomo. Gli esperti ritengono che l’uso dell’IA possa migliorare l’efficacia della sicurezza informatica, ma richieda anche nuovi approcci per la protezione dagli attacchi.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…