Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Impatto globale dell’AI Act: Cosa significa per le aziende di intelligenza artificiale americane

23 Maggio 2023 10:41

L’11 maggio il Parlamento europeo ha adottato le prime regole al mondo per l’intelligenza artificiale (AI Act). Le regole mirano a garantire la sicurezza, la trasparenza e l’etica dell’IA in Europa. Le norme prevedono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e gli utenti di IA in base al livello di rischio che l’IA può comportare.

La legge sull’intelligenza artificiale ha un’ampia giurisdizione e si applica non solo alle società nell’UE, ma anche alle organizzazioni che hanno sede in paesi terzi se i loro sistemi di intelligenza artificiale sono destinati all’uso nell’UE o rientrano nel diritto dell’UE ai sensi del diritto internazionale. 

Ciò significa che le aziende e gli sviluppatori statunitensi che offrono i propri prodotti o servizi di intelligenza artificiale al mercato europeo devono rispettare tutti i requisiti dell’atto dell’UE.

L’AI Act potrebbe avere un impatto particolarmente grave su aziende e sviluppatori americani impegnati in modelli di IA generativa, come GPT-3 di OpenAI o BARD di Google , che vengono utilizzati per generare testo, immagini, suoni e altri formati. 

Vale la pena notare che le aziende americane che offrono i loro modelli tramite l’API o sotto il modello open source dovranno affrontare grandi difficoltà, poiché l’AI Act contiene diversi divieti:

  • L’AI Act vieta di fornire l’accesso ai modelli generativi tramite un’API che consente a terzi di utilizzare il modello senza installarlo sul proprio hardware;
  • E’ altresì vietata la distribuzione di tali modelli attraverso fonti aperte (open source), se non sono stati certificati nell’UE;
  • L’AI Act richiede anche la divulgazione di informazioni tecniche riservate sul modello a terzi che desiderano ottenere una licenza per utilizzare il modello;
  • L’AI Act richiede che i modelli vengano ri-certificati nel caso in cui mostrino abilità inaspettate o ricevano ulteriore addestramento. Questo può essere un problema per quei modelli che utilizzano la tecnica LoRA (Learning on Random Access), che consente di aggiungere in modo rapido ed economico nuove informazioni e funzionalità al modello;

L’AI Act è un disegno di legge ambizioso e controverso che potrebbe avere implicazioni pericolose per lo sviluppo e l’uso dell’IA in Europa.

La legge tenta di bilanciare gli obiettivi di promozione dell’IA e affrontare i rischi associati alle applicazioni di intelligenza artificiale. L’atto ha anche il potenziale per minare la capacità di innovazione e la competitività del settore europeo dell’IA, creare barriere alla collaborazione e alla condivisione delle conoscenze con i partner statunitensi e promuovere l’IA insicura. Il disegno di legge richiede ulteriori discussioni e chiarimenti prima della sua adozione definitiva.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Silvia Felici 150x150
Red Hot Cyber Security Advisor, Open Source e Supply Chain Network. Attualmente presso FiberCop S.p.A. in qualità di Network Operations Specialist, coniuga la gestione operativa di infrastrutture di rete critiche con l'analisi strategica della sicurezza digitale e dei flussi informativi.
Aree di competenza: Network Operations, Open Source, Supply Chain Security, Innovazione Tecnologica, Sistemi Operativi.
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…