AI Act: quali novità per le imprese europee

AI Act: quali novità per le imprese europee

Precedente Successivo
Geckosoft

Condividi su:

La normativa UE sull’intelligenza artificiale è arrivata a un accordo storico. Dopo due anni di dibattito, cercando di stare al passo con una tecnologia in piena espansione, e dopo tre giorni di negoziati, le istituzioni europee hanno firmato l’intesa che dà il via al’AI Act, la prima legge al mondo sull’intelligenza artificiale. Alla base di questo pacchetto di regole, c’è la volontà di tutelare la sicurezza e i diritti fondamentali dei cittadini, garantendo, allo stesso tempo il sostegno all’innovazione in Europa.

Naturalmente questo è solo l’inizio. Concluso l’accordo politico, l’AI Act passa nelle mani dei tecnici che dovranno entrare nel dettaglio e normare ogni singolo aspetto di questo settore. Ci saranno sei mesi di tempo per definire i divieti puntuali, e due anni per trasformare l’atto in legge. È comunque prevista una conformità volontaria: aderendo all’AI Pact le aziende europee, potranno adeguarsi alla legge UE sull’intelligenza artificiale, prima che questa diventi pienamente operativa.

Cosa prevede l’accordo sull’AI Act europeo?

La regolamentazione riguarda diversi aspetti e applicazioni dell’intelligenza artificiale. Fra le altre cose, l’accordo prevede:

  • tutele ed eccezioni molto ristrette per l’uso dell’intelligenza artificiale per motivi di sicurezza, e in particolare rispetto ai sistemi di identificazione biometrica (RBI). Il riconoscimento può essere fatto solo previa autorizzazione giudiziaria e solo per una serie ristretta di motivazioni (ricerche mirate e motivate per sospetti di reato grave). L’RBI in tempo reale sarebbe possibile solo per ricerche mirate di vittime o di sospettati di reati molto gravi, o per prevenire minacce terroristiche.
  • Una serie di divieti legati a usi considerati inammissibili dalle istituzioni europee, tra cui: l’uso dell’AI per calcolare il punteggio sociale delle persone; il riconoscimento biometrico basato su caratteristiche sensibili come l’etnia, l’orientamento sessuale o politico; la creazione di database di riconoscimento facciale non mirato, a partire da immagini prese da internet; il riconoscimento delle emozioni sul posto di lavoro e a scuola; lo sviluppo di sistemi in grado di manipolare i comportamenti degli individui.
  • Regole e obblighi per i modelli di AI generica ad alto impatto.
    I modelli fondativi ad alto impatto sono quelle forme di AI capaci di svolgere una serie di attività sulla base di una quantità altissima di dati. Stiamo parlando di strumenti come GPT-4 di ChatGPT, Midjourney, LaMDA di Google Bard. Il discrimine fra i sistemi considerati ad alto impatto, capaci di rappresentare rischi sistemici, e il resto dei sistemi di AI, sta nella potenza di calcolo. Più è grande, maggiori sono i vincoli. Per esempio, garantire la trasparenza dei processi di addestramento, e la condivisione della documentazione tecnica prima della commercializzazione. I sistemi con potenza di calcolo inferiore possono essere commercializzati senza un controllo preventivo, ma devono rispettare le regole imposte dalla normativa europea dal momento in cui i loro servizi sono lanciati sul mercato.
  • Il diritto per i cittadini europei di presentare reclami e chiarimenti sui provvedimenti presi con l’utilizzo di sistemi di AI ad alto impatto, che potrebbero avere una ripercussione sui propri diritti fondamentali.
  • Una serie di strumenti per rafforzare il copyright.
    Le implicazioni per chi crea strumenti basati su Large Language Models sono ancora piuttosto vaghe, ma si ipotizza l’obbligo di pubblicare preventivamente i dati di addestramento per dimostrare la non violazione dei diritti d’autore.
  • Un regime di sanzioni che varia in base alle dimensioni delle aziende e al tipo di violazione. Le multe possono andare dai 35 milioni di euro o dal 7% del fatturato annuo per l’uso di sistemi vietati, fino a 7,5 milioni o all’1,5% del fatturato per la produzione di informazioni non corrette. Le multe si riducono per le PMI e le start-up.
  • Misure a sostegno dell’innovazione e delle PMI. Non solo in termini di incentivi o di riduzione delle sanzioni, ma anche come eccezioni ai divieti e agli obblighi previsti, per favorire la ricerca e l’adozione delle nuove tecnologie digitali da parte delle PMI, con la creazione di regulatory sandbox, ovvero di aree test esenti da vincoli, per non limitare eccessivamente l’innovazione europea.

Nonostante questa apertura, c’è chi non è soddisfatto del testo dell’accordo, come la CCIA Europe, l’Associazione dell’industria dei computer e delle telecomunicazioni, secondo la quale l’AI Act sarebbe diventato troppo prescrittivo rispetto alla versione originaria, imponendo un sistema di vincoli troppo rigido, soprattutto per le applicazioni di intelligenza artificiale generativa generaliste e potenti, che si trovano alla base di moltissimi software e prodotti digitali europei.

E in effetti, strumenti generalisti e molto potenti come Gemini, l’AI sviluppata da Google in grado di generare immagini, testi e audio, in tre diverse versioni (ultra, pro, nano) per rinnovare Google Bard, al momento non sembrerebbe contemplare l’Unione Europea come mercato di lancio, proprio per il dibattito e le restrizioni imposte dall’AI Act.

AI Act: quali novità per le imprese europee
AI Act: quali novità per le imprese europee
AI Act: quali novità per le imprese europee

Quali possibilità e soluzioni per le imprese?

L’Intelligenza Artificiale generativa apre opportunità incredibili, ma una vera e propria transizione all’AI, per le imprese europee, soprattutto se PMI, può rivelarsi un labirinto. Che fare dunque?

Non abbiamo una risposta univoca e già definita per tutte le realtà imprenditoriali, ma crediamo fermamente che il successo di ogni pioniere si fondi da un lato sulla possibilità di avere in squadra una guida esperta dei territori in cui ci si muove. E dall’altro, su dotazioni robuste, impeccabili, costantemente mantenute e aggiornate.

Nel caso dell’AI generativa la guida esperta non può essere un mero fornitore di software, quanto piuttosto un partner tecnologico, in grado di accompagnare l’organizzazione dal punto di vista tecnico, ma anche normativo e strategico, lungo tutto il percorso di digitalizzazione e implementazione dell’intelligenza artificiale nei diversi processi organizzativi e produttivi. Mentre, fra le dotazioni non possiamo non segnalare strumenti come Rationale AI, la piattaforma di intelligenza artificiale capace di trasformare i dati che arrivano dalle diverse fonti aziendali in conoscenza, fornendo al contempo un ecosistema di supporto clienti completo.

Sì è vero, è un prodotto Geckosoft, ma il motivo per cui lo citiamo in questo articolo è che si tratta di uno dei pochi, se non l’unico al momento, strumenti di intelligenza artificiale generativa a non essere basato su modelli fondativi ad alto impatto, come GPT-4 e simili, oggetto delle maggiori restrizioni da parte della normativa europea.

Implementato sull’infrastruttura interna dell’organizzazione che lo usa, addestrato con le informazioni provenienti dai database aziendali e dall’interazione continua con gli utenti del cliente stesso, Rationale AI è un modello potente, ma costruito e aggiornato sulle regole del nostro territorio. Questo garantisce il controllo completo sui dati trattati e il rispetto delle leggi sulla privacy, fra cui la sicurezza che i dati raccolti non vengano inviati a parti terze al di fuori dei confini dell’UE.

Stai cercando una guida esperta che accompagni la tua organizzazione nella transizione efficace e corretta all’intelligenza artificiale? Parliamone!