Dal 14 giugno 2023 il Parlamento Europeo sta lavorando all’Artificial Intelligence Act, il progetto di normativa sull’intelligenza artificiale, proposto dalla Commissione europea già nell’aprile del 2021. Ma cosa prevede?
Andiamo per punti.
A essere regolamentati saranno tutti quei sistemi di IA utilizzati in modo “intrusivo e discriminatorio” e che potrebbero danneggiare i diritti primari dei cittadini: salute e sicurezza. La Commissione e il Parlamento insieme hanno stilato una lista di sistemi ad alto e basso rischio.
Tra quelli ad alto rischio ci sono i sistemi utilizzati nelle infrastrutture critiche e tecniche (reti elettriche, ospedali, valutazioni di credito, ecc..); quelli che potrebbero ripercuotersi in modo negativo sull’ambiente; i sistemi di categorizzazione biometrica; quelli di polizia predittiva (basati su profilazione, posizione o precedenti penali), o sistemi di riconoscimento delle emozioni nelle forze dell’ordine, alle frontiere, sul posto di lavoro e nelle scuole. A basso rischio invece sono considerate “quelle applicazioni dell’IA utilizzate per la traduzione, il riconoscimento delle immagini o le previsioni meteorologiche”.
Grazie a queste regolamentazioni, è anche più chiaro distinguere due tipi di IA, quella “generativa” e quella dei “modelli base”. La prima è rivolta a “terzi” e può essere usata da tutti. La seconda invece lavora dietro le quinte: raccoglie dati ed elabora i vari modelli, appunto.
Esiste una regolamentazione anche per la prima: la richiesta di trasparenza. “Le aziende che sviluppano IA generative dovranno fare in modo che nel risultato finale sia reso esplicito che il contenuto è stato generato dall’IA (…), dovranno garantire salvaguardie contro la generazione di contenuti illegali e dovranno rendere pubbliche delle sintesi dettagliate dei dati coperti da copyright utilizzati per allenare l’algoritmo.”
Ma cosa ne pensa l’Intelligenza Artificiale? Possiamo sentirci in qualche modo più tranquilli?
*fonte: affarinternazionali.it
Partecipa alla discussione su LinkedIn