Approvato ieri il disegno di legge sull’impiego dell’intelligenza artificiale su cui l’Unione Europea stava lavorando da tempo (e ne avevamo dato conto): da quando cioè dagli Stati Uniti si era sollevato un allarme sul suo sviluppo e applicazione incondizionata, soprattutto nel campo dell’informazione. All’indomani della circolazione sul web di immagini manipolate che ritraevano Donald Trump strattonato da agenti delle forze dell’ordine (e non solo); e del “debutto” dell’intelligenza artificiale generativa, quella di ChatGPT, per intenderci, che ha fatto la fortuna di OpenAi.
L’AI Act, prima normativa sull’intelligenza artificiale
L’AI Act è dunque la prima normativa al mondo sull’intelligenza artificiale: una sfida etica da parte dell’Unione Europea se consideriamo la rapidità di sviluppo di ciò che regola in rapporto ai tempi di ratifica della legge europea da parte degli Stati membri. Ma la sfida sta proprio nella natura di questa legge: non stabilisce limiti al suo sviluppo ma traccia dei confini di applicazione a tutela di cittadini e lavoratori. Per questo motivo l’AI Act tratta della sua stessa implementazione: quella serie di azioni che termina con la valutazione dell’efficacia di quanto messo in opera. La velocità dell’intelligenza artificiale renderà dunque tutto, sempre e comunque, “superato”, ma la l’AI Act rappresenterà d’ora in poi un punto di riferimento per tutte le iniziative future nel mondo.
Lacune e divieti
Resta tuttavia una grave lacuna: si è preferito non regolare l’opensource, quel canale cioè che rende possibile un’applicazione fraudolenta dell’intelligenza artificiale, sfuggendo alle sanzioni. Così come è al vaglio da tempo una normativa europea sul copyright che, a questo punto, non potrà prescindere dalle “creazioni” dell’intelligenza artificiale. Ma il suo impiego nell’elaborazione di immagini dovrà d’ora in poi essere comunque esplicitata.
L’Ai Act si pronuncia essenzialmente sui settori “sensibili”: quelli dei divieti, legati all’impiego dei sistemi di categorizzazione biometrica su caratteristiche “sensibili” (quali convinzioni politiche, religiose, filosofiche, l’orientamento sessuale e la razza di appartenenza) e il divieto di costruire database derivanti dal riconoscimento facciale in tempo reale (sia in pubblico che in privato). Altri divieti riguardano il riconoscimento delle emozioni (sia sul luogo di lavoro che nelle istituzioni scolastiche), la classificazione sociale che lega il comportamento alle caratteristiche personali, la manipolazione del comportamento altrui, lo sfruttamento della vulnerabilità degli svantaggiati, a prescindere dalla categoria. La legge stabilisce naturalmente delle sanzioni.
Le deroghe
Le deroghe varranno per le Forze dell’Ordine per casi come, ad esempio, l’evidente minaccia di attacco terroristico, e per circostanze specifiche da valutare all’occorrenza; e si applicheranno a enti e aziende coinvolte nella tutela della difesa e sicurezza nazionale. Nell’ambito della polizia predittiva un capitolo a parte riguarda il controllo del fenomeno dell’immigrazione: le agenzie di polizia preposte dovranno notificare l’eventuale applicazione della rilevazione biometrica in tempo reale a una sezione dedicata, soggetta a sua volta al controllo di un ente indipendente. Deroghe che preoccupano le organizzazioni umanitarie.