Puoi anche ascoltare l’articolo in versione audio.
L’azione prevista dall’Unione europea sulla regolamentazione dell’intelligenza artificiale (AI) sarà la prima legge completa al mondo a disciplinare questa tecnologia tanto amata. I membri del Parlamento europeo (PE) l’hanno quasi accettata giovedì.
I membri della commissione per i mercati interni e della commissione per le libertà civili hanno approvato il progetto di legge, con 87 membri che hanno votato a favore. Sette contrari e 12 astenuti. Ha presentato una proposta Commissione europea già nell’aprile 2021, e il Consiglio Ue – dopo parziali modifiche – ha assunto una posizione positiva lo scorso dicembre.
Lo scopo della proposta, che può essere visto sul sito web PE, secondo i suoi sostenitori, è un tentativo di garantire “uno sviluppo etico e incentrato sull’uomo dell’IA nell’Unione europea”. Oltre a prevenire i rischi derivanti dal rapido sviluppo della tecnologia.
Secondo la Commissione Europea, la base dei nuovi regolamenti è proporre una definizione unificata di sistemi algoritmici complessi, che sono indicati come intelligenza artificiale. Per differenziare l’intelligenza artificiale dai sistemi software più semplici, la Commissione ha ristretto la definizione a “sistemi sviluppati utilizzando l’apprendimento automatico e la logica e gli approcci basati sulla conoscenza”.
Questo voto è una pietra miliare nella regolamentazione dell’IA e un chiaro segnale al PE che i diritti fondamentali devono essere la pietra angolare della regolamentazione. L’intelligenza artificiale dovrebbe servire le persone, la società e l’ambiente, non viceversa.
Anche l’Unione Europea ha aderito dichiarazione vuole puntare a “garantire sicurezza, trasparenza e prevenire la discriminazione o essere rispettosi dell’ambiente”.
La riunione plenaria del Parlamento europeo adotterà la sua posizione sulla legislazione in una riunione a giugno, riporta il sito web Euractiv. Successivamente, la proposta entrerà nella fase finale dell’iter legislativo, quando inizieranno i negoziati con il Consiglio dell’Unione Europea, ovvero i rappresentanti dei governi di ciascun Paese, e la Commissione Europea.
Divieto della tecnologia di riconoscimento facciale
La Commissione propone di classificare gli strumenti di questo tipo in base al loro livello di rischio, che va da basso a inaccettabile. I governi e le aziende che utilizzano questi strumenti avranno responsabilità diverse a seconda del livello di rischio.
Le tecnologie rischiose giudicate inaccettabili dalle autorità europee saranno bandite. Ciò include l’utilizzo di tattiche manipolative, lo sfruttamento delle vulnerabilità delle persone o l’utilizzo per valutare il punteggio sociale di un utente, in base al suo comportamento, stato socioeconomico o caratteristiche personali.
In una votazione di giovedì, i legislatori hanno deciso di vietare l’uso del riconoscimento facciale negli spazi pubblici. Vogliono anche il divieto degli strumenti di polizia predittiva che possono profilare le persone.
Stanno anche cercando di introdurre nuove misure di trasparenza per app come ChatGPT OpenAI. Molti requisiti per uno strumento di intelligenza artificiale ad alto rischio adatto Consiglio dell’Unione Europea chiarito e modificato in modo che il suo adempimento sia tecnicamente più fattibile e meno gravoso per le parti interessate.
Intelligenza artificiale
L’intelligenza artificiale è sempre più presente in tutti gli aspetti della nostra vita. Allo stesso tempo, è in fase di sviluppo, dove offre opportunità uniche agli investitori grazie alle prospettive ottimistiche per l’intero settore. Leggi l’analisi dell’elenco delle notizie.
Il Parlamento europeo sta inoltre aggiungendo strumenti in grado di influenzare gli elettori nelle campagne politiche, nonché strumenti utilizzati per raccomandare post da piattaforme di social media, al suo elenco di AI ad alto rischio.
Inoltre, secondo i membri della commissione competente del Parlamento europeo, i fornitori di servizi di IA devono adempiere ai loro obblighi in materia di sicurezza, salute e conformità legale e devono registrare tali servizi nella banca dati dell’UE.
“Siamo sul punto di creare una legislazione veramente innovativa per l’ambiente digitale, non solo per l’Europa ma per il mondo intero”, ha affermato Brando Benifei, uno degli sponsor della proposta.
Compromessi a destra e sinistra
Gli autori del progetto di quadro giuridico consideravano l’accordo complesso, ma ritenevano che ciascuna delle parti partecipanti ai negoziati ottenesse ciò che desiderava. Così almeno stato Dragos Tudorache, uno dei membri del Parlamento incaricato di preparare il quadro giuridico.
Anche l’eurodeputata tedesca Svenja Hahn è d’accordo con lui. Quell’agenzia Reuters ha detto che i negoziati hanno costretto i legislatori conservatori e di sinistra a incontrarsi a metà strada. “Possiamo trovare un compromesso che regolerà adeguatamente l’intelligenza artificiale, proteggerà i diritti civili e guiderà l’innovazione e l’economia”, ha affermato.
Minaccia AI
“Non dobbiamo temere che l’intelligenza artificiale prenda il sopravvento sui nostri posti di lavoro, i vantaggi in termini di produttività saranno ancora più significativi”, ha affermato Michael Schwarz, capo economista di Microsoft. Secondo lui, l’uso improprio dell’intelligenza artificiale da parte di truffatori e manipolatori è più dannoso.
“Questo voto è una pietra miliare nella regolamentazione dell’IA e un chiaro segnale al PE che i diritti fondamentali devono essere la pietra angolare della regolamentazione. L’intelligenza artificiale dovrebbe servire le persone, la società e l’ambiente, non viceversa”, ha detto a Reuters l’eurodeputato verde Kim van Sparrentak.
Diversi paesi chiedono la necessità di regolamentare l’intelligenza artificiale
Un certo numero di paesi ha chiesto la necessità di regolamentare l’intelligenza artificiale a livello nazionale e internazionale. All’inizio di aprile, l’Italia è diventata il primo paese al mondo a vietare l’uso dei chatbot ChatGPT per motivi di privacy.
Alla fine di aprile, il governo italiano ha nuovamente consentito l’uso di ChatGPT. Ad esempio, il Garante per la protezione dei dati personali ha chiesto alla società di visualizzare sul proprio sito web un avviso che descriva le modalità e la logica del trattamento dei dati per il ripristino del sistema.
Anche l’autorità garante della concorrenza del Regno Unito ha iniziato ad affrontare i rischi legati all’intelligenza artificiale.
In uno straordinario capovolgimento, l’Italia ha ripristinato ChatGPT e il primo ministro italiano incontra il robot (non è uno scherzo).
OpenAI ha rispettato una serie di modifiche su cui aveva solo 20 giorni per agire, tra cui: un modulo per eliminare i dati degli utenti, una verifica dell’età più rigorosa, ha aggiunto un articolo su come ChatGPT raccoglie i dati. pic.twitter.com/400jeZYVRL
— Project Counsel Media (@ProjectCounsel) 2 maggio 2023
A marzo, il parlamento francese ha approvato un controverso emendamento a una legge sull’uso dell’intelligenza artificiale per il monitoraggio della sicurezza in relazione alle Olimpiadi estive del 2024 a Parigi.
Ma sono tutt’altro che gli unici paesi che si occupano di questo problema. La necessità di regolamentare l’IA viene discussa anche in Spagna, Irlanda, Australia o Giappone.
E ci sono anche alcuni individui a cui non piace la velocità con cui si sta sviluppando l’intelligenza artificiale. Più di mille accademici, esperti e imprenditori sono coinvolti nello sviluppo dell’intelligenza artificiale, incluso apertamente il miliardario Elon Musk letterapubblicato a marzo dall’organizzazione no profit Future of Life, ha chiesto una sospensione di almeno sei mesi dello sviluppo di nuovi modelli visti gli “immensi rischi per la società e l’umanità”.
“Pensatore. Appassionato di social media impenitente. Guru di viaggi per tutta la vita. Creatore orgoglioso.”