Dai bollini anti-deepfake all’aggravante per AI, dai soldi (niente cenno al miliardo) alla fondazione per la ricerca. Wired ha visionato in esclusiva la minuta della legge del governo Meloni
La presidente del Consiglio, Giorgia Meloni
Dall'aggravante per AI al fisco automatizzato, dai bollini anti-deepfake ai fondi dedicati. Sono alcuni dei contenuti del disegno di legge sull'intelligenza artificiale a cui sta lavorando il governo Meloni. Un testo che Palazzo Chigi dichiarava di voler pubblicare prima di Pasqua. E di cui, invece, ancora non si vede traccia. Wired ha potuto visionare una bozza licenziata alle 17 dello scorso 26 marzo. Da cui emergono le attività connesse all'intelligenza artificiale che l'esecutivo vuole regolare, la creazione di una fondazione, le modalità di controllo con un tandem tra l'Agenzia per l'Italia digitale (Agid, l'ente per la digitalizzazione della pubblica amministrazioni) e l'Agenzia per la cybersicurezza nazionale (Acn), i fondi dedicati, 150 milioni già infilati nell'ultimo decreto legge dedicato al Piano nazionale di ripresa e resilienza (Pnrr), varato il 26 febbraio.
La minuta del disegno di legge, ancora in discussione riservata e passibile di modifiche, si compone di 25 articoli, suddivisi in sei capitoli. Il primo capo delimita i principi del pacchetto di regole. Che si applica in materia di “ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale”, per garantire un “utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica” e la “vigilanza sui rischi economici e sociali e sull'impatto sui diritti fondamentali”.
l disegno di legge sull'AI fissa in nove articoli i principi fondamentali della legge. Nella bozza si legge che “i sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell'uomo, della prevenzione del danno, della conoscibilità, della spiegabilità”. L'AI “non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica”, come la manipolazione del voto attraverso i deepfake, e vanno garantite le massime difese in materia di cybersecurity, “secondo un approccio proporzionale e basato sul rischio”, che è poi quello su cui è costruito l'AI Act, il regolamento comunitario sul settore.
Di settore in settore, il governo prevede in ambito economico che gli enti pubblici favoriscano “la creazione di un mercato dell'intelligenza artificiale innovativo, equo, aperto e concorrenziale e di ecosistemi innovativi”, anche attraverso uno specifico mercato degli appalti pubblici (di cui si fa solo cenno), e “facilitano la disponibilità e l'accesso a dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale e per al comunità scientifica e dell'innovazione”. Un richiamo alla messa a disposizione dei dati spesso disattesa dal pubblico, compreso questo governo (come nel caso della mappa varata dal ministero dell'Ambiente e della sicurezza energetica sulle colonnine di ricarica elettrica).
Uno degli obiettivi della legge, si legge all'articolo 10, è introdurre l'AI nei controlli fiscali, “con finalità di semplificazione degli adempimenti dei contribuenti, di miglioramento degli standard di certezza del diritto, nonché di supporto alle strategie di analisi del rischio di evasione, all'effettuazione dei controlli, alle attività di accertamento e di riscossione”. Mentre l'articolo 11 interviene sulle professioni intellettuali, asserendo che l'uso dell'AI “è consentito esclusivamente per esercitare attività strumentali e di supporto all'attività professionale richiesta e con prevalenza del lavoro intellettuale oggetto della prestazione d'opera” e che il cliente va informato. Una dichiarazione piuttosto generica, se si considera che ci sono almeno 26 ordini professionali in Italia, che possono avere, anche al loro interno, livelli diversi di ricorso all'AI.
Tra i principi è stata inserita anche la proposta di rendere obbligatorio il consenso dei genitori per far accedere gli under 14 a tecnologie di AI. Una soglia minima che. nella bozza visionata da Wired, il Garante della privacy suggerisce di innalzare. Tra 14 e 18 anni, invece, il minore può esprimere il proprio consenso all'uso dei dati per allenare sistemi di AI, purché le politiche degli sviluppatori siano trasparenti e comprensibili.
Viaggi
Dalla Torre Eiffel a Montmartre, ecco le migliori opzioni per
Viaggi
Romanticismo, vita notturna o opzioni economiche, Lisbona ha tutto
Viaggi
Scopri i quartieri più belli di Amsterdam, dai vivaci canali