Helga Zanotti- Legge Europea sull’intelligenza artificiale: il futuro è già domani
Il 12 marzo 2024, il Parlamento Europeo ha approvato il testo definitivo della legge sull’intelligenza artificiale, nota come AI Act (Artificiale Intelligence Act). Le domande che serpeggiano nell’ambiente partono dall’ipotesi di un irrimediabile ritardo sulle strade da intraprendere, per guidare il cambiamento nel rispetto delle persone e dello sviluppo dell’economia europea.
Entro il 2025, il volume totale dei dati prodotti al mondo pare destinato a quintuplicarsi, rispetto al valore di 33 zettabyte del 2018, anche grazie alla rapida progressione dell’intelligenza artificiale. È legittimo attendersi, che questa importante mole di dati trasformi la società, cioè il modo di produrre, consumare e vivere di ogni essere umano. Questa considerazione ci porta ad una prima valutazione: l’innovazione digitale e -nel caso qui trattato- l’intelligenza artificiale è nettamente più veloce del processo normativo ed anche economico. Solo conoscendo le dinamiche proprie dello sviluppo dell’intelligenza artificiale potremo beneficiare dei suoi effetti positivi, anche nell’ambito delle politiche di sviluppo e competitività degli enti.
Negli USA, un’azienda di liquori ha nominato un CEO Robot con intelligenza artificiale, Mika, mentre nello stesso Paese un avvocato ha incaricato Chat-gpt di costruire la difesa di un suo cliente. Nel primo caso, la società ha ottenuto un buon risultato in borsa, mentre nel secondo caso l’avvocato è stato sospeso dall’esercizio della professione forense, perché il giudice ha scoperto che questi e per lui Chat-gpt, si era letteralmente inventata i precedenti a sostegno della difesa elaborata[1]. Il risultato sembra diametralmente opposto, a un primo sguardo. Nei fatti il sistema di intelligenza artificiale che opera come amministratore delegato subisce i limiti legati ai bias cognitivi e la carenza di creatività che solo l’essere umano vanta. In breve, non può raggiungere i risultati degli amministratori delegati umani.
Una seconda valutazione ruota intorno a questi due esempi, non certo edificanti, del resto lo scopo era introdurre un tema importante, che traspare dallo speech dell’AD di Open AI in occasione del lancio di Chat-gpt: l’intelligenza artificiale che vediamo ora è semplice, frequentemente pervasa da errori e bias, anche a causa dei sistemi di machine learning impiegati per addestrarla[2]. Se non conosce i limiti dell’intelligenza artificiale chi la lancia sul mercato, non può farlo la legge.
La vera svolta è stimabile tra il 2028 e il 2030 circa, quando sistemi di intelligenza artificiale oggi, forse, inimmaginabili creeranno nuove opportunità professionali, nuovi metodi di cura e nuovi sistemi di produzione, per esempio.
Ci troviamo al centro di un cambiamento epocale, che chiama gli operatori europei ad essere data driven. A questo scopo, occorre un’intelligenza artificiale antropocentrica e affidabile[3].
Attraverso l’applicazione del c.d. Principio di progettazione antropocentrica dell’intelligenza artificiale, unitamente al Principio di autonomia della persona, è legittimo attendersi un incremento delle abilità cognitive, sociali e culturali dell’essere umano intorno al quale è costruito il diritto europeo[4].
Le società con sede extra-UE non devono rispettare norme simili, per sviluppare l’intelligenza artificiale e quelle statunitensi sono soggette unicamente ad una serie di norme incentrate sul valore economico dell’intelligenza artificiale[5], invece che sul coordinamento fra sviluppo dell’AI e rispetto delle persone. Un vantaggio a discapito dell’Europa? Non è detto, poiché i sistemi sviluppati e commercializzati extra-UE dovranno adeguarsi alle norme dell’AI Act Europeo, per entrare nel nostro mercato.
L’AI Act europeo si applica anche ai sistemi di intelligenza artificiale sviluppati e prodotti all’estero, che si intenda commercializzare sul nostro mercato, per garantire l’affidabilità dei sistemi e la fiducia delle persone, ma anche per arginare i rischi di affossare la competitività delle società europee dinnanzi alle Big Tech. Il ruolo dell’Unione Europea nei prossimi anni sarà probabilmente duplice: attrarre dati per sviluppare la propria economia ed evitare abusi nel relativo trattamento. Mi pare più attrattivo del capitalismo della sorveglianza.
Avvocata d’affari, laureata in Diritto Internazionale all’Università degli Studi di Pavia ha studiato scienze alla Scuola Universitaria Superiore dello stesso ateneo, nonché Alumna del Collegio Nuovo-Fondazione Sandra ed Enea Mattei. Successivamente, Executive MBA con focus sull’innovazione digitale, successivamente Master sulla Privacy e Master sui Contratti on-line. Ha avuto un incarico triennale all’Università di Bergamo, successivamente all’Università Cattolica del Sacro Cuore di Milano, mentre oggi è tutor di giurisprudenza, presso l’Almo Collegio Borromeo, uno dei dodici Collegi universitari riconosciuti dal Ministero per l’Università e la Ricerca, nonché al Master International Business Entrepreneurship (M.I.B.E.) entrambi dell’Università di Pavia. Ad Aprile 2024, Dottorato in Business Administration, presso la stessa università con tesi sul tema: Etica dell’Intelligenza Artificiale. Ha scritto sia per https://www.econopoly.ilsole24ore.com/2020/05/26/fintech-disruption-realta/; nonchè per Giappichelli Editore, “Guidare il cambiamento e l’innovazione. Scenari, talenti, valori”, A cura di Stefano Denicolai, G. Giappichelli Editore, 2020; per CEDAM, “Manuale di diritto dell’informazione e della comunicazione” del Prof. Ruben Razzante, (cap. 3: “Tutela della privacy e nuove frontiere dell’innovazione tecnologica”), 2022 nonché per la Rivista di Diritto dell’Informazione, a cura del Prof. Ruben Razzante. Mensilmente scrive sulla rivista economica WIP-Work in Progress, http://wipbusiness.it. È avvocata of counsel per BMV Law Tax & Finance, dove si occupa del Diritto dell’innovazione digitale e delle nuove tecnologie.
[1] Nei sistemi giuridici di Common Law, le sentenze rese in precedenza da altri giudici, in particolare superiori, aventi il medesimo oggetto, ndr.
[2] Chat-gpt è addestrata su Wikipedia e su articoli universitari che paiono troppo datati per essere fonti di conoscenza vera e propria, ndr.
[3] Emendamento 3, considerando 1 – AI Act.
[4] Linee Guida Etiche per un’IA affidabile, a cura del Gruppo di esperti di alto livello sull’intelligenza artificiale, 2028, Gruppo di esperti di alto livello sull’intelligenza artificiale | Plasmare il futuro digitale dell’Europa, nonchè Risoluzione del Parlamento Europeo del 20.10.2020 recante raccomandazioni alla Commissione concernenti il Quadro relative agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012-INL).
[5] Execuive order on the Safe, Secure and Trustworthy Development and Use of Artificial Intelligence del 23.10.203.