New EU Regulations on AI: different rules for different risk levels
In April 2021, the European Commission came up with an ambitious draft regulation on AI, aiming to establish clear rules for the use of AI in the European Union, which is intended to be implemented and enforced in all EU member states. This draft regulation is part of the EU’s digital strategy, an essential component of efforts to support the green transition and achieve climate neutrality by 2050.
It is undeniable that artificial intelligence has multiple benefits: for citizens and companies – better healthcare services, safer and more environmentally friendly vehicles and transportation systems, tailored products and services that are cheaper and more sustainable, better access to information, education, and training, workplace safety, the development of a new generation of products and services in sectors such as the green and circular economy, equipment, agriculture, healthcare, fashion, and tourism, sales optimization, equipment maintenance improvement, increased volume and quality of production, energy and waste management, product sustainability; for strengthening democracy – data-driven monitoring, preventing misinformation and cyber-attacks, access to quality information, supporting diversity, utilizing analytical data; for security and safety – prevention of crimes and terrorist attacks, via a faster processing of massive datasets, more accurate assessment of inmate escape risks; for the military field – developing defense strategies against hacking and phishing attacks, the potential for autonomous weapons to engage in armed conflict with reduced risk of physical harm
Yet, it is equally true that artificial intelligence can pose dangers and risks – either through insufficient or excessive use of AI, the difficulty in identifying the person responsible for any damages caused by AI, intentional or unintentional distortion of personal data, posing a threat to fundamental rights and democracy, biasing the hiring process which can lead to biased decisions based on factors such as ethnicity, gender, or age, facilitating online tracking or even creating fake profiles, videos, audio, or images such as deepfakes, in that in certain fields human personnel will be replaced by artificial intelligence, distorting competition – repeatedly suggesting certain products to the detriment of others, influencing electoral messaging based on a person’s online behaviour.
It is the reason why, at the end of last year, the European Parliament proposed amending the draft regulation on AI, providing a uniform and technologically neutral definition of AI – by establishing categories of risks involved and setting different rules applicable to providers and users, depending on these different categories of risks.
• Unacceptable risk – systems considered a threat to humans, which will be prohibited (cognitive-behavioural manipulation of individuals or certain vulnerable groups, classification of individuals based on behaviour, socioeconomic status, or personal characteristics, biometric identification and classification of individuals, real-time and remote biometric identification systems, such as facial recognition, except in cases of serious crimes, and only with court approval).
• High risk – systems that adversely affect safety or fundamental rights: (a) AI systems used in products covered by EU product safety legislation (toys, aviation, cars, medical devices, and elevators) and (b) AI systems in eight specific domains that will need to be registered in a EU database (management and operation of critical infrastructure, education and vocational training, labour market access, worker management and access to independent activities, access and use of essential private services, as well as public services and benefits, law enforcement, migration management, asylum, and border control, assistance in interpreting and applying the law). In this regard, general and generative AI will be subject to detailed rules (clear indication that content was generated by AI, designing the model to prevent the generation of illegal content, publishing summaries of copyrighted data used for training), and rigorous assessment.
• Limited risk – AI systems presenting limited risk must comply with minimum transparency requirements, enabling users to knowingly decide whether they wish to continue using those systems, and ensuring compliance with the obligation to inform (users must be aware that they are interacting with AI).
The European Parliament’s initiative stems from the necessity to ensure transparency, traceability, non-discrimination, and environmental protection in all aspects related to AI. It is paramount to mention that the draft regulation on AI by the European Union is still being discussed and may undergo modifications before adoption. However, it is a clear token of the European Union’s efforts to address issues related to the responsible and ethical use of artificial intelligence in society by establishing a uniform legal framework.
Source: European Parliament
Noutăți în legislația europeană privind IA: reguli diferite pentru diferite niveluri de risc
În aprilie 2021, Comisia Europeană a prezentat un proiect ambițios de regulament privind AI, care urmărește să stabilească norme clare pentru utilizarea AI în Uniunea Europeană și care urmează să fie implementat și aplicat în toate statele membre ale UE. Acest proiect de regulament face parte din strategia digitală a UE, componentă esențială a eforturilor de susținere a tranziției verzi și de a atinge neutralitatea climatică până în 2050.
Este de netăgăduit că inteligența artificială are multiple beneficii: pentru cetățeni și companii – servicii de asistență medicală mai bune, vehicule și sisteme de transport mai sigure și mai prietenoase cu mediul, produse și servicii adaptate, mai ieftine și mai durabile, acces la informații, educație și formare, siguranță la locul de muncă, dezvoltarea unei noi generații de produse și servicii în sectoare precum economia verde și circulară, echipamente, agricultură, asistență medicală, modă și turism, optimizarea vânzărilor, îmbunătățirea întreținerii echipamentelor, creșterea volumului și a calității producției, gestionarea energiei și a deșeurilor, durabilitatea produselor; pentru consolidarea democrației – monitorizare bazată pe date, prevenirea dezinformării și atacurilor cibernetice, accesul la informații de calitate, susținerea diversității, utilizarea datelor analitice; pentru securitate și siguranță – prevenirea criminalității, a infracțiunilor și atacurilor teroriste, prin prelucrarea mai rapidă a seturilor de date masive, evaluarea mai precisă a riscurilor de fugă ale deținuților; pentru domeniul militar – elaborarea strategiilor de apărare împotriva atacurilor de tip hacking și phishing, potențialul armelor autonome de a se implica într-un conflict armat cu un risc redus de vătămare fizică.
Dar la fel de adevărat este că inteligența artificială poate prezenta pericole și riscuri – fie prin utilizarea insuficientă fie prin utilizarea în exces a IA, prin faptul că este greu de identificat persoana responsabilă pentru eventualele daune cauzate de IA, prin distorsionarea intenționată sau nu a datelor personale, ceea ce reprezintă o amenințare la adresa drepturilor fundamentale și a democrației, prin vicierea procesului de angajare care poate conduce la decizii părtinitoare pe considerente precum etnia, sexul sau vârsta, prin faptul că poate facilita urmărirea online sau chiar crearea unor profiluri, materiale video, audio sau imagini false de tip deepfake, prin faptul că în anumite domenii personalul uman va fi înlocuit de inteligența artificială, prin denaturarea concurenței – sugerarea în mod repetitiv a anumitor produse în detrimentul altora, prin influențarea mesajului electoral pornind de la comportamentul online al unei persoane.
Este și motivul pentru care, la finele anului trecut, Parlamentul European a propus modificarea proiectului de regulament privind IA, oferind o definiție uniformă și neutră din punct de vedere tehnologic pentru IA – prin stabilirea categoriilor de riscuri pe care le presupune și stabilind reguli diferite, aplicabile furnizorilor și utilizatorilor, în funcție de aceste categorii diferite de riscuri:
• Risc inacceptabil – sisteme considerate o amenințare pentru oameni și care vor fi interzise (manipularea cognitiv-comportamentală a persoanelor sau a anumitor grupuri vulnerabile, clasificarea persoanelor în funcție de comportament, statut socio-economic sau caracteristici personale, identificarea și clasificarea biometrică a persoanelor fizice, sisteme de identificare biometrică în timp real și la distanță, cum ar fi recunoașterea facială, cu excepția cazului în care este vorba despre infracțiuni grave, și numai cu aprobarea instanței).
• Risc ridicat – sisteme care afectează negativ siguranța sau drepturile fundamentale: (a) sisteme IA utilizate în produsele care intră sub incidența legislației UE privind siguranța produselor (jucării, aviație, mașini, dispozitive medicale și ascensoare) și (b) sisteme IA din opt domenii specifice care vor trebui înregistrate într-o bază de date a UE (managementul și operarea infrastructurii critice, educație și formare profesională, ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente, accesul și folosirea unor servicii private esențiale, precum și a unor servicii și beneficii publice, aplicarea legii, gestionarea migrației, azilului și controlului la frontieră, asistență în interpretarea și aplicarea legii). În acest sens, IA generală și generativă va fi supusă unor reguli detaliate (indicarea clară că un conținut a fost generat de IA, proiectarea modelului pentru a preveni generarea de conținut ilegal, publicarea de rezumate ale datelor protejate prin drepturi de autor utilizate pentru instruire) și unei evaluări riguroase.
• Risc limitat – sistemele IA care prezintă risc limitat trebuie să respecte cerințe minime de transparență conform cărora utilizatorii pot decide, în cunoștință de cauză, dacă doresc să continue să folosească acele sisteme și care să asigure respectarea obligației de informare (utilizatorii trebuie să știe că interacționează cu IA).
Demersul Parlamentului European este justificat de necesitatea asigurării transparenței, trasabilității, nediscriminării și protejării mediului în tot ceea ce înseamnă IA. Este important de menționat că proiectul de regulament privind AI al Uniunii Europene este încă în faza de discuție și poate suferi modificări înainte de a fi adoptat. Totuși, este un semnal al eforturilor Uniunii Europene de a aborda aspectele legate de utilizarea responsabilă și etică a inteligenței artificiale în societate prin stabilirea unui cadru juridic uniform.
Sursa: Parlamentul European
Article published in Avocatnet.ro