Artificial Intelligence – regulated at European level
On August 1, 2024, Regulation (EU) 2024/1689 of the European Parliament and of the Council of June 13, 2024, establishing harmonized rules on artificial intelligence and amending several European regulations and directives, entered into force. According to the statement of reasons itself, the purpose of this regulation – the most comprehensive in the world on artificial intelligence – is “to improve the functioning of the internal market, promote the adoption of human-centric and reliable artificial intelligence, while ensuring a high level of protection of health, safety and fundamental rights enshrined in the human rights charter, including democracy, the rule of law and the environment, against the harmful effects of AI systems in the Union, and supporting innovation”. As AI systems can today be implemented in a wide variety of sectors of the economy and in many parts of society, including cross-border, and can easily circulate throughout the Union, there was a need for a European-wide rule harmonizing the rules to avoid internal fragmentation in the EU and to increase the degree of legal certainty for operators developing, importing or using AI systems.
The AI Regulation contains a comprehensive list of definitions (68), including the definition of “AI system” (a machine-based system which is designed to operate with different levels of autonomy and which may exhibit adaptability after implementation, and which, pursuing objectives explicit or implicit, deduces, from the input data it receives, how to generate results such as predictions, content, recommendations or decisions that can influence physical or virtual environments) and “risk” (the combination of the probability of harm and its severity).
Starting from these definitions, the definition of artificial intelligence is penciled in, depending on product safety and the EU’s risk-based approach.
Thus, four levels of risk for AI systems have been identified and classified in the regulatory framework: (a) minimal risk AI systems: AI recommender systems and AI-based anti-spam filters, systems that present minimal risks to rights and safety of citizens and which are therefore not covered by the AI Regulation; (b) AI systems with a specific transparency risk: systems such as chatbots that have an obligation to clearly inform users that they are interacting with a machine; certain AI-generated content, including deepfakes, which must be labeled as such; biometric classification/identification or emotion recognition systems about which users must be clearly informed; synthetic audio, video, text and image content, which must be in machine-readable format and can be detected as artificially generated or manipulated; (c) high-risk AI systems: for example, artificial intelligence systems used for recruitment or to assess whether someone is eligible for a loan, or to drive autonomous robots, which will have to meet strict requirements, including risk mitigation systems, high-quality datasets, activity logging, detailed documentation, clear user information, human oversight and a high level of robustness, accuracy and cyber security; (d) AI systems with unacceptable risk: AI systems or applications that manipulate human behavior to circumvent users’ free will, such as toys that use voice assistance and encourage dangerous behavior, systems that allow “social scoring” by governments or companies, and which are considered a clear threat to the fundamental rights of individuals, certain uses of biometric systems (emotion recognition systems used in the workplace and certain real-time remote biometric identification or person classification systems ), which will be banned as of February 2, 2025.
The AI Regulation also talks about general-purpose AI models – high-performance AI models designed to perform a wide variety of tasks, such as human-like text generation, which are increasingly used as components of AI applications.
The AI Regulation comprises harmonized rules for the placing on the market, commissioning and use of AI systems in the Union; transparency for certain AI systems; on the market introduction of general purpose AI models; on market monitoring, market surveillance, governance and regulation enforcement; prohibitions on certain AI practices; specific requirements for high-risk AI systems and obligations for operators of such systems, as well as measures to support innovation, with a particular focus on SMEs, including start-ups.
There are also some types of AI systems/activities that have been excluded from the scope of the Regulation, including AI systems that are designed exclusively for military, defense or national security purposes, regardless of the type of entity carrying out those activities or the research, development and prototyping activities that occur before an AI system is brought to market.
By 2 August 2025, Member States must designate competent national authorities that will monitor the application of rules on AI systems and carry out market surveillance activities. The main implementing body at EU level will be the AI Office, which will be joined by three advisory bodies: the AI Council – which provides advice and assistance to the Commission and Member States to facilitate coherent and effective application of the Regulation, the Consultative Forum – which will provide technical expertise to the IA Council and the Commission and advise them, and contribute to their tasks according to the regulation; and the Scientific Group of Independent Experts – which advises and supports the AI Office (on possible Union-wide systemic risks posed by general-purpose AI models, the development of tools and methodologies for assessing the capabilities of general-purpose AI models and systems, classification of general-purpose AI systems with systemic risk, classification of various general-purpose AI systems and models, development of tools and models).
Most of the provisions of the AI Regulation will be applicable from 2 August 2026, but certain prohibitions on AI systems with unacceptable risk will apply even earlier, from 2 February 2025, and the rules on general purpose AI models will become applicable from 2 August 2025.
The Regulation also provides for sanctions in the form of administrative fines for operators (as identified in the Regulation) who do not comply with the provisions of the AI Regulation, applicable from August 2, 2025 (with the exception of article 101 of the Regulation which provides for fines for providers of AI models of general use that will become applicable from August 2, 2026).
. These can be up to EUR 35,000,000 or, in the case of enterprises, up to 7% of the global annual turnover – for violation of prohibitions on AI practices, up to EUR 15,000,000 or, in the case of enterprises, up to 3 % of global annual turnover – for breach of other obligations and up to EUR 7,500,000 or, in the case of businesses up to 1.5% of global annual turnover – for providing incorrect, incomplete or misleading information.
It should be noted that in the case of each category of violations, for SMEs (including newly established enterprises) for the application of sanctions, the lower value of the two amounts provided for in the Regulation will be taken into account, while for other enterprises, will take into account the highest value.
The AI Regulation is an ambitious initiative that reflects the EU’s commitment to protecting the rights of its citizens in the digital age, while promoting responsible innovation. While there are challenges in implementing this legislative framework, its success could set a global standard for AI regulation, influencing how the technology will evolve in the coming decades. Through this regulation, Europe aims to be a global leader in developing AI that is safe, ethical and for the benefit of all.
Inteligența Artificială – reglementată la nivel european
Pe data de 1 august 2024 a intrat în vigoare Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024, de stabilire a unor norme armonizate privind inteligența artificială și de modificare a mai multor regulamente și directive europene. Potrivit însăși expunerii de motive, scopul acestui regulament – cel mai cuprinzător din lume privind inteligența artificială – este „de a îmbunătăți funcționarea pieței interne, de a promova adoptarea inteligenței artificiale centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în carta drepturilor omului, inclusiv a democrației, a statului de drept și a mediului, împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea”. Întrucât sistemele AI pot fi implementate astăzi într-o mare varietate de sectoare ale economiei și în multe părți ale societății, inclusiv la nivel transfrontalier, și pot circula cu ușurință în întreaga Uniune, era nevoie de o normă la nivel european, care să armonizeze normele naționale, pentru a evita fragmentarea internă în UE și pentru a spori gradul de securitate juridică pentru operatorii care dezvoltă, importă sau utilizează sisteme de IA.
Regulamentul IA cuprinde o listă comprehensivă de definiții (68), printre care definiția „sistemului de IA” (un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale) și a „riscului” (combinația dintre probabilitatea producerii unui prejudiciu și gravitatea acestuia).
Pornind de la aceste definiții se creionează mai departe definiția inteligenței artificiale, în funcție de siguranța produselor și de abordarea bazată pe riscuri din UE.
Astfel, în cadrul de reglementare au fost identificate și clasificate patru niveluri de risc pentru sistemele de IA: (a) sisteme de IA cu risc minim: sistemele AI de recomandare și filtrele anti-spam bazate pe AI, sisteme care prezintă riscuri minime pentru drepturile și siguranța cetățenilor și care, prin urmare nu sunt vizate de Regulamentul privind inteligența artificială; (b) sisteme de IA cu risc specific în materie de transparență: sistemele de tip roboți de chat care au obligația să informeze în mod clar utilizatorii că interacționează cu o mașină; anumite conținuturi generate de AI, inclusiv deepfake-urile, care trebuie să fie etichetate ca atare; sistemele de clasificare/identificare biometrică sau de recunoaștere a emoțiilor cu privire la care utilizatorii trebuie să fie clar informați; conținuturi audio, video, text și imagini sintetice, care trebuie să fie în format lizibil automat și să poată fi detectate ca fiind generate sau manipulate artificial; (c) sisteme de IA cu risc ridicat: de exemplu, sistemele de inteligență artificială utilizate pentru recrutare sau pentru a evalua dacă cineva are dreptul de a obține un împrumut, sau pentru a conduce roboți autonomi, care vor trebui să respecte cerințe stricte, inclusiv sisteme de reducere a riscurilor, seturi de date de înaltă calitate, înregistrarea activității, documentație detaliată, informații clare pentru utilizatori, supraveghere umană și un nivel ridicat de robustețe, precizie și securitate cibernetică; (d) sisteme de AI cu risc inacceptabil: sistemele sau aplicațiile AI care manipulează comportamentul uman pentru a eluda liberul arbitru al utilizatorilor, cum ar fi jucăriile care utilizează asistență vocală și încurajează comportamentul periculos, sistemele care permit „alocarea unui scor social” de către guverne sau companii, și care sunt considerate o amenințare clară la adresa drepturilor fundamentale ale persoanelor, anumite utilizări ale sistemelor biometrice (sistemele de recunoaștere a emoțiilor utilizate la locul de muncă și anumite sisteme de clasificare a persoanelor sau de identificare biometrică la distanță în timp real), care vor fi interzise începând cu data de 2 februarie 2025.
Regulamentul IA face vorbire și despre modele de inteligență artificială cu scop general – modele de inteligență artificială foarte performante, concepute pentru a îndeplini o mare varietate de sarcini, cum ar fi generarea de text asemănător celui uman, și care sunt din ce în ce mai utilizate sub formă de componente ale aplicațiilor AI.
Regulamentul IA cuprinde norme armonizate pentru introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA în Uniune; de transparență pentru anumite sisteme de IA; privind introducerea pe piață a modelelor de IA de uz general; privind monitorizarea pieței, supravegherea pieței, guvernanța și aplicarea regulamentului; interdicții privind anumite practici în domeniul IA; cerințe specifice pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii unor astfel de sisteme, precum și măsuri de susținere a inovării, cu un accent deosebit pe IMM-uri, inclusiv pe întreprinderile nou-înființate.
Există și câteva tipuri de sisteme de IA/activități care au fost excluse din sfera de aplicare a Regulamentului, printre care sistemele de IA care sunt concepute exclusiv în scopuri militare, de apărare sau de securitate națională, indiferent de tipul de entitate care desfășoară activitățile respective sau activitățile de cercetare, dezvoltare și creare de prototipuri care au loc înainte de introducerea pe piață a unui sistem de IA.
Până la data de 2 august 2025, statele membre trebuie să desemneze autoritățile naționale competente care vor monitoriza aplicarea normelor privind sistemele AI și vor desfășura activități de supraveghere a pieței. Organismul principal de punere în aplicare la nivelul UE va fi Oficiul pentru IA, căruia i se vor alătura trei organe consultative: Consiliul IA – care oferă consiliere și asistență Comisiei și statelor membre pentru a facilita aplicarea coerentă și eficace a regulamentului, Forumul consultativ – care va furniza cunoștințe de specialitate tehnice Consiliului IA și Comisiei și le va consilia, și va contribui la sarcinile ce le revin acestora potrivit regulamentului; și Grupul științific de experți independenți – care consiliază și sprijină Oficiul pentru IA (cu privire la posibile riscuri sistemice la nivelul Uniunii prezentate de modele de IA de uz general, dezvoltarea instrumentelor și metodologiilor de evaluare a capabilităților modelelor și sistemelor de IA de uz general, clasificarea sistemelor de IA de uz general cu risc sistemic, clasificarea diverselor modele și sisteme de IA de uz general, dezvoltarea de instrumente și modele).
Majoritatea prevederilor Regulamentului IA vor fi aplicabile din 2 august 2026, însă anumite interdicții privind sistemele IA cu risc inacceptabil se vor aplica chiar mai devreme, din 2 februarie 2025, , iar regulile privind modelele IA cu scop general vor deveni aplicabile din data de 2 august 2025.
Regulamentul prevede, de asemenea sancțiuni sub forma unor amenzi administrative pentru operatorii (astfel cum sunt identificați în Regulament) care nu respectă prevederile Regulamentului IA, aplicabile din 2 august 2025 (cu excepția articolului 101 din Regulament care prevede amenzile pentru furnizorii de modele de IA de uz general care va deveni aplicabil din data de 2 august 2026).
Acestea pot ajunge până la 35.000.000 EUR sau, în cazul întreprinderilor, până la 7% din cifra de afaceri anuală globală – pentru încălcarea interdicțiilor privind practicile din domeniul IA, până la 15.000.000 EUR sau, în cazul întreprinderilor, până la 3% din cifra de afaceri anuală globală – pentru încălcarea altor obligații și până la 7.500.000 EUR sau, în cazul întreprinderilor până la 1,5% din cifra de afaceri anuală globală – pentru furnizarea de informații incorecte, incomplete sau înșelătoare.
De menționat este faptul că în cazul fiecărei categorii de încălcări, pentru IMM-uri (inclusiv întreprinderi nou înființate) pentru aplicarea sancțiunilor se va lua în calcul valoarea cea mai mica dintre cele două cuantumuri prevăzute în Regulament, în timp ce pentru alte întreprinderi, se va lua în calcul valoarea cea mai mare.
Regulamentul IA este o inițiativă ambițioasă care reflectă angajamentul UE de a proteja drepturile cetățenilor săi în era digitală, promovând în același timp inovația responsabilă. Deși există provocări în implementarea acestui cadru legislativ, succesul său ar putea stabili un standard global pentru reglementarea IA, influențând modul în care tehnologia va evolua în următoarele decenii. Prin această reglementare, Europa își propune să fie un lider global în dezvoltare a unei IA care să fie sigură, etică și în beneficiul tuturor.
Article published in Avocatnet.ro