A doua etapă a Regulamentului UE privind inteligența artificială (Regulamentul privind inteligența artificială) va intra în vigoare la 2 februarie 2025. Scopul acestuia este de a face utilizarea inteligenței artificiale în UE mai sigură, mai transparentă și mai responsabilă. Nu numai furnizorii și dezvoltatorii de sisteme AI vor fi trași la răspundere, ci și companiile și alte organizații care utilizează tehnologiile AI în viața de zi cu zi vor fi afectate.
În termeni concreți, acest lucru înseamnă că, indiferent dacă gestionați un magazin online cu texte și imagini generate de inteligența artificială, creați conținut valoros pentru site-urile web ale universităților și colegiilor sau utilizați instrumente bazate pe inteligența artificială pentru a analiza datele privind donațiile în cadrul strângerii de fonduri - noile norme pot avea un impact semnificativ asupra modului în care lucrați. Accentul se pune în principal pe cerințele de transparență, evaluările obligatorii ale riscurilor și formarea angajaților în așa-numita "expertiză în IA".

Context: Motive pentru regulamentul privind IA
Regulamentul UE privind inteligența artificială a fost creat pentru a promova oportunitățile oferite de inteligența artificială, minimizând în același timp riscurile pentru oameni și societate. Inteligența artificială revoluționează deja multe domenii din viața cetățenilor europeni, de la medicină și educație la marketing și administrație. Cu toate acestea, noile oportunități sunt însoțite și de noi riscuri, cum ar fi discriminarea prin algoritmi, încălcări ale vieții private sau decizii automate greșite.
Prin urmare, Regulamentul UE privind inteligența artificială urmează o abordare bazată pe riscuri: în funcție de riscul potențial, inteligența artificială este clasificată în diferite categorii - de la risc scăzut la risc interzis. Acest lucru este menit să permită inovarea, garantând în același timp drepturile fundamentale, protecția datelor și securitatea. Cerințele de transparență, formarea obligatorie a angajaților și documentarea aplicațiilor IA afectează aproape toate companiile și organizațiile din UE.
Cele 5 categorii de risc ale Regulamentului privind IA
- Scopuri generale: operarea sistemelor de inteligență artificială precum GTP sau LLama
- Risc minim: utilizarea filtrelor de spam, conținut în jocurile video
- Risc limitat: Chatbots, conținut AI sau deepfakes pe social media
- Risc ridicat: recunoaștere biometrică, evaluări ale angajaților, înscrieri
- Interzis: Manipulare, scoring social, poliție predictivă
Cine este afectat?
Regulamentul privind inteligența artificială afectează o gamă largă de părți interesate, de la dezvoltatorii și furnizorii de sisteme de inteligență artificială la societățile care utilizează doar instrumente bazate pe inteligența artificială. Noile norme sunt deosebit de relevante pentru operatori și utilizatori, de exemplu în comerțul electronic, sectorul educațional sau organizațiile non-profit.
Regulamentul face distincție între:
- Furnizorii de sisteme AI (de exemplu, dezvoltatorii de software precum chatbots sau instrumente de resurse umane)
- Operatori (de exemplu, întreprinderi care utilizează aceste instrumente),
- importatorii și distribuitorii care introduc tehnologii AI în UE.
Organizațiile care utilizează inteligența artificială în comunicarea cu clienții, strângerea de fonduri sau pentru sarcini administrative, cum ar fi campaniile de marketing personalizate, sunt, de asemenea, vizate de regulament. Utilizatorii trebuie, de exemplu, să se asigure că sistemele lor de inteligență artificială respectă cerințele de transparență și că angajații sunt instruiți corespunzător.
Persoanele fizice care utilizează IA în scopuri pur private și alte domenii organizate, cum ar fi securitatea națională și armata,nu sunt afectate . Software-ul cu sursă deschisă este, în general, exceptat - cu excepția cazului în care este utilizat în contexte interzise sau cu risc ridicat.
Cerințe practice
Regulamentul privind IA impune obligații clare întreprinderilor și organizațiilor care utilizează IA. Chiar dacă nu dezvoltați sisteme de inteligență artificială, ci folosiți doar instrumente gata făcute, cum ar fi chatbots, sisteme de resurse umane sau soluții de marketing susținute de inteligență artificială, trebuie să vă asigurați că noile cerințe sunt îndeplinite.
- Obligații de transparență: Utilizatorii aplicațiilor AI trebuie să fie informați că interacționează cu AI. Conținutul generat de AI, cum ar fi textele sau imaginile, trebuie etichetat în mod corespunzător, în special dacă este vorba de deepfakes.
- Documentație: Companiile trebuie să documenteze pe deplin utilizarea sistemelor AI. Aceasta include detalii tehnice, informații privind transparența și jurnale privind utilizarea AI. De asemenea, este important ca toate procesele legate de IA să rămână trasabile pe termen lung în cazul unor eventuale audituri.
- Expertiza în IA: Angajații care lucrează cu sisteme de IA trebuie să fie instruiți. Aceasta include cunoștințe tehnice, o conștientizare a riscurilor și orientări clare pentru abordarea IA, de exemplu în cazul etichetării conținutului generat de IA.
- Gestionarea riscurilor: Pentru sistemele de IA cu risc ridicat (de exemplu, instrumente de resurse umane sau IA în medicină), este necesară o evaluare cuprinzătoare a riscurilor, care să includă și aspecte legate de protecția datelor.

Ce ar trebui să facă companiile acum
Pentru a pune în aplicare la timp cerințele Regulamentului privind inteligența artificială, întreprinderile ar trebui să acționeze acum și să introducă următoarele măsuri.
- Inventarul AI: Înregistrați toate sistemele AI utilizate sau planificate în întreprinderea dumneavoastră. Documentați funcțiile, domeniile de aplicare și riscurile potențiale ale acestora. Acest lucru creează transparență și servește drept bază pentru pașii următori.
- Introducerea de orientări privind IA: Stabiliți orientări interne pentru abordarea IA. Acestea includ, de exemplu, cerințele de etichetare pentru conținutul generat de AI sau gestionarea datelor cu caracter personal în aplicațiile AI.
- Formarea angajaților: Asigurați-vă că angajații care lucrează cu IA au un nivel suficient de "expertiză în IA". Aceasta include cunoștințe tehnice, precum și principii juridice și o conștientizare a riscurilor etice.
- Evaluarea riscurilor: Efectuați o evaluare completă a riscurilor pentru aplicațiile cu risc ridicat. Ar trebui luate în considerare și aspectele legate de protecția și securitatea datelor.
- Documentație și transparență: Păstrați o documentație completă a sistemelor dvs. de IA. Aceasta ar trebui nu numai să îndeplinească cerințele interne, ci și să reziste auditurilor externe.
Amenzi mari pentru infracțiuni

Regulamentul privind IA este monitorizat de o rețea de supraveghere pe mai multe niveluri, care implică atât autorități naționale, cât și la nivelul UE. În Germania, supravegherea este organizată pe sectoare: Autoritățile de supraveghere a protecției datelor sunt responsabile de sistemele AI cu risc ridicat din domenii specifice, cum ar fi aplicarea legii sau controlul frontierelor. Sistemele din alte domenii, cum ar fi infrastructura critică sau educația, sunt probabil reglementate de autoritățile de supraveghere a pieței.
Comisia Europeană a anunțat că va înființa un Birou european pentru IA. Noul birou va fi responsabil, de exemplu, de sistemele de IA cu aplicare generală. Datorită sistemului federal din Germania, este de așteptat să fie implicat un număr mare de autorități. Pentru a gestiona această complexitate, va fi înființat un așa-numit "punct unic de contact". Acest birou central trebuie să servească drept punct de contact pentru întreprinderi și cetățeni pentru raportarea încălcărilor și depunerea plângerilor.
Regulamentul privind inteligența artificială prevede sancțiuni severe pentru încălcări, dintre care unele sunt mai mari decât cele prevăzute de GDPR. Companiile riscă amenzi de până la 35 de milioane EUR sau 7% din cifra lor de afaceri anuală globală, luându-se în considerare valoarea cea mai mare. Accentul se pune în special pe încălcarea obligațiilor de transparență, pe evaluarea inadecvată a riscurilor sau pe utilizarea practicilor interzise în materie de inteligență artificială.
Acționați acum și fiți pregătiți
Regulamentul UE privind inteligența artificială pune companiile și organizațiile în fața unor noi provocări, dar oferă și oportunități de optimizare a proceselor interne și de consolidare a încrederii. Cei care creează transparență într-un stadiu incipient, instruiesc angajații și introduc orientări privind IA pot evita riscurile juridice și pot obține avantaje competitive pe termen lung.
Vă sprijinim la fiecare pas: de la evaluarea riscurilor sistemelor dvs. de IA până la crearea unei documentații conforme din punct de vedere juridic, vă ajutăm să îndepliniți cerințele Regulamentului privind IA. Împreună, dezvoltăm măsuri adecvate care nu sunt doar conforme din punct de vedere juridic, ci și eficiente și orientate spre viitor. În acest fel, ne asigurăm că puteți utiliza în mod optim și sigur oportunitățile prezentate de Regulamentul privind IA.
Notă: Acest articol are doar scop de informare generală și nu constituie consultanță juridică. Conținutul prezentat aici nu a fost redactat de un avocat și nu poate înlocui consultanța juridică individuală. Nu se oferă nicio garanție pentru corectitudinea, integralitatea și actualitatea informațiilor. Autorul nu acceptă nicio răspundere pentru daunele rezultate din utilizarea informațiilor furnizate.