Dy robotë që mbajnë një peshore ekuilibri.

Udhëzues i plotë për Aktin e Inteligjencës Artificiale të BE-së (Akti i IA-së)

Akti i BE-së për Inteligjencën Artificiale - Rregullorja (BE) 2024/1689 - përcakton rregulla ligjërisht të detyrueshme për çdo sistem të Inteligjencës Artificiale të vendosur në tregun evropian ose rezultatet e të cilit arrijnë te përdoruesit e BE-së, duke e bërë atë ligjin e parë horizontal të Inteligjencës Artificiale të bazuar në rrezik kudo. Pavarësisht nëse ndërtoni modele, integroni mjete të palëve të treta ose thjesht vendosni chatbot për t'u shërbyer klientëve, Akti krijon detyrime të reja dhe ju ekspozon ndaj gjobave marramendëse deri në 7% të xhiros globale për shkelje. Hyrja në fuqi ishte 1 gusht 2024; detyrimet e pajtueshmërisë hyjnë në fuqi nga shkurti 2025 deri në gusht 2027, që do të thotë se koha e përgatitjes është e kufizuar.

Ky udhëzues praktik përshkon zhargonin ligjor dhe shpjegon saktësisht atë që duhet të dini: fushëveprimin e Aktit dhe përkufizimet kryesore, klasifikimin e tij të riskut në katër nivele, afatin kohor dhe mekanizmat e zbatimit, detyrimet konkrete për ofruesit, përdoruesit, importuesit dhe shpërndarësit, si dhe penalitetet për mosrespektimin e tyre. Ne gjithashtu e hartojmë rregulloren me GDPR, NIS2, rregullat e sigurisë së produkteve dhe kërkesat specifike të sektorit, përpara se t'ju japim një listë kontrolli hap pas hapi të përputhshmërisë mbi të cilën ekipet e inxhinierisë, ligjore dhe të lidershipit mund të veprojnë menjëherë. Le t'ju përgatisim - shumë kohë përpara se auditorët të trokasin në derë.

Një vështrim i shpejtë: Çfarë është në të vërtetë Akti i BE-së për Inteligjencën Artificiale

Rregullorja (BE) 2024/1689—e njohur më mirë si Akti i Inteligjencës Artificiale i BE-së—është një rregullore e BE-së që zbatohet drejtpërdrejt, jo një direktivë. Kjo do të thotë që nenet e saj zbatohen automatikisht në çdo Shtet Anëtar pa pasur nevojë për transpozim kombëtar, njësoj si GDPR bëri në vitin 2018. Qëllimi është i dyfishtë: mbrojtja e të drejtave themelore dhe sigurisë, duke u dhënë njëkohësisht kompanive siguri ligjore për të inovuar në mënyrë të përgjegjshme me IA-në. Për ta arritur këtë, Akti prezanton një set mjetesh horizontale, të bazuara në risk, që përfshin çdo sektor, nga financa te kujdesi shëndetësor, duke i klasifikuar sistemet nga rreziku "minimal" në atë "të papranueshëm" me detyrime ligjore përkatëse.

Fushëveprimi dhe Përkufizimet që duhet të dini

Para se të hartoni një plan pajtueshmërie, zotëroni fjalorin bazë:

  • Sistemi i inteligjencës artificiale: “një sistem i bazuar në makinë i projektuar për të vepruar me nivele të ndryshme autonomie dhe që, për objektiva të qarta ose të nënkuptuara, nxjerr përfundime nga të dhënat hyrëse se si të gjenerojë rezultate - të tilla si parashikime, përmbajtje, rekomandime ose vendime - që mund të ndikojnë në mjediset fizike ose virtuale.”
  • IA për qëllime të përgjithshme (GPAI): një sistem IA i aftë të shërbejë për një gamë të gjerë detyrash të dallueshme, pavarësisht se si përshtatet ose vendoset më pas.
  • Ofrues: çdo person fizik ose juridik që zhvillon - ose ka zhvilluar - një sistem të inteligjencës artificiale me qëllim vendosjen e tij në treg ose vënien në shërbim nën emrin ose markën e tij tregtare.
  • Përdorues (shpesh i quajtur "zbatues"): një person ose entitet që përdor një sistem të inteligjencës artificiale nën autoritetin e tij, duke përjashtuar përdorimin privat dhe jo-profesional.
  • Importues: Palë e themeluar në Bashkimin Evropian që vendos në tregun e BE-së një sistem të inteligjencës artificiale që mban emrin ose markën tregtare të një subjekti të vendosur jashtë Bashkimit Evropian.
  • Shpërndarës: aktor në zinxhirin e furnizimit - përveç ofruesit ose importuesit - i cili e vë në dispozicion një sistem të inteligjencës artificiale pa e modifikuar atë.

Shtrirja territoriale është e gjerë: çdo sistem i vendosur në tregun e BE-së ose prodhimi i të cilit përdoret në BE bie nën Aktin, pavarësisht se ku ndodhet zhvilluesi. Ekzistojnë përjashtime për aplikime thjesht ushtarake ose të sigurisë kombëtare, prototipe të kërkim-zhvillimit që ende nuk janë tregtuar dhe projekte personale hobi.

Parimet kryesore të përfshira në Akt

Rregullorja i përfshin konceptet etike të vjetra në një ligj të zbatueshëm:

  • Agjencia njerëzore dhe mbikëqyrja
  • Qëndrueshmëria dhe siguria teknike
  • Privatësia dhe qeverisja e të dhënave
  • Transparenca dhe shpjegueshmëria
  • Diversiteti, mosdiskriminimi dhe drejtësia
  • Mirëqenia shoqërore dhe mjedisore

Këto pasqyrojnë Parimet e IA-së të OECD-së dhe "Udhëzimet e Etikës për AI i besueshëm," por tani kanë dhëmbë rregullatorë.

Rregullorja kundrejt Udhëzimeve Ekzistuese të Ligjit të Butë

Deri në vitin 2024, qeverisja e IA-së në Evropë mbështetej në korniza vullnetare si Pakti i BE-së për IA-në ose kodet e etikës së korporatave. Akti i IA-së ndryshon lojën: pajtueshmëria është e detyrueshme, e auditueshme dhe mbështetet nga gjoba deri në 35 milionë euro ose 7% e të ardhurave globale. Me fjalë të tjera, deklaratat e "IA-së etike" nuk janë më të mjaftueshme - organizatat duhet të prodhojnë vlerësime konformiteti, shenja CE dhe regjistra të verifikueshëm ose rrezikojnë të përjashtohen nga tregu i BE-së.

Afati kohor, statusi ligjor dhe fazat e zbatimit

Akti i Inteligjencës Artificiale i BE-së kaloi nga propozimi në ligj të detyrueshëm në pak më shumë se tre vjet - me shpejtësinë e dritës sipas standardeve të Brukselit. Meqenëse është një Rregullore, shumica e neneve zbatohen automatikisht në të gjithë bllokun pa transpozim kombëtar. Ajo që ndryshon me kalimin e kohës është se cilat detyrime prekin të parat. Orari më poshtë tregon momentet politike që na sollën këtu dhe përcakton terrenin për detyrat e përputhshmërisë me faza që organizata juaj duhet të caktojë tani.

data Moment historik Rëndësia
Prill 21 2021 Komisioni publikon projektligjin për inteligjencën artificiale Fillimi formal i procesit legjislativ
9 dhjetor 2023 Parlamenti dhe Këshilli arrijnë një marrëveshje politike Teksti kryesor i bllokuar kryesisht
March 13 2024 Vota përfundimtare e Parlamentit Europian (523-46) Miratimi demokrat i siguruar
21 May 2024 Këshilli i BE-së miraton Pengesa e fundit legjislative u kapërcye
Korrik 10 2024 Teksti i botuar në Gazetën Zyrtare Numërimi mbrapsht ligjor fillon
Gusht 1 2024 Rregullorja (BE) 2024/1689 hyn në fuqi "Dita 0" për të gjitha afatet e ardhshme

Data e hyrjes në fuqi shkakton një seri datash aplikimi të shkallëzuara të shpërndara gjatë tre viteve. Ky model u jep ofruesve, përdoruesve, importuesve dhe shpërndarësve hapësirë ​​për të ndërtuar procese konformiteti, për të përmirësuar modelet dhe për të trajnuar stafin - megjithatë, kjo do të thotë gjithashtu se auditorët do të presin përparim të demonstrueshëm shumë kohë para vitit 2027.

Udhërrëfyesi i Zbatimit: Çfarë zbatohet kur

  • 6 muaj | 1 Shkurt 2025
    • Praktikat e ndaluara të inteligjencës artificiale (Neni 5) duhet të hiqen nga tregu - pa justifikime.
  • 12 muaj | 1 Gusht 2025
    • Detyrimet e transparencës për deepfakes, chatbots dhe njohjen e emocioneve fillojnë të hyjnë në fuqi.
    • Kodet e praktikës për IA-në me qëllim të përgjithshëm (GPAI) priten; vullnetare, por shumë të rekomanduara.
  • 24 muaj | 1 Gusht 2026
    • Kërkesat e sistemit me risk të lartë fillojnë: menaxhimi i riskut, qeverisja e të dhënave, dokumentacioni teknik, mbikëqyrja njerëzore dhe përgatitjet për shënjimin CE.
    • Ofruesit duhet të regjistrojnë sistemet me rrezik të lartë në bazën e të dhënave të re të BE-së.
  • 36 muaj | 1 Gusht 2027
    • Zbatohet regjimi i plotë, duke përfshirë sistemet e identifikimit biometrik, vlerësimet e konformitetit të organit të njoftuar dhe deklaratën e detyrueshme të konformitetit të BE-së për të gjithë inteligjencën artificiale me rrezik të lartë.
    • Autoritetet e mbikëqyrjes së tregut fitojnë fuqinë për të urdhëruar tërheqjen ose rikthimin e produkteve që nuk janë në përputhje me standardet.

Klauzolat kalimtare lejojnë që sistemet me rrezik të lartë, të cilat janë përdorur ligjërisht para gushtit 2026, të qëndrojnë në treg derisa t'i nënshtrohen një "modifikimi të konsiderueshëm". Planifikoni përmirësimet me kujdes për të shmangur rivendosjen aksidentale të orës së pajtueshmërisë.

Institucionet dhe Organet Mbikëqyrëse

Tre shtresa mbikëqyrjeje zbatojnë Aktin e Inteligjencës Artificiale të BE-së:

  1. Zyra e BE-së për Inteligjencën Artificiale (Komisioni Evropian) – Koordinon udhëzimet, mirëmban regjistrin e GPAI-së dhe mund të vendosë gjoba ndaj ofruesve të modelit sistemik.
  2. Autoritetet Kompetente Kombëtare – Një për çdo Shtet Anëtar; merret me inspektimet, ankesat dhe mbikëqyrjen e përditshme të tregut.
  3. Organet e Njoftuara – Organizata të pavarura të vlerësimit të konformitetit që auditojnë sisteme me rrezik të lartë para shënjimit CE.

Këta aktorë bashkëpunojnë përmes Bordi Evropian i Inteligjencës Artificiale (EAIB), i cili lëshon shënime interpretuese të harmonizuara - mendojeni si ekuivalentin e IA-së të EDPB-së të GDPR-së. Qëndroni vigjilentë ndaj udhëzimeve të tyre; ato do të formësojnë mënyrën se si gjykohen dosjet tuaja teknike dhe vlerësimet e riskut në praktikë.

Korniza e Klasifikimit të Rrezikut me Katër Nivele

Në zemër të Aktit të Inteligjencës Artificiale të BE-së (Akti i IA-së) qëndron një model semafori që përcakton se sa të ashpra bëhen rregullat: sa më i lartë rreziku për të drejtat dhe sigurinë e njerëzve, aq më e rëndë është ngarkesa e pajtueshmërisë. Çdo sistem i IA-së duhet të klasifikohet në njërën nga katër klasat - e papranueshme, e lartë, e kufizuar ose minimale. Klasifikimi përcakton gjithçka tjetër: thellësinë e dokumentacionit, rigorozitetin e testimit, mbikëqyrjen dhe, në fund të fundit, aksesin në treg.

Niveli i rrezikut Shembuj tipikë Pasoja kryesore ligjore Data e aplikimit të parë*
E papranueshme Vlerësimi social, identifikimi biometrik në kohë reale në hapësirat publike, motorët manipulues të "shtytjes". Ndalim total; tërheqje dhe gjoba deri në 35 milionë euro / 7% 1 2025 shkurt
i lartë Mjete për shqyrtimin e CV-së, softuer për diagnostikim mjekësor, vlerësim i besueshmërisë kreditore, module për drejtim autonome Vlerësimi i konformitetit, shënimi CE, hyrja në regjistër, monitorimi pas tregut 1 Gusht 2026 (biometrikë: 1 Gusht 2027)
i kufizuar Chatbot-e, gjeneratorë të deepfake-ut, widget-e të analizës së emocioneve Njoftim për transparencën dhe kontrolle bazë të përdoruesit Gusht 1 2025
Minimal Filtra spam-i të mundësuar nga inteligjenca artificiale, personazhe NPC të videolojërave Pa rregulla të detyrueshme; vetëm kode vullnetare Tashmë në fuqi

* Llogaritur nga data e hyrjes në fuqi më 1 gusht 2024.

Korniza është dinamike: nëse shtoni veçori të reja ose ndryshoni përdoruesit e synuar, sistemi juaj mund të kalojë një nivel tjetër, duke shkaktuar detyra të reja.

Rrezik i Papranueshëm: Praktikat e Ndaluara të IA-së

Neni 5 vendos një vijë të kuqe nën përdorimet që BE-ja i konsideron në thelb të papajtueshme me të drejtat themelore. Këto përfshijnë:

  • Teknika subliminale që shtrembërojnë materialisht sjelljen
  • Shfrytëzimi i cenueshmërisë së të miturve ose personave me aftësi të kufizuara
  • Në kohë reale pa dallim identifikimi biometrik në hapësira të aksesueshme publikisht (zbatohen përjashtime të ngushta për zbatimin e ligjit)
  • Vlerësimi social nga autoritetet publike
  • Policim parashikues i bazuar vetëm në profilizim ose të dhëna vendndodhjeje

Sisteme të tilla nuk duhet të dalin kurrë në tregun e BE-së. Autoritetet kombëtare mund të urdhërojnë tërheqje të menjëhershme nga tregu dhe gjobat kryesojnë shkallën e gjobave të Aktit.

Sistemet e IA-së me Rrezik të Lartë: Kategoritë e Shtojcës III

Një sistem futet në kategorinë e rrezikut të lartë nëse është një nga këto:

  1. Një komponent sigurie i një produkti që është tashmë i rregulluar (p.sh., sipas Rregulloreve të Makinerive ose Pajisjeve Mjekësore), ose
  2. Të listuara në tetë fushat e ndjeshme të Aneksit III—biometria, infrastruktura kritike, arsimi, punësimi, shërbime thelbësore, zbatimi i ligjit, migrimi dhe drejtësia.

Pasi klasifikohen si me rrezik të lartë, ofruesit duhet të operojnë një sistem menaxhimi të cilësisë, të kryejnë një cikël menaxhimi të riskut dhe të sigurojnë një vlerësim të konformitetit - ndonjëherë nëpërmjet një organi të jashtëm të njoftuar. Përdoruesit (zbatuesit) trashëgojnë detyrat e regjistrimit, mbikëqyrjes dhe raportimit të incidenteve.

Rrezik i Kufizuar: Detyrimet e Transparencës

Mjetet me rrezik të kufizuar nuk janë të padëmshme, por BE-ja beson se ndërgjegjësimi i përdoruesve zbut shumicën e rreziqeve. Krijuesit e chatbot-eve, motorëve të artit me inteligjencë artificiale gjeneruese ose shërbimeve të zërit sintetik duhet:

  • Informoni përdoruesit se po bashkëveprojnë me inteligjencën artificiale ("Ky imazh është gjeneruar nga inteligjenca artificiale")
  • Zbuloni përmbajtje të rreme në një filigran të lexueshëm nga makina
  • Përmbahuni nga mbledhja e fshehtë e të dhënave personale përtej asaj që është rreptësisht e nevojshme

Mosdhënia e njoftimit e ul sistemin direkt në territorin e mospërputhshmërisë dhe sjell gjoba administrative.

Rrezik minimal/i papërfillshëm: Nuk ka rregulla të detyrueshme

Filtrat e spam-it, teksti parashikues në email ose inteligjenca artificiale që optimizon përdorimin e energjisë HVAC përgjithësisht bien këtu. Akti i Inteligjencës Artificiale i BE-së (Akti i Inteligjencës Artificiale) nuk vendos detyrime të forta, por inkurajon në mënyrë aktive kodet vullnetare, sandbox-et rregullatore dhe respektimin e standardeve ndërkombëtare si ISO/IEC 42001. Mbajtja e dokumentacionit të thjeshtë dhe testeve bazë të paragjykimeve është ende një veprim i zgjuar - rregullatorët mund të riklasifikojnë rastet kufitare nëse dalin prova të dëmit.

Detyrimet kryesore për ofruesit, zbatuesit dhe aktorët e tjerë

Akti i Inteligjencës Artificiale i BE-së i shpërndan detyrimet e pajtueshmërisë në të gjithë zinxhirin e furnizimit. Meqenëse përgjegjësia ndjek funksionin, jo madhësinë e kompanisë, së pari duhet të përcaktoni se cilin pozicion keni - ofrues, përdorues (zbatues), importues ose shpërndarës - dhe pastaj të shtoni çdo kërkesë specifike për rrezikun. Mungesa e klasifikimit të saktë është një gjetje e zakonshme e auditimit, prandaj trajtojeni ushtrimin e hartëzimit si hapin zero të programit tuaj.

Ofruesit e Sistemeve me Risk të Lartë

Ofruesit mbajnë barrën më të rëndë sepse ata kontrollojnë vendimet e dizajnit. Detyrat kryesore:

  • Ngritni një Sistem të dokumentuar të Menaxhimit të Cilësisë (SMC) që mbulon qeverisjen e të dhënave, menaxhimin e riskut, kontrollin e ndryshimeve dhe sigurinë kibernetike.
  • Kryeni një vlerësim konformiteti ex-ante. Shumica e sistemeve të Shtojcës III mund të vetëvlerësojnë, por identifikimi biometrik, pajisjet mjekësore dhe raste të tjera përdorimi kritike për sigurinë kërkojnë një organ të njoftuar.
  • Përpiloni dokumentacionin teknik: arkitekturën e modelit, linjën e të dhënave të trajnimit, metrikat e vlerësimit, testet e qëndrueshmërisë, mekanizmat e mbikëqyrjes nga njerëzit dhe planin e monitorimit pas tregut.
  • Hartoni një Deklaratë Konformiteti të BE-së, vendosni shenjën CE dhe regjistroni sistemin në bazën e të dhënave publike të IA-së para vendosjes së parë.
  • Vendosni mbikëqyrje të vazhdueshme pas daljes në treg: regjistroni incidentet serioze, ritrajnoni kur tejkalohen pragjet e devijimit dhe njoftoni autoritetet kompetente brenda 15 ditëve.

Neglizhimi i ndonjërit prej këtyre hapave mund të shkaktojë gjoba deri në 15 milionë euro ose 3% të xhiros globale — edhe nëse nuk ndodh ndonjë dëm.

Përdoruesit/Zbatuesit e Sistemeve me Risk të Lartë

Zbatuesit e shndërrojnë kodin në ndikim në botën reale, kështu që Akti u jep atyre listën e tyre të kontrollit:

  • Operoni sistemin në mënyrë rigoroze sipas udhëzimeve të ofruesit dhe rastit të përdorimit të dokumentuar.
  • Kryeni një Vlerësim të Ndikimit të të Drejtave Themelore (FRIA) kur përdoruesi është një autoritet publik ose kur inteligjenca artificiale ndikon në aksesin në shërbime thelbësore siç janë strehimi ose kreditimi.
  • Siguroni mbikëqyrje njerëzore të kualifikuar: stafi duhet të jetë i trajnuar, i fuqizuar për të anashkaluar rezultatet dhe i aftë t'u shpjegojë vendimet individëve të prekur.
  • Ruani regjistrat për të paktën gjashtë vjet, duke përfshirë të dhënat hyrëse, të daljes, ndërhyrjet njerëzore dhe anomalitë e performancës.
  • Raportoni incidentet serioze si tek ofruesi i shërbimit ashtu edhe tek autoriteti kombëtar pa "vonesë të panevojshme", që zakonisht interpretohet si 72 orë.

Importues dhe Shpërndarës

Aktorët që prezantojnë ose kalojnë sistemet e inteligjencës artificiale në BE kanë detyra mbikëqyrëse:

  • Verifikoni që shenja CE, Deklarata e Konformitetit të BE-së dhe udhëzimet ekzistojnë dhe përputhen me funksionalitetin e tregtuar.
  • Të përmbahen nga furnizimi i produktit nëse e dinë - ose duhet ta dinë - se ai nuk është në përputhje me standardet; në vend të kësaj, të informojnë ofruesin dhe autoritetin kompetent.
  • Mbani një regjistër të ankesave dhe tërheqjeve të mallrave, duke ua vënë atë në dispozicion autoriteteve me kërkesë.
  • Bashkëpunoni në veprimet korrigjuese, duke përfshirë tërheqjen e produkteve ose përditësimet e softuerit.

Detyrimet e IA-së për Qëllime të Përgjithshme (Modelet Themelore)

Akti shton rregulla të posaçme për krijuesit e GPAI ose modeleve të fondacionit që mund të integrohen kudo:

  • Jepni dokumentacion teknik gjithëpërfshirës dhe një përmbledhje të të dhënave të përdorura, duke përfshirë statusin e licencës dhe origjinën gjeografike.
  • Publikoni një deklaratë të pajtueshmërinë me të drejtën e autorit dhe, aty ku është e mundur, të zbatohen mekanizma të mospjesëmarrjes për veprat e mbrojtura.
  • Kryeni dhe dokumentoni testimin e rrezikut sistemik nëse modeli tejkalon pragun e llogaritjes në Shtojcën XI (mendoni 10^25 FLOP). Detyra shtesë hyjnë në fuqi për "GPAI sistemik", siç janë ofrimi i zbatimeve referuese dhe bashkëpunimi me Zyrën e BE-së për IA-në.
  • Modelet me burim të hapur gëzojnë detyrime më të lehta prekëse, megjithatë duhet të vendosin filigran në përmbajtjen e gjeneruar dhe të ofrojnë udhëzime përdorimi që detajojnë kufizimet e parashikueshme.

Duke i përshtatur kontrollet tuaja të brendshme me listat e kontrollit specifike për rolet e mësipërme, mund të mbyllni boshllëqet më të dukshme të përputhshmërisë shumë kohë përpara se të arrijnë afatet e zbatimit të gushtit 2026 dhe 2027.

Kërkesat Teknike dhe Organizative për të Arritur Pajtueshmërinë

Akti i Inteligjencës Artificiale i BE-së nuk përshkruan plane të përgjithshme. Në vend të kësaj, ai përcakton "kërkesa thelbësore" të orientuara drejt rezultateve dhe ju lë të lirë të zgjidhni kontrollet që i vërtetojnë ato. Truku është të përzieni praktikat e mira inxhinierike me higjienën rregullatore, në mënyrë që çdo përditësim modeli ose rifreskim i të dhënave të kalojë automatikisht në një tubacion të përsëritshëm përputhshmërie. Pesë blloqet ndërtuese më poshtë përkthejnë nenet ligjore të Aktit në detyra konkrete që ekipet tuaja të produktit, të dhënave dhe ligjore mund të kenë në dorë.

Qeverisja dhe Menaxhimi i të Dhënave

Të dhënat e këqija janë të barabarta me kriptonitin rregullator. Neni 10 i detyron ofruesit e inteligjencës artificiale me rrezik të lartë të dokumentojnë dhe justifikojnë çdo bajt që hyn në proces.

  • Përcaktoni grupe të dhënash që janë relevante, përfaqësuese, pa gabime dhe të azhurnuara për popullatën e synuar.
  • Mbani një "fletë të dhënash" për secilin korpus: burimin, datën e mbledhjes, kushtet e licencimit, hapat e përpunimit paraprak, kontrollet e paragjykimeve dhe periudhën e ruajtjes.
  • Gjurmoni prejardhjen në një depo të kontrolluar nga versioni, në mënyrë që të mund të riktheheni nëse një autoritet kërkon korrigjime.
  • Kryeni testime të paragjykimeve dhe çekuilibrave duke përdorur metoda statistikisht të shëndosha (χ², KS-test, ose metrika të drejtësisë agnostike të modelit) dhe veprime zbutëse të regjistrit.

Mbajeni të aksesueshme gjurmët e plota - të dhënat e papërpunuara, skriptet, rezultatet e testeve për 10 vjet; dritarja e rishikimit prapa në Akt është e gjatë.

Kuadri i Menaxhimit të Riskut

Neni 9 kërkon një proces i vazhdueshëm dhe i dokumentuar që pasqyron ISO 31000 dhe draftin ISO/IEC 23894.

  1. Identifikoni rreziqet: skenarë keqpërdorimi, sulme kundërshtare, rrjedhje të dhënash.
  2. Analizoni ndikimin dhe gjasat; vlerësoni ato në një shkallë të përbashkët (p.sh., risk = probability × severity).
  3. Vendosni kontrollet: mbrojtjet teknike, mbikëqyrjen njerëzore, kufijtë kontraktualë.
  4. Verifikoni kontrollet pas çdo përditësimi të madh; përfshini gjetjet në sprintin tjetër.

Ruajeni gjithçka në një regjistër rreziku të gjallë; rregullatorët presin të shohin vulat kohore, pronarët dhe provat e mbylljes.

Mbikëqyrja Njerëzore dhe Transparenca me Dizajn

Nenet 14 dhe 52 e shndërrojnë bisedën "njeriu në ciklin e punës" në detyra të detyrueshme projektimi.

  • Përcaktoni mënyrën e mbikëqyrjes: në ciklin e punës (miratim manual), në ciklin e punës (alarmime në kohë reale), ose mbi-ciklin (auditime post-hoc).
  • Vendosni shtresa shpjegueshmërie: harta të spikaturisë, shembuj kundërfaktikë, rregulla të thjeshtuara vendimmarrjeje.
  • Jepni opsione mbivendosjeje dhe rezervë që janë të dyja teknikisht i realizueshëm i autorizuar nga ana organizative.
  • Ofroni njoftime për përdoruesit në gjuhë të thjeshtë ("Ju po bashkëveproni me një sistem IA") dhe ekspozoni rezultatet e besimit aty ku është e mundur.

Qëndrueshmëri, Saktësi dhe Siguri Kibernetike

Sipas Nenit 15, modelet duhet të qëndrojnë brenda normave të deklaruara të gabimeve dhe t'i rezistojnë ndërhyrjeve dashakeqe.

  • Vendosni pragje minimale të performancës; monitoroni saktësinë, precizitetin, kujtesën dhe devijimin e kalibrimit në prodhim.
  • Kryeni teste të rezistencës ndaj kundërshtarëve (FGSM, PGD, helmim të të dhënave) para çdo publikimi.
  • Forconi infrastrukturën në përputhje me NIS2 dhe ETSI EN 303 645: API të sigurta, akses i bazuar në role, pika kontrolli të modelit të enkriptuara.
  • Përgatitni plane rezervë - parazgjedhjet e modalitetit të sigurt, përshkallëzimi i rishikimit njerëzor - kur performanca bie nën kufijtë e tolerancës.

Mbajtja e të Dhënave, Regjistrimi dhe Dokumentacioni i CE-së

Nëse nuk është e shkruar, nuk ka ndodhur kurrë - një mantër që bëhet ligj në nenet 11 dhe 19.

Dokument Përmbajtja kryesore mbajtje
Dosja Teknike arkitektura e modelit, përmbledhja e të dhënave të trajnimit, metrika e vlerësimit, kontrollet e sigurisë kibernetike Cikli jetësor + 10 vjet
Shkrime të dhëna hyrëse, të dhëna dalëse, ngjarje të anashkaluara, statistika të performancës, incidente ≥ 6 vjet
Deklarata e Konformitetit të BE-së deklarata e konformitetit, standardet e aplikuara, detajet e ofruesit Në dispozicion publikisht
Plani i Monitorimit Pas Tregtimit KPI-të, kanalet e raportimit, pragjet e shkaktimit Përditësuar vazhdimisht

Automatizoni regjistrimin e regjistrave aty ku është e mundur; përdorni ruajtje të pandryshueshme ose regjistra vetëm për shtim në mënyrë që provat t'i mbijetojnë shqyrtimit mjeko-ligjor. Pasi dosja të jetë e plotë, bashkëngjitni Marka CE dhe ta paraqesë sistemin në bazën e të dhënave të BE-së—vetëm atëherë mund të dalë në treg.

Duke i integruar këto kontrolle teknike dhe organizative në ciklin tuaj jetësor të zhvillimit, ju e transformoni pajtueshmërinë nga një nxitim i minutës së fundit në një aftësi gjithmonë aktive që auditorët do ta njohin dhe do ta shpërblejnë.

Gjobat, Mjetet Juridike dhe Ekspozimi ndaj Çështjeve Ligjore

Akti i Inteligjencës Artificiale i BE-së nuk mbështetet në shtytje të sjellshme; ai përdor një shkop mjaftueshëm të madh sa t’i bëjë drejtuesit të dridhen. Sanksionet financiare pasqyrojnë shkallën e GDPR-së, megjithatë Akti gjithashtu i fuqizon autoritetet të tërheq produktet nga raftet, porosit fshirjen e të dhënave ose detyro rikualifikimin e modelit nëse rreziqet mbeten të pazbutura. Gjobat kufizohen nga cilado që është më e lartë - një shumë absolute në euro ose një përqindje e xhiros botërore të vitit të kaluar - kështu që edhe bizneset e reja në fazat e hershme shmangin vetëkënaqësinë. Tabela më poshtë përmbledh nivelet e sanksionuara:

Lloji i shkeljes Gjobë fikse maksimale % maksimale e xhiros globale Shkaktarët tipikë
Praktikat e ndaluara (Neni 5) 35 milionë euro 7% Vlerësimi social, mbikëqyrja masive biometrike e paligjshme
Detyrimet me risk të lartë (Nenet 8–15) 15 milionë euro 3% Mungon vlerësimi i konformitetit, qeverisja e të dhënave me të meta
Dështime në informacion dhe regjistrim 7.5 milionë euro 1% Dokumentacion teknik i pasaktë, raportim i vonë i incidentit
Njoftim rutinë për mosrespektim € 500K n / a Shkelje të vogla pas paralajmërimit

Autoritetet mbikëqyrëse mund të vendosin gjoba ditore për të përshpejtuar ndreqjen. Produktet që ende paraqesin "rrezik serioz" përballen me gjoba të detyrueshme. rikthim ose tërheqje nga tregu—një goditje në reputacion që asnjë plan PR nuk mund ta maskojë.

Sanksionet Administrative kundrejt Përgjegjësisë Civile

Gjobat rregullatore nuk janë fundi i historisë. Direktiva e ardhshme për Përgjegjësinë ndaj IA-së (AILD) dhe Direktiva e rishikuar për Përgjegjësinë ndaj Produktit (PLD) hapin rrugë paralele për kërkesat për dëmshpërblim privatViktimat e lënduara nga një vendim i Inteligjencës Artificiale do të gëzojnë:

  • A supozim i kundërshtueshëm i shkakësisë kur ofruesit shkelin detyrimet e Aktit të Inteligjencës Artificiale, duke lehtësuar barrën e provës.
  • Të drejta të zgjeruara për zbulimin e informacionit, duke u lejuar paditësve të kërkojnë regjistra dhe vlerësime të rrezikut që normalisht do të mbeteshin brenda kompanisë.
  • Rregulla të harmonizuara në të gjitha Shtetet Anëtare, megjithatë ligji kombëtar i delikteve mund të ofrojë ende standarde më të rrepta (p.sh., doktrina holandeze e veprimit të gabuar).

Prandaj, kompanitë mund të përballen me një goditje të dyfishtë: një gjobë administrative prej shumë milionë eurosh, e ndjekur nga padi kolektive civile, veçanërisht në fusha si mohimi i kredisë ose punësimi diskriminues.

Mekanizmat e Ndihmës dhe Mbrojtja e Sinjalizuesve

Individët dhe OJQ-të mund të paraqesin ankesa drejtpërdrejt te autoriteti kompetent kombëtar ose Zyra e BE-së për Inteligjencën Artificiale. Autoritetet duhet të hetojnë brenda një "periudhe të arsyeshme" dhe mund të japin masa të përkohshme, duke përfshirë urdhra pezullimi. Personat e prekur gjithashtu kanë në dispozicion mjete juridike - urdhra ndalimi, padi për kompensim dhe ankesa kundër vendimeve mbikëqyrëse.

Punonjësit Ata që dallojnë keqbërje mbrohen nga BE-ja Direktiva për Sinjalizimin e Dështimeve:

  • Kanalet konfidenciale të raportimit janë të detyrueshme për firmat me mbi 50 punonjës.
  • Hakmarrja—shkarkimi, ulja në detyrë, frikësimi—është shprehimisht e ndaluar.
  • Sinjalizuesit mund të përshkallëzojnë kontaktet e jashtme me rregullatorët ose shtypin nëse rrugët e brendshme dështojnë.

Krijimi i një linje raportimi anonime dhe të reklamuar mirë është, pra, një kërkesë ligjore dhe një sistem paralajmërimi të hershëm që mund t'ju shpëtojë nga zbatimi më i kushtueshëm në të ardhmen.

Hartimi i Aktit të Inteligjencës Artificiale me GDPR, NIS2, Sigurinë e Produkteve dhe Rregullat Sektoriale

Akti i Inteligjencës Artificiale i BE-së (Akti i IA-së) nuk është një ishull i pavarur. Ai futet në një oqean të mbushur me njerëz të pajtueshmërisë që tashmë përfshin mbrojtjen e të dhënave, sigurinë kibernetike dhe kornizat vertikale të sigurisë. Injorimi i këtyre rrymave të kryqëzuara është i rrezikshëm: një sistem IA që plotëson çdo kuti të Aktit të IA-së mund të shkelë prapëseprapë GDPR ose NIS2, dhe anasjelltas. Më poshtë ne nxjerrim në pah pikat kryesore të kontaktit në mënyrë që ekipet tuaja ligjore, të sigurisë dhe të produkteve të mund të ndërtojnë një hartë të vetme kontrolli të integruar në vend që të xhonglojnë me katër lista kontrolli të ndara.

Mbivendosje me GDPR dhe ePrivacy

  • Baza ligjore dhe kufizimi i qëllimit: përpunimi i të dhënave personale brenda një modeli me rrezik të lartë duhet të përmbushë të paktën një bazë të GDPR-së (shpesh interes legjitim ose pëlqim).
  • Kufizimet e vendimmarrjes së automatizuar: Neni 22 i GDPR-së kufizon vendimet plotësisht të automatizuara me efekte ligjore ose të rëndësishme; kërkesa e mbikëqyrjes njerëzore e Aktit të Inteligjencës Artificiale shpesh vepron si mbrojtje teknike që zhbllokon përjashtimet e Nenit 22(2)(b) ose (c).
  • Skenarët e kontrolluesit të përbashkët: kur një zbatues përsos një GPAI të ofruar nga një shitës, të dy mund të bëhen kontrollues i përbashkëtsipas GDPR-së—planifikoni Marrëveshjet e Përpunimit të të Dhënave në përputhje me rrethanat.
  • Detyrimi për transparencë: Akti i Inteligjencës Artificiale kërkon zbulime nga përdoruesit ("të gjeneruara nga Inteligjenca Artificiale"), ndërsa nenet 12-14 të GDPR kërkojnë njoftime për privatësinë që detajojnë rrjedhën e të dhënave, ruajtjen dhe të drejtat. Hartoni një njoftim të vetëm me shtresa që i mbulon të dyja.

Siguria kibernetike dhe sinergjitë e NIS2

NIS2 kërkon vlerësime të riskut, reagim ndaj incidenteve dhe siguri të zinxhirit të furnizimit për subjektet "thelbësore" dhe "të rëndësishme". Akti i Inteligjencës Artificiale e pasqyron këtë duke kërkuar testimin e qëndrueshmërisë, monitorimin e cenueshmërisë dhe raportimin e shkeljeve brenda 15 ditëve. Shfrytëzimi i një fluksi pune SOC:

  1. Kryeni teste të qëndrueshmërisë kundërshtare gjatë vlerësimit të konformitetit të Aktit të Inteligjencës Artificiale.
  2. Futni rezultatet në regjistrin e riskut NIS2.
  3. Përdorni të njëjtin manual 72-orësh të raportimit të incidenteve për të dy regjimet.

Integrimi me legjislacionin ekzistues të produkteve

Nëse IA juaj është një komponent sigurie i një produkti të rregulluar (pajisje mjekësore, makineri, lodër, ashensor, sistem automobilistik), ju duhet të kryeni një i vetëm vlerësimin e konformitetit që mbulon:

  • Kërkesat e përgjithshme të sigurisë ose performancës sipas ligjit të sektorit; dhe
  • Bazat e Aktit të Inteligjencës Artificiale (menaxhimi i riskut, qeverisja e të dhënave, mbikëqyrja njerëzore).

Standardet e harmonizuara sipas Kornizës së Re Legjislative së shpejti do t'i referohen të dy grupeve të kërkesave, duke lejuar një dosje teknike dhe një shenjë CE.

Shembuj specifikë për sektorin

  • Shërbimet financiare: kombinoni regjistrimin e të dhënave të Aktit të Inteligjencës Artificiale me udhëzimet e EBA-s për luftën kundër pastrimit të parave për të provuar modelin e drejtësisë dhe shpjegueshmërisë.
  • Menaxhimi i rrjetit energjetik: kontrollet e riskut të Aktit të Inteligjencës Artificiale me rrjetë me kërkesat e sigurisë kibernetike të ENTSO-E për sistemet SCADA.
  • Automotiva: UNECE WP.29 urdhëron qeverisjen e përditësimeve të softuerëve; integroni këto regjistra përditësimesh në monitorimin tuaj pas nxjerrjes në treg të Aktit të Inteligjencës Artificiale.
  • Kujdesi shëndetësor: çiftoni artefaktet e SMC-së ISO 13485 me dokumentacionin e të dhënave të Aktit të IA-së për të shmangur auditimet e tepërta.

Krahasimet ndërkombëtare

Kompanitë globale duhet të pajtojnë Aktin e Inteligjencës Artificiale të BE-së (Akti i IA-së) me rregullat e reja në vende të tjera:

jurisdiksion Instrument kyç Divergjencë e dukshme
US Urdhri Ekzekutiv dhe NIST AI RMF Vullnetar, por mund të bëhet bazë federale e prokurimit
Kinë Masat e përkohshme të inteligjencës artificiale gjenerale Regjistrimi i emrit të vërtetë dhe filtrimi i përmbajtjes janë të detyruar
UK Korniza Pro-inovacionit Udhëzime specifike për rregullatorin, ende nuk ka ligj horizontal

Duke hartëzuar mbivendosjet herët, ekipet shumëkombëshe mund të hartojnë korniza kontrolli që përmbushin së pari rregullat më të rrepta, dhe më pas të zvogëlojnë ndjeshëm vendet ku ligjet lokale janë më të lehta.

Lista e Kontrollit të Pajtueshmërisë Praktike dhe Praktikat më të Mira

Shndërrimi i neneve dhe recitaleve të Aktit të Inteligjencës Artificiale të BE-së (Akti i IA-së) në praktikë të përditshme mund të duket i frikshëm. Truku është ta ndash udhëtimin në veprime të vogla që ekipet ligjore, të produkteve dhe të sigurisë mund t'i kryejnë. Përdorni planin rrugor me 12 hapa më poshtë si një plan projekti të gjallë - rishikojeni atë në çdo demo sprinti dhe mbledhje të bordit deri në gusht 2027.

  1. Inventarizoni çdo komponent të IA-së ose algoritmik në prodhim dhe Kërkim-Zhvillim.
  2. Klasifikoni nivelin e rrezikut të secilit sistem dhe rolin tuaj si aktor (ofrues, përdorues, importues, shpërndarës).
  3. Hartoni ligjet në fuqi (GDPR, NIS2, rregullat sektoriale) dhe identifikoni mbivendosjet.
  4. Kryeni një analizë të boshllëqeve kundrejt kërkesave thelbësore të Aktit të Inteligjencës Artificiale.
  5. Hartoni ose përditësoni Sistemin tuaj të Menaxhimit të Cilësisë (SMC).
  6. Ngritni një strukturë qeverisjeje shumëdisiplinore.
  7. Hartoni modele të dokumentacionit teknik dhe filloni t'i plotësoni ato.
  8. Ndërtoni kanale të qeverisjes së të dhënave dhe testimit të paragjykimeve.
  9. Kryeni vlerësime fillestare të konformitetit ose auditime të papërpunuara.
  10. Trajnoni stafin—inxhinierët, përgjegjësit e riskut dhe mbështetjen e klientëve.
  11. Nisni rrjedhat e punës së monitorimit pas tregut dhe raportimit të incidenteve.
  12. Caktoni rishikime periodike dhe cikle përmirësimi të vazhdueshëm.

Vlerësimi i Gatishmërisë dhe Analiza e Mangësive

Filloni me një spreadsheet ose tabelë biletash që rendit: emrin e sistemit, qëllimin, burimet e të dhënave të trajnimit, nivelin e rrezikut, kontrollet ekzistuese dhe boshllëqet e hapura. Caktoni çdo boshllëk një pronar dhe një afat kohor. Rivlerësoni rrezikun e mbetur pas çdo mbylljeje; rregullatorëve u pëlqen të shohin atë gjurmë përmirësimi përsëritëse.

Ndërtimi i Strukturës së Duhur të Qeverisjes

Vendosni njerëzit, jo vetëm politikat, në krye:

  • Oficeri i pajtueshmërisë me inteligjencën artificiale: me një fyt për t'u mbytur.
  • Komiteti i etikës ndërfunksionale: produkt, ligjor, siguri, burime njerëzore.
  • Rishikues i jashtëm ose ndërlidhës i organit të njoftuar.
  • Lidhje e ngushtë me DPO-në dhe CISO-n tuaj për të shmangur vendimmarrjen e izoluar.

Dokumentoni ritmin e takimeve, të drejtat e vendimmarrjes dhe shtigjet e përshkallëzimit.

Dokumentacioni dhe Mjetet

Standardizoni artefaktet në mënyrë që inxhinierët të mos e shpikin rrotën nga e para:

Shabllon 목적,en Formati i rekomanduar
Kartë modeli Aftësitë, kufijtë, metrikat Markdown + JSON
Data Sheet Burimi, licencimi, testet e paragjykimeve spreadsheet
Raporti i transparencës Zbulimi përballë përdoruesit HTML / PDF
Të Drejtat Themelore IA Shpërndarësit e sektorit publik Mjet i bazuar në formularë

Ndihmë me burim të hapur: EU AI Toolkit, listat e kontrollit të draftit ISO/IEC 42001 dhe depot e GitHub për metrika të paragjykimeve.

Menaxhimi i Furnizuesve dhe Zinxhirit të Furnizimit

Detyrat e Aktit të Flow AI në rrjedhën e poshtme:

  • Shtoni garancitë e vlerësimit të konformitetit dhe të drejtat e auditimit në Kontratat.
  • Kërkojuni furnizuesve të ndajnë kartat e modelit, rezultatet e testeve të qëndrueshmërisë dhe regjistrat e incidenteve.
  • Vendosni një Slack ose një radhë të përbashkët tiketash për zbulim të shpejtë të dobësive.

Monitorim i Vazhdueshëm dhe Përditësime të Ciklit Jetësor të Modelit

Monitorimi para-vendosjes, në përdorim dhe pas-vendosjes duhet të kryhet nga i njëjti sistem telemetrie. Aktivizoni një rivlerësim kur:

  • Ndryshimet e shpërndarjes së të dhënave hyrëse (KL divergence > pragu i paracaktuar).
  • Saktësia bie nën minimumin e deklaruar.
  • Regjistrohet një incident serioz ose një incident që gati sa nuk ka ndodhur.

Mbylleni ciklin me rishikime tremujore të qeverisjes dhe një auditim të jashtëm vjetor - provë se përputhshmëria nuk është një projekt i vetëm, por një aftësi e qëndrueshme.

Pyetje të Shpeshta: Përgjigje të Shpejta për Pyetje të Shpeshta

A është tashmë në fuqi Akti i BE-së për Inteligjencën Artificiale?
Po. Rregullorja (BE) 2024/1689 hyri në fuqi më 1 gusht 2024. Megjithatë, shumica e detyrimeve konkrete hyjnë në fuqi më vonë: praktikat e ndaluara zhduken deri në shkurt 2025, rregullat e transparencës fillojnë në gusht 2025, detyrimet me rrezik të lartë mbërrijnë në gusht 2026 (biometrika gusht 2027). Pra, koha po ecën edhe pse zbatimi i plotë është ende në fazën e parë.

Cilat janë katër nivelet e rrezikut?
Akti i Inteligjencës Artificiale i BE-së i grupon sistemet në (1) Rrezik i papranueshëm - plotësisht i ndaluar; (2) Rrezik i lartë - lejohet vetëm pas vlerësimit të konformitetit dhe shënjimit CE; (3) Rrezik i kufizuar - kryesisht detyrime transparence (p.sh., chatbots, deepfakes); dhe (4) Rrezik minimal - nuk ka rregulla të rrepta, por inkurajohen kode vullnetare. Detyra juaj e parë është të hartoni secilin model në njërën nga këto nivele.

A i ka zëvendësuar Akti strategjitë kombëtare të inteligjencës artificiale?
Jo. Shtetet Anëtare mund të mbajnë ose krijojnë strategji kombëtare, sandbox-e dhe skema financimi. Akti thjesht harmonizon rregullator kërkesat në mënyrë që bizneset të përballen me një rregullore të vetme në të gjithë BE-në. Iniciativat lokale nuk duhet të kundërshtojnë kuadrin e riskut të Rregullores ose të minojnë mekanizmat e saj të zbatimit.

A kanë startup-et përjashtime?
Jo tamam. Rregullat zbatohen pavarësisht nga madhësia e kompanisë, sepse rreziku, jo të ardhurat, është ai që përcakton detyrimet. Megjithatë, sandbox-et, dokumentacioni më i lehtë për disa modele të GPAI-së dhe udhëzimet e financuara nga Komisioni synojnë të zvogëlojnë fërkimet administrative për ndërmarrjet e vogla dhe të mesme. Injorimi i pajtueshmërisë për shkak se je "i vogël" është një keqkuptim i rrezikshëm.

Si i trajton Akti i Inteligjencës Artificiale modelet me burim të hapur?
Publikimi publik i peshave të modelit nuk ju përjashton. Ju prapëseprapë duhet të ofroni përmbledhje të të dhënave të trajnimit, përmbajtje të gjeneruar nga filigranët dhe të publikoni udhëzime përdorimi. Detyrimet janë më të lehta se sa për modelet e mbyllura komerciale, por nëse sistemi juaj me burim të hapur bëhet "GPAI sistemik", hyjnë në fuqi detyra shtesë për testim dhe raportim.

A është Akti një Direktivë?
Jo. Është një Rregullore—e zbatueshme drejtpërdrejt në çdo Shtet Anëtar pa transpozim kombëtar. Mendojeni si GDPR-në: sapo hyri në fuqi, detyrimet ligjore ekzistonin në të gjithë BE-në dhe vetëm udhëzimet praktike për zbatimin e saj mund të ndryshojnë në nivel lokal.

Çfarë ndodh nëse ofruesi im është jashtë BE-së?
Shtrirja territoriale vijon prodhim, jo selinë qendrore. Nëse sistemi i një shitësi të huaj tregtohet në BE ose rezultatet e tij përdoren këtu, ofruesi duhet të përmbushë kërkesat e Aktit të BE-së për Inteligjencën Artificiale dhe të caktojë një përfaqësues ligjor me seli në BE. Zbatuesit brenda Bashkimit ende mbajnë detyrime si përdorues, prandaj zgjidhni furnizuesit me kujdes.

Ndërmarrjet kryesore

Ende po lexoni shpejt? Ja ku është tabela e këshillave:

  • Akti i Inteligjencës Artificiale i BE-së (Akti i IA-së) nuk është më një draft - ai ka qenë në fuqi që nga 1 gushti 2024 dhe sjell ligjin e parë horizontal, të bazuar në rrezik për inteligjencën artificiale kudo.
  • Ndarja në nivele e riskut drejton gjithçka: sistemet e papranueshme janë të ndaluara, Sistemet me rrezik të lartë kanë nevojë për shenjën CE dhe hyrjen në regjistër, ndërsa mjetet me rrezik të kufizuar dhe minimal përballen me detyra më të lehta - por jo zero.
  • Mosrespektimi është i kushtueshëm: deri në 35 milionë euro ose 7% e xhiros globale për praktikat e ndaluara, plus përgjegjësinë e mundshme civile sipas direktivave të ardhshme të BE-së.
  • Detyrimet shtrihen në të gjithë zinxhirin e furnizimit: ofruesit, përdoruesit, importuesit dhe shpërndarësit kanë secili lista kontrolli specifike, dhe modelet me qëllim të përgjithshëm tani kanë rregulla të personalizuara.
  • Akti nuk zëvendëson GDPR, NIS2 ose ligjet për sigurinë e produkteve; ju duhet t'i bashkoni të gjitha kornizat në një program të vetëm qeverisjeje të integruar.

Keni nevojë për ndihmë për ta kthyer tekstin ligjor në kod, politika dhe kontrata funksionale? Avokatët e teknologjisë dhe privatësisë në Law & More mund të kryejë një skanim të shpejtë të gatishmërisë për Aktin e Inteligjencës Artificiale, të hartojë dokumentacionin e kërkuar dhe t'ju udhëheqë përmes vlerësimit të konformitetit - përpara se auditorët të trokasin në derë.

Law & More