De fyra risknivåerna

NivåDefinierat iExempelSkyldigheter
OacceptabelArt. 5Social scoring, manipulativ AI, realtidsbiometri i offentliga utrymmen, emotionsigenkänning på arbetsplatsFörbjudet. Får inte användas.
HögArt. 6 plus Bilaga III, och Bilaga IKreditbedömning, HR-screening, AI i sjukvårdsdiagnostik, AI i trafikstyrningArt. 26 fullt ut. Dokumentation, oversight, loggar, FRIA.
BegränsadArt. 50Kundtjänst-chatbot, AI-genererad bild, deepfake, emotionsigenkänning i marknadsföringTransparens: informera användaren, märk innehåll.
MinimalÖvrigtSpamfilter, AI i videospel, basal personalisering, AI i textfullföljInga utöver frivilliga koder.

Fråga 1: Bryter systemet mot Art. 5 förbjudna praktiker?

Är systemet eller dess primära användningsområde något av följande?

  • Subliminala eller manipulativa tekniker
  • Exploatering av sårbarhet (ålder, funktion, social eller ekonomisk situation)
  • Social scoring baserat på beteende eller egenskaper
  • Riskbedömning för brott baserad enbart på profilering
  • Oriktad skörd av ansiktsbilder för biometriska databaser
  • Emotionsigenkänning på arbetsplatsen eller i skolan (utom vid medicinskt eller säkerhetsmässigt undantag)
  • Biometrisk kategorisering för att härleda ras, politisk åsikt, facktillhörighet, religion, sexuell läggning
  • Realtidsbiometri i offentliga utrymmen (utom smala brottsbekämpningsundantag)

Fråga 2: Är systemet en safety-komponent i en Bilaga I-produkt?

Bilaga I listar EU-säkerhetslagstiftning med CE-märkningskrav: medicinteknik, fordon, maskiner, leksaker, radioutrustning och liknande.

Om systemet är en safety-komponent i en sådan produkt, eller är en Bilaga I-produkt i sig, och ska genomgå tredjepartsbedömning enligt respektive sektorslag, är det högrisk enligt Art. 6.1. Exempel: AI i kollisionsundvikande system i fordon, AI i insulinpumpar, AI i industrirobotar som delar arbetsyta med människor.

Fråga 3: Är användningen listad i Bilaga III?

Bilaga III listar åtta områden. Om systemet används i något av dem, gå till fråga 4. Om inte: hoppa till fråga 5.

  • Biometri. Fjärridentifiering, biometrisk kategorisering, emotionsigenkänning (utom i Art. 5-förbud).
  • Kritisk infrastruktur. Safety-komponenter i hantering eller drift av kritisk digital infrastruktur, vägtrafik, vatten, gas, el, fjärrvärme.
  • Utbildning och yrkesutbildning. Antagning till utbildningsinstitution, bedömning av studenter, utvärdering av läranderesultat, övervakning av studenter under prov.
  • Anställning, arbetsförhållanden och självanställning. Rekrytering och urval, befordran och uppsägning, beslut om kontraktsvillkor, övervakning och utvärdering av anställda.
  • Åtkomst till väsentliga privata och offentliga tjänster och förmåner. Förmåner från offentlig sektor (välfärd, sjukvårdstillgång), kreditvärdighet, försäkringsrisk för liv- och sjukförsäkring, akutmottagning och prioritering av ambulansresurser.
  • Brottsbekämpning. Riskbedömning av individer, polygraph och liknande, bevisvärdering, profilering, utredning av brott.
  • Migration, asyl och gränskontroll. Polygraph, riskbedömning, behandling av asylansökningar, identifiering av personer.
  • Rättsväsende och demokratiska processer. Forskning och tolkning av rättsliga fakta av rättsinstans, påverkansoperationer på val.

Fråga 4: Omfattas systemet av Art. 6.3-undantaget?

Art. 6.3 säger att system som faller under Bilaga III inte är högrisk om de inte utgör significant risk of harm och gör något av följande: utför en begränsad procedurell uppgift, förbättrar resultatet av en tidigare genomförd mänsklig aktivitet, upptäcker beslutsmönster utan att ersätta eller påverka mänsklig bedömning (såvida inte mänsklig granskning sker), eller utför en förberedande uppgift.

Undantaget är smalt och dokumentationen ska visa att någon av de fyra punkterna är uppfyllda. Om systemet kategoriserar fysiska personer eller gör profilering är undantaget inte tillgängligt.

Exempel där undantag gäller: En AI-funktion i kalender som föreslår möteskvartar. Systemet upptäcker mönster men fattar inte HR-beslut. Undantag enligt Art. 6.3 (b).

Exempel där undantag inte gäller: Ett HR-verktyg som rankar CV-inlämningar. Systemet påverkar mänsklig bedömning direkt. Högrisk.

Fråga 5: Faller systemet under Art. 50 transparens?

Om systemet är en chatbot eller liknande som interagerar med fysiska personer, genererar eller manipulerar bild-, ljud- eller videoinnehåll som utgör deepfake, genererar eller manipulerar text som publiceras för att informera allmänheten om frågor av allmänintresse, eller utför emotionsigenkänning eller biometrisk kategorisering (utanför Art. 5-förbud), är systemet begränsad risk. Transparensskyldigheterna i Art. 50 gäller.

Om inget av frågorna 1 till 5 fångade systemet: minimal risk. Inga skyldigheter utöver frivilliga koder. Art. 4 AI-kompetens gäller fortfarande för personal som arbetar med systemet.

Klassificering per sektor: översikt

Tabellen är en orientering, inte en ersättning för systemspecifik bedömning.

SektorDominant risknivåTypiska Bilaga III-punkter
Bank och finansHög för kreditbeslut5b, 1 (KYC-biometri)
FörsäkringHög för liv- och sjukförsäkring5b
Vård och hälsaHög för diagnostik, triage, dos5a, 5c
Offentlig förvaltningHög för medborgartjänster5a, 5c, 6, 7, 8
HR och rekrytering (alla sektorer)Hög4
Kritisk infrastruktur (energi, vatten, transport, telekom)Hög för safety2
UtbildningHög för bedömning och antagning3
Marknad och försäljningBegränsad för AI-chat, minimal för rekommendation50 vid chat eller deepfake
KundtjänstBegränsad50
IT-operationerMinimalingen specifik

Vanliga gränsfall

Generativ AI (Copilot, ChatGPT). Själva modellen är en GPAI (generell modell) och regleras under Art. 53 till 55 för providern. För deployern är klassificeringen av användningsområdet avgörande. Om marknadsavdelningen använder ChatGPT för att skriva LinkedIn-poster är det minimal risk. Om HR använder det för att skriva automatiska beslutsbrev till kandidater kan det bli högrisk.

AI som analyserar videoinspelning av möten. Om AI extraherar action items är det begränsad risk (transparens). Om AI bedömer anställdas prestation baserat på inspelningen är det högrisk (Bilaga III.4 anställning).

Dynamisk prissättning i e-handel. Ingen klar Bilaga III-punkt. Om prissättningen exploaterar sårbarhet (ålder, ekonomisk situation) faller det under Art. 5-förbudet. Annars minimal eller begränsad risk.

Medicinsk AI som utvärderar röntgenbilder. Hög risk enligt Bilaga I (medicinteknisk produkt som kräver tredjepartsbedömning). Dessutom Art. 6.3-undantag ej tillgängligt eftersom systemet påverkar klinisk bedömning.

AI i kundservicerobot som fattar återbetalningsbeslut. Om beslutet är begränsat (under 500 SEK, automatiska kriterier) är det minimal. Om det är öppet och påverkar kundens rätt till tjänst kan det falla under Art. 5a (åtkomst till tjänster). Försiktighetsprincipen: behandla som högrisk om osäkerhet råder.

Dokumentera klassificeringen

Varje system ska ha ett klassificeringsbeslut dokumenterat. Minimum:

  • Systemnamn och version
  • Leverantör (provider)
  • Primär användning i organisationen
  • Klassificering: förbjuden, hög, begränsad eller minimal
  • Bilaga III-punkt om hög
  • Motivering med hänvisning till Art. 6, Art. 6.3-undantag eller Art. 50
  • Beslutsfattare och datum
  • Nästa granskningsdatum (rekommendation: årligen, oftare vid ändring i systemet)

Praxis när klassificering är oklar

Flera situationer i praktiken:

Providerns dokumentation klassificerar systemet lågt, men användningen kan trigga högrisk. Vilken gäller? Ert användningsområde. Providerns bedömning baseras på deras avsedda syfte, deployerns bedömning på faktisk användning.

AI tränas på nya data som gör att risknivån förändras. Vad göra? Ny klassificering. Art. 25 kan dessutom aktiveras om deployern modifierar systemet väsentligt och då blir deployern provider för den modifierade versionen.

Systemet är bara delvis AI (rule-based plus ML-komponent). Hela systemet bedöms efter dess AI-komponent om komponenten är avgörande för utdata.

Tveksamhet: dokumentera som högrisk, nedjustera senare om praxis visar det. Det omvända är betydligt kostsammare vid en granskning.