Läser in
Läser in
Artikeln har tre delar. Punkt 1 klassificerar AI i reglerade produkter (Bilaga I) som högrisk om de är safety-komponenter och kräver tredjepartsbedömning enligt respektive sektorslag. Typiska exempel: AI i insulinpumpar (MDR), AI i kollisionsundvikande (UNECE), AI i industrirobotar som delar arbetsyta med människor (maskindirektivet).
Punkt 2 klassificerar AI inom Bilaga III-områdena som högrisk: biometri, kritisk infrastruktur, utbildning, anställning, tjänsteåtkomst (kredit, försäkring, välfärd, akutvård), brottsbekämpning, migration, rättsväsende.
Punkt 3 introducerar ett undantag: system som annars skulle vara högrisk kan klassas som icke-högrisk om de inte utgör significant risk of harm och uppfyller minst ett av fyra kriterier (begränsad procedurell uppgift, förbättring av mänsklig aktivitet, upptäckt av mönster utan beslutspåverkan, förberedande uppgift). Undantaget är smalt och får inte användas för system som kategoriserar personer eller gör profilering.
Både providers och deployers klassificerar. Provider gör en initial klassificering baserat på det avsedda syftet och publicerar den i bruksanvisningen enligt Art. 13. Deployer bedömer klassificeringen mot sin faktiska användning. Om användningen avviker från avsett syfte kan deployer behöva omklassificera, potentiellt med aktivering av Art. 25 (deployer blir provider).
Skillnad mot tidigare regelverk: det är användningen som avgör, inte typen av teknik. Samma LLM kan vara minimal risk i marknadsavdelningen och högrisk i HR-avdelningen inom samma företag. Klassificering sker per flöde, inte per produkt.
Praktisk klassificering följer ett beslutsträd. Först: bryter systemet mot Art. 5? Om ja, förbjudet. Om nej: är det en safety-komponent i Bilaga I-produkt? Om ja, högrisk. Om nej: används det inom Bilaga III-område? Om ja, gå till Art. 6.3-test. Om nej: faller det under Art. 50 (chatbot, deepfake, syntetiskt innehåll)? Om ja, begränsad risk. Om nej: minimal risk.
Art. 6.3-testet är centralt för gränsfall. Systemet måste uppfylla alla tre: inte utgöra significant risk of harm, inte kategorisera personer eller göra profilering, och uppfylla minst ett av de fyra kriterierna. Ett exempel som undantaget täcker: AI som sorterar inkommande e-post i Outlook (procedurell uppgift utan personbedömning). Ett exempel som undantaget inte täcker: AI som rankar CV-inlämningar (påverkar mänsklig bedömning i Bilaga III.4-område).
Klassificeringen ska dokumenteras per system med slug, version, leverantör, användning, klassificering, motivering med lagreferens, beslutsfattare, datum och nästa granskningsdatum. Dokumentationen är grund för tillsyn och ska kunna visas upp inom 48 timmar.
Art. 6 är direktverkande. IMY är primär marknadskontrollmyndighet och kan omklassificera vid granskning om de bedömer att deployerns klassificering är felaktig. Sektorsmyndigheter (Finansinspektionen, IVO, PTS, Transportstyrelsen, Läkemedelsverket) har parallell tillsyn inom sina områden.
Svensk förvaltningsrätt kompletterar Art. 6 för offentliga deployers: förvaltningslagen 31 paragraf kräver motivering av beslut, vilket förstärker dokumentationskravet. Kommunallagen påverkar kommunala bolags klassificeringsprocesser genom revisionskrav.
Nej. Provider-klassificering gäller provisoriskt. Deployer ansvarar för egen klassificering baserat på faktisk användning. Om ni använder systemet annorlunda än avsett syfte kan det bli högrisk även om providern säger nej.
Nej. Undantaget är smalt. Alla tre villkor måste uppfyllas (inte significant risk, inte profilering, ett av fyra kriterier). Systemet ska dessutom dokumenteras med skriftlig motivering som är tillgänglig för tillsynsmyndighet. Försök att använda undantaget brett brukar bli underkänt.
Högrisk är en juridisk klassificering, inte en säkerhetsbedömning. Det betyder att systemet har potential att väsentligt påverka personer och därför omfattas av Art. 26. Ett välbyggt högrisksystem med god human oversight kan vara tryggare än ett bristfälligt lågrisksystem. Klassificeringen definierar skyldigheter, inte kvalitet.
Nej. Benämningen saknar juridisk betydelse. Om AI:n påverkar beslut om fysiska personer inom Bilaga III är klassificeringen högrisk oavsett om utdata är rekommendation, score eller binärt beslut. Att kalla det beslutsstöd kan tvärtom uppfattas som försök till regelarbitrage.