Vem är deployer? Exempel från svensk verksamhet

De flesta svenska företag är deployers idag. Fem konkreta situationer:

Exempel 1: Marknadsavdelning med Microsoft Copilot. Företaget har köpt Microsoft 365 Copilot-licenser för 30 personer på marknadsavdelningen. Den används för att sammanfatta möten, generera första utkast till LinkedIn-poster och söka i SharePoint. Bolaget är deployer av Copilot. Copilot i sig är inte ett högrisksystem, men AI-kompetens enligt Art. 4 och transparens enligt Art. 50 gäller.

Exempel 2: HR som använder AI för CV-screening. Företaget har integrerat ett verktyg som screenar kandidater och rankar dem mot en jobbannons. Verktyget klassificeras enligt Bilaga III.4 som högrisk (anställning, rekrytering). Bolaget är deployer av ett högrisksystem. Hela Art. 26-katalogen gäller från 2 augusti 2026.

Exempel 3: Kundtjänst med AI-chatbot på webben. Företaget har en chatbot som svarar på frågor om öppettider, fraktstatus och returpolicy. Chatboten bygger på en LLM från en extern leverantör. Bolaget är deployer av ett system i kategorin begränsad risk. Transparenskrav enligt Art. 50 gäller: användaren ska veta att de pratar med AI.

Exempel 4: Finansavdelning med AI i kreditbedömning. Bolaget är bank och använder en AI-modell för att bedöma kreditansökningar från småföretagare. Modellen klassificeras enligt Bilaga III.5b som högrisk. Bolaget är deployer av ett högrisksystem och är dessutom skyldigt att genomföra FRIA (grundläggande rättighetsbedömning) enligt Art. 27 innan systemet tas i bruk.

Exempel 5: Kommunal socialtjänst som prioriterar ärenden med AI. Kommunen har ett system som flaggar ärenden baserat på riskbedömning. Systemet klassificeras enligt Bilaga III.5c som högrisk (väsentliga offentliga förmåner). Kommunen är offentlig deployer, FRIA är obligatorisk, IMY är primär tillsyn.

AI-kompetens per Art. 4

Gäller sedan 2 februari 2025. Alla som arbetar med eller påverkas av AI-system ska ha tillräcklig kompetens för sin roll. Kompetenskravet är proportionerligt.

Praktiskt: rollbaserad matris som kopplar varje jobbroll i organisationen till kompetensnivå och utbildning. En typisk matris för ett medelstort svenskt bolag har mellan 20 och 60 rollklasser.

RollkategoriKompetensnivåTypisk utbildning
Styrelse och VDÖvergripande: regelverk, ansvar, risker2 till 4 timmar bootcamp
CISO, DPO, complianceDjup: klassificering, Art. 26, incidenter8 till 16 timmar kurs
Systemägare för högrisk-AIDjup teknisk: bruksanvisning, oversight, loggarLöpande utbildning
Slutanvändare av AI-verktygGrund: vad verktyget gör, risker, när man ska tveka30 till 60 min årligen
IT-utveckling som integrerar AITeknisk plus regelverk4 till 8 timmar plus dokumentationskrav

Förbjudna praktiker enligt Art. 5

Gäller sedan 2 februari 2025. Åtta kategorier är helt förbjudna:

  • Subliminala eller manipulativa tekniker
  • Exploatering av sårbarhet på grund av ålder, funktionsnedsättning eller social eller ekonomisk situation
  • Social scoring
  • Riskbedömning för brott baserad enbart på profilering
  • Oriktad skörd av ansiktsbilder för biometriska databaser
  • Emotionsigenkänning på arbetsplats och i skola (med smala undantag)
  • Biometrisk kategorisering för att härleda ras, politisk åsikt och liknande
  • Realtidsbiometri i offentliga utrymmen

Transparens enligt Art. 50

Gäller fullt ut från 2 augusti 2026. Tre transparensregler:

  • När en fysisk person interagerar med ett AI-system (chatbot) ska de informeras
  • AI-genererat innehåll (deepfake, syntetisk bild, syntetisk röst) ska märkas
  • Emotionsigenkänning och biometrisk kategorisering ska disclosas

Extra krav för deployer av högrisksystem

Om något AI-system i er stack klassas som högrisk (per klassificeringssidan) aktiveras Art. 26 från 2 augusti 2026.

Human oversight enligt Art. 14. Minst en fysisk person med kompetens, tid och befogenhet att övervaka systemets drift. Oversighten ska kunna förstå systemets kapacitet och begränsningar, upptäcka och ignorera automation bias, ingripa och åsidosätta systemets utdata, och stoppa systemet vid behov.

Datakvalitet enligt Art. 10 (deployer-del). Providern ansvarar för träningsdata. Deployer ansvarar för indata som de kontrollerar. En bank som ger systemet historiska kreditansökningar som träningsgrund för feintuning har ansvar för att den historiken är representativ och rensad från bias där möjligt.

Loggar enligt Art. 12. Automatisk händelseloggning ska aktiveras (det är providern som måste bygga in det, men deployer måste inte stänga av det). Loggarna ska bevaras i minst sex månader, i många fall längre enligt branschpraxis eller sektorsspecifik lag.

Information till berörda personer. När ett högrisksystem fattar eller stöder beslut som påverkar en fysisk person, ska personen informeras. Information ska inkludera att AI används, systemets huvudsyfte, och vem personen kan vända sig till för mänsklig granskning.

Incidentrapportering enligt Art. 73. Allvarliga incidenter rapporteras till marknadskontrollmyndigheten inom 15 dagar (48 timmar vid dödsfall och allvarliga skador). Rapporteringen görs till IMY och i många fall parallellt till sektorsmyndighet.

FRIA enligt Art. 27. Krävs före ibruktagande av högrisksystem om ni är offentlig myndighet, offentligt organ eller privat aktör som utför offentliga uppgifter, eller bank och försäkringsbolag som använder AI för kreditbedömning eller livförsäkring.

Vanliga AI-verktyg i svenska företag och hur de träffas

VerktygTypisk klassificeringHuvudsakliga krav
Microsoft Copilot (365, GitHub, Security)Minimal till begränsad risk som standard. Specifik användning kan bli högrisk.Art. 4 AI-kompetens, Art. 50 transparens.
ChatGPT Enterprise eller TeamMinimal till begränsad risk. Om det används för HR-beslut eller kundbedömning kan enskilt flöde bli högrisk.Art. 4, Art. 50.
Salesforce EinsteinBeror på användning. Scoring av leads: begränsad. AI-powered customer service: begränsad. Kreditbeslut: högrisk.Art. 4, Art. 50, eventuellt Art. 26.
AI-baserade HR-verktyg (rekrytering, performance)Nästan alltid högrisk per Bilaga III.4Art. 26 fullt ut. FRIA där relevant.
Kundtjänst-chattbottarBegränsad riskArt. 50 transparens.
AI i CRM för leadscoringBegränsad riskArt. 50 där relevant.
AI-driven SIEM och endpoint detectionMinimal till begränsadArt. 4 för operators.
AI i marketing automationMinimal till begränsad. Dynamic pricing kan bli högrisk vid konsumentbeteende.Art. 50 vid synlig AI.
AI i compliance-plattformarMinimalArt. 4 för admins.

Plan för ett medelstort svenskt företag

Plan för ett företag med 200 till 700 anställda utan tidigare AI-governance:

Månad 1: Styrning och inventering. Ledningsgruppen beslutar om AI-ansvar. Typiskt hamnar det hos CISO eller DPO. Inventering av AI-system startar med en strukturerad kartläggning av aktiva SaaS-licenser, kreditkortstransaktioner mot AI-leverantörer och användarspecifika verktyg. Räkna med 40 till 150 system, varav de flesta kommer vara okända initialt.

Månad 2: Klassificering och ägarskap. Klassificera varje system enligt Bilaga III. Utse systemägare för varje högrisksystem. Skapa dokumentationsstruktur: en digital fil per system med bruksanvisning, oversight-ansvar, loggar.

Månad 3: Art. 4-kompetens och policy. Rollbaserad kompetensmatris klar. Internutbildning startar. AI-policy beslutad av ledningen och förankrad i fackliga förhandlingar där relevant. Art. 50 transparens implementerad på kundkontakt-flöden.

Månad 4: FRIA och incidentprocess. FRIA genomförd för alla högrisksystem där det krävs. Incidentprocess integrerad med befintlig NIS2-incidenthantering. Test av flödet med en fiktiv AI-incident.

Månad 5 och framåt: Löpande drift. Kvartalsvis review av AI-stack. Varje nytt system granskas mot klassificering innan driftsättning. Styrelserapport månadsvis.

Tre vanliga misstag svenska företag gör

Misstag 1: Behandlar AI Act som ett IT-projekt. Det är inget. AI Act berör HR, kundservice, marknad, juridik, ekonomi och styrelsen. IT-avdelningen äger tekniken men inte processen. Styrning måste vara tvärfunktionell.

Misstag 2: Försöker klassificera allt som lågrisk. Frestelsen är att tolka Bilaga III snävt. Tillsynens rättspraxis kommer sannolikt att tolka bredare. Det är bättre att flagga ett system som högrisk och sedan nedjustera än motsatsen.

Misstag 3: Glömmer att informera berörda personer. Transparens enligt Art. 26 punkt 11 och Art. 50 är en vanlig miss. Jobbsökande som screenas av AI, kunder som bedöms för kredit, patienter vars journal analyseras. Alla har rätt till information. Straffet är både AI Act och GDPR.