Den kompletta tidslinjen

DatumHändelseArtikelVem påverkas direkt
2 aug 2024AI-förordningen trädde i kraftHela förordningen (med uppskjuten tillämpning)Ingen direkt. Förberedelseperiod startar.
2 feb 2025Förbjudna praktikerArt. 5Alla organisationer. Social scoring, manipulativa tekniker och realtidsbiometri i offentliga utrymmen blev förbjudet.
2 feb 2025AI-kompetensArt. 4Alla organisationer. Rollbaserad AI-kompetens krävs för personal.
2 aug 2025GPAI-skyldigheterArt. 53 till 55Providers av generella AI-modeller (OpenAI, Anthropic, Mistral, Google, Meta).
2 aug 2025FörvaltningsstrukturArt. 64 till 70AI Office, AI Board, EU-nivå. Inget direkt för svenska organisationer.
2 aug 2026Deployer-skyldigheter för högrisksystemArt. 26Alla svenska deployers av högrisk-AI. Kärndatum.
2 aug 2026Transparens för begränsade risksystemArt. 50Alla som använder chatbottar, deepfakes, syntetiskt innehåll.
2 aug 2026Sanktionsregim aktivArt. 99Från denna dag kan sanktioner utdömas för brott mot de regler som är i kraft.
2 aug 2027Högrisk-AI i reglerade produkterArt. 6.1 med Bilaga IMedtech, fordon, maskiner, leksaker med AI-inbäddning.

2 augusti 2024: ikraftträdande

Förordningen blir gällande EU-lag. Bestämmelserna får rättsverkan enligt den uppskjutna tillämpningsplanen i Art. 113. Ingen organisation har skyldigheter denna dag förutom att börja förbereda sig.

2 februari 2025: Art. 5 (förbjudna praktiker)

Åtta kategorier av AI-användning blev otillåtna per detta datum:

  • Subliminala, manipulativa eller vilseledande tekniker som påverkar beteende negativt
  • Exploatering av sårbarhet på grund av ålder, funktionsnedsättning eller social eller ekonomisk situation
  • Social scoring av fysiska personer baserat på socialt beteende eller personliga egenskaper
  • Riskbedömning för brottslighet baserad enbart på profilering eller personlighetsdrag
  • Oriktad skörd av ansiktsbilder från internet eller övervakningskameror för biometriska databaser
  • Emotionsigenkänning på arbetsplatsen och i skolan (undantag för medicinska eller säkerhetsmässiga ändamål)
  • Kategorisering av personer baserat på biometri för att härleda ras, politisk åsikt, facktillhörighet, religion, sexuell läggning
  • Realtidsbiometri i offentliga utrymmen (smala undantag för allvarlig brottsbekämpning)

2 februari 2025: Art. 4 (AI-kompetens)

Alla organisationer ska säkerställa tillräcklig AI-kompetens hos personal som arbetar med eller påverkas av AI-system. Kravet är proportionerligt: en SIEM-specialist som använder en AI-ops-plattform behöver djupare kompetens än en marknadsassistent som använder en generisk LLM.

Svenska organisationer har haft cirka ett år på sig att bygga kompetensmatriser. I praktiken har få gjort det formellt. Tillsynen har inte varit aktiv, men dokumentation behövs vid en incident eller en DPIA-relaterad begäran från registrerade.

2 augusti 2025: GPAI (Art. 53 till 55)

Leverantörer av generella AI-modeller (GPAI) fick sina skyldigheter från detta datum. Detta är primärt en provider-fråga (OpenAI, Anthropic, Mistral, Google, Meta), inte en deployer-fråga. För svenska deployers är det ändå viktigt att förstå: providern ska tillhandahålla teknisk dokumentation, publicera en sammanfattning av träningsdata och respektera upphovsrätt. Deployer har rätt att kräva providerns dokumentation för att uppfylla Art. 26.

2 augusti 2026: Art. 26 (deployer-skyldigheter)

Kärndatum för svenska företag. Alla deployers av högrisksystem måste från denna dag kunna visa dokumenterad efterlevnad av Art. 26. Skyldigheterna omfattar:

  • Följa providerns bruksanvisning
  • Human oversight utsedd och utbildad
  • Datakvalitet på indata under deployerns kontroll
  • Loggar bevarade i minst sex månader
  • Information till berörda personer när AI påverkar beslut om dem
  • Grundläggande rättighetsbedömning (FRIA) för offentliga deployers och vissa privata
  • Incidentrapportering per Art. 73
  • Samarbete med tillsynsmyndighet

2 augusti 2026: Art. 50 (transparens)

System med begränsad risk får sina transparenskrav aktiverade samma dag. Fysiska personer ska informeras när de interagerar med AI (chatbot), när innehåll är AI-genererat (deepfake, syntetisk bild), och när emotionsigenkänning eller biometrisk kategorisering används.

För svenska e-handlare, mediebolag och myndigheter som kör chatbottar eller genererar bild- och textinnehåll med AI betyder det märkning och tydlig information.

2 augusti 2027: Bilaga I-produkter

Produkter som redan är reglerade enligt EU-säkerhetslagstiftning (medicinteknik, fordon, maskiner, leksaker, radioutrustning med mera) omfattas fullt ut av AI Act högriskregim från detta datum. För svenska tillverkare av medicinteknisk utrustning med AI är det deadline för CE-märkning som inkluderar AI Act-dokumentation. För deployers i vårdsektorn är det datum när inköpta AI-funktioner i MDR-reglerade produkter är fullt regulerade av båda lagrummen parallellt.

Räknare och planering

Per publiceringsdatum 2026-05-02 var det 92 dagar till 2 augusti 2026. För ett företag som inte börjat är det tight, men hanterbart. Rimlig planeringstakt för ett medelstort svenskt bolag (300 till 700 anställda) som börjar från noll i maj 2026:

VeckaAktivitet
Vecka 1Governance-beslut i ledningsgruppen. Utse AI-ansvarig.
Vecka 2 till 3Inventering av AI-system, inklusive skugg-AI
Vecka 4Klassificering per Art. 6 och Bilaga III
Vecka 5Utse systemägare för varje högrisksystem
Vecka 6 till 7Bygg dokumentationsstruktur i plattform
Vecka 8Art. 4 rollbaserad kompetensmatris
Vecka 9FRIA-genomgång där det krävs
Vecka 10AI-policy beslutad i ledningen
Vecka 11Internutbildning per roll
Vecka 12Styrelsegranskning av efterlevnad
Vecka 13 (1 aug 2026)Efterlevnadsberedskap dokumenterad

Kan datumen ändras?

Ett litet fönster för senareläggning finns formellt. EU-kommissionen kan efter Art. 112 justera tidpunkten, men ingen officiell signal om försening har getts för deployer-datum 2 augusti 2026. Interna arbetsdokument från AI Office pekar tvärtom på att datumet är fast. Att planera för senareläggning är hög risk och saknar stöd i publicerad vägledning.