Den första frågan jag får från svenska teknikchefer när de börjar AI Act-arbetet är: är vårt system högrisk? Det låter som en juridisk fråga. För oss på Walma är det i grunden en teknisk klassificeringsuppgift. Annex III i AI-förordningen listar åtta användningsområden där AI-system räknas som högrisk när de inte ingår i en redan reglerad produkt. Att kunna mappa er användning mot dessa åtta områden är förmodligen den viktigaste enskilda kompetensen i hela compliance-arbetet.
Den här artikeln är checklistan jag själv hade behövt för ett år sedan. Vi går igenom varje område med samma struktur. Vad omfattas. Två eller tre konkreta svenska exempel. Vad som faktiskt inte omfattas tack vare artikel 6.3-undantaget. Och en eller två typiska fällor vi sett företag gå i.
För övergripande tidslinje och kontext hänvisar jag till vår sammanställning av AI-förordningen. Här fokuserar jag på det praktiska: hur ni klassar en AI-användning, och var det är lätt att räkna fel.
En kommentar innan vi börjar. Om er användning faller utanför Annex III är ni inte automatiskt fria från krav. Transparenskraven i artikel 50, GPAI-reglerna och förbjudna praktiker i artikel 5 gäller oavsett. Men ni slipper den tunga leverantörsbördan med riskhanteringssystem, konformitetsbedömning och CE-märkning som högrisk-AI medför.
1. Biometri
Vad omfattas: AI-system för biometrisk fjärridentifiering i realtid eller i efterhand, biometrisk kategorisering baserat på känsliga attribut (etnicitet, politiska åsikter, religion, sexuell läggning, hälsa, fackföreningstillhörighet), och känsloigenkänning på arbetsplatsen eller i utbildningsinstitutioner.
Svenska exempel:
- Polismyndighetens system för efterhandsanalys av övervakningsfilm för att identifiera personer (notera att vissa scenarier är förbjudna helt enligt artikel 5).
- Larmcentralens automatiska analys av samtal för att identifiera akut psykisk ohälsa hos uppringaren genom röstmönster.
- En kommunal idrottsanläggnings system som verifierar medlemskap genom ansiktsigenkänning vid entré.
Vad omfattas inte: Biometri som används för rent autentiseringssyfte, exempelvis Face ID på en mobiltelefon eller fingeravtrycksläsare i ett passerkortssystem, faller normalt utanför. Det är verifiering, inte identifiering enligt förordningens språkbruk.
Compliance-fälla: Den vanligaste missuppfattningen är att tro att alla biometriska system per automatik är högrisk. Det gäller bara fjärridentifiering och kategorisering på känsliga attribut. Däremot är förbudet i artikel 5 mycket strikt för polisens realtidsanvändning i offentliga miljöer, så Annex III och artikel 5 krockar ofta.
2. Kritisk infrastruktur
Vad omfattas: AI-system som används som säkerhetskomponenter i hanteringen och driften av kritisk digital infrastruktur, vägtrafik, vattenförsörjning, gas, värme och el.
Svenska exempel:
- Svenska kraftnäts AI-baserade lastbalansering och prognosmodeller för stamnätet.
- Trafikverkets AI-system för tunnelövervakning som triggar nödstopp vid avvikelser.
- En kommunal vattenrenings AI-styrda doseringssystem som styr klorering och pH-balans automatiskt.
Vad omfattas inte: AI som används för administrativ effektivisering inom samma organisationer, exempelvis chatbottar för kundservice eller analys av fakturadata, omfattas inte. Distinktionen är säkerhetskomponent kontra stödfunktion.
Compliance-fälla: Många energibolag och kommunala bolag tror att AI som "bara" används för prognoser inte är säkerhetskritisk. Men om prognosen är inputen till ett automatiserat styrsystem som påverkar realtidsdrift, är hela kedjan säkerhetskomponent. Här gäller det att kartlägga datadrift och beroenden noga, vilket är en del av riskhanteringskravet i artikel 9.
3. Utbildning och yrkesutbildning
Vad omfattas: AI-system som används för antagning till utbildning, bedömning av lärande och kunskap, övervakning under prov, och fördelning till olika utbildningsnivåer.
Svenska exempel:
- Universitets och högskolerådets AI som sorterar ansökningar baserat på meriter och personligt brev.
- En högskolas AI-baserade plagiatkontroll som inte bara flaggar utan självständigt avgör studieuppskov.
- Skolverkets AI-stödda system för att identifiera elever med särskilda stödbehov tidigt.
Vad omfattas inte: AI som lärare själva använder som pedagogiskt stöd, exempelvis för att generera övningsuppgifter, faller utanför så länge AI inte fattar bedömningsbeslut om eleven. På samma sätt är AI för administrativt stöd, som schemaläggning, inte högrisk.
Compliance-fälla: Gränsen mellan "AI som stöder läraren" och "AI som bedömer eleven" är svår och vandrar ofta över tid. Ett system som börjar som beslutsstöd för läraren tenderar i praktiken att bli beslutet, eftersom läraren signerar utan avvikelse i 95 procent av fallen. Då är det funktionellt högrisk även om designen säger annat.
4. Sysselsättning, personalhantering och egenföretagande
Vad omfattas: AI för rekrytering och urval, AI som påverkar beslut om befordran, uppsägning, arbetsfördelning och prestationsutvärdering, samt AI för övervakning av arbetstagare.
Svenska exempel:
- Ett rekryteringsverktyg som rangordnar kandidater baserat på CV-analys och videointervjuer.
- En arbetsgivares AI-system som flaggar anställda för uppsägning baserat på prestationsdata och kollegiala omdömen.
- Gigplattformars dynamiska prissättning och uppdragsfördelning till frilansare.
Vad omfattas inte: AI som används för rent organisatoriska syften utan personlig påverkan, som schemaoptimering på aggregerad nivå, är inte högrisk. Inte heller AI som anställda själva använder som arbetsverktyg, exempelvis copilots för kodning.
Compliance-fälla: Många HR-team tänker på "rekryteringsverktyg" som högrisk men missar att deras prestationsanalyssystem också är det. Allt som påverkar individuella beslut om anställning faller in. Och artikel 22 i GDPR (automatiserade beslut) gäller parallellt, vilket lägger till en tröskel kring kravet på mänsklig prövning.
5. Tillgång till väsentliga privata och offentliga tjänster
Vad omfattas: AI för kreditprövning av fysiska personer, riskbedömning för liv och sjukförsäkring, prioritering vid akutsjukvård och nödsituationer, och bedömning av rätt till offentliga förmåner och tjänster.
Svenska exempel:
- En banks AI-baserade kreditbedömning för bolån eller blancolån.
- Försäkringsbolagets prissättningsmotor som bedömer individuell risk för sjukvårdsförsäkring.
- Försäkringskassans AI-stödda beslutsstöd för sjukpenning, aktivitetsersättning eller bostadsbidrag.
- En akutmottagnings triagealgoritm som rangordnar patienter efter ankomst.
Vad omfattas inte: Företagskreditbedömning omfattas inte (det handlar om fysiska personer i förordningens mening). Inte heller AI som används för bedrägeridetektion på transaktionsnivå utan att direkt påverka kreditbeslut.
Compliance-fälla: För banker och försäkringsbolag är fällan att hantera AI Act som ett rent compliance-projekt vid sidan av Finansinspektionens redan etablerade krav. För kommuner och statliga myndigheter är fällan att tro att deras "beslutsstöd" inte är högrisk för att en handläggare formellt fattar beslutet. Om handläggaren följer AI:ns rekommendation i nio fall av tio, är det funktionellt högrisk.
6. Brottsbekämpning
Vad omfattas: AI för riskbedömning av enskilda personer som brottsoffer eller potentiella brottslingar, AI som lögndetektor eller bedömning av tillförlitlighet hos vittnen, AI för att utvärdera bevisens trovärdighet, AI för profilering, och AI för forensisk analys.
Svenska exempel:
- Polismyndighetens AI-stödda riskbedömning av personer för utvidgad övervakning.
- Brottsförebyggande prediktiva system som identifierar geografiska riskzoner och kopplar dem till individer.
- AI för att analysera digitala bevis från beslagtagna enheter.
Vad omfattas inte: AI för rent administrativa polisuppgifter (schemaläggning, fordonsallokering, ärendediarie) faller utanför. Det gör också forskningssamarbeten där AI används utan att direkta polisiära beslut fattas på basis av outputen.
Compliance-fälla: Polismyndigheten är hårt reglerad redan idag genom polisdatalagen och brottsdatalagen. Risken är att AI Act-arbetet behandlas separat från det befintliga regelverket. Den som integrerar AI Act i den existerande granskningen via Säkerhets och integritetsskyddsnämnden får en mycket smidigare process.
7. Migration, asyl och gränskontroll
Vad omfattas: AI som lögndetektor i migrationsärenden, AI för riskbedömning av personer som passerar gräns, AI för bedömning av asylansökningar och visumärenden, och AI för att verifiera resehandlingars äkthet.
Svenska exempel:
- Migrationsverkets AI-stödda triage av asylansökningar baserat på ursprungsland och historiska utfallsmönster.
- Polisens gränskontroll vid Arlanda med AI-baserad ansiktsigenkänning mot resehandlingar.
- AI som flaggar ärenden där handlingar avviker statistiskt från norm.
Vad omfattas inte: AI för översättning av ansökningshandlingar utan att fatta beslut omfattas inte. Inte heller AI för rent statistisk analys på aggregerad nivå för planering.
Compliance-fälla: Migrationsverket arbetar i ett komplext samspel med Dublinförordningen, Schengenavtalet och EU:s asylprocedurdirektiv. Att AI Act-kraven läggs ovanpå utan en helhetsanalys leder ofta till dubbla dokumentationsspår och ineffektivt compliance-arbete.
8. Rättsväsende och demokratiska processer
Vad omfattas: AI som assisterar domstolar med att tolka fakta eller lag, AI som direkt påverkar rättskipning, och AI för att påverka väljarbeteende i val eller folkomröstningar.
Svenska exempel:
- AI-baserade beslutsstöd för domare i mål med stora datamängder, exempelvis konkurrensrätt eller skattemål.
- Kronofogdemyndighetens AI för att prioritera ärenden och bedöma utmätningsmöjligheter.
- Politiska partiers AI-styrda målgruppsanalys för riktad annonsering till väljare.
Vad omfattas inte: AI som används för administrativt stöd i rättsprocessen, som schemaläggning av huvudförhandlingar, omfattas inte. AI för rent journalistisk valanalys är heller inte högrisk.
Compliance-fälla: Den svenska domstolsförvaltningen är historiskt försiktig med AI, och den begränsade användning som finns är ofta klassad internt som "stöd". Frågan blir om den typen av stöd faktiskt påverkar utfallet. Om det gör det, är det Annex III även om designen är passiv.
Artikel 6.3-undantaget: när Annex III inte är högrisk ändå
Förordningen ger ett viktigt undantag i artikel 6.3. Även om er användning faller inom ett av de åtta Annex III-områdena är systemet inte högrisk om det:
- utför en snäv processuell uppgift,
- förbättrar resultatet av en tidigare slutförd mänsklig aktivitet,
- upptäcker beslutsmönster eller avvikelser från beslutsmönster utan att ersätta eller påverka mänsklig bedömning utan ordentlig granskning, eller
- utför förberedande uppgifter inför en bedömning som relateras till Annex III.
Praktisk innebörd: Ett system som sammanfattar ett CV är inte högrisk, även om CV:t läses i ett rekryteringssammanhang. Ett system som extraherar nyckeltal från en kreditansökan utan att rangordna är inte högrisk. Ett system som flaggar anomalier i provresultat för läkaren att granska är troligen inte högrisk.
Men obs: Undantaget gäller inte om systemet utför profilering av fysiska personer. Profilering enligt GDPR drar in systemet i högrisk oavsett om det formellt uppfyller undantagskriterierna.
Krav vid undantag: Även om ni klassar er som undantagna ska ni dokumentera bedömningen och registrera systemet i EU-databasen för högrisk-AI. Det är en formalitet som många missar. Vilken roll ni har enligt förordningen avgör också vilka skyldigheter ni bär kring den dokumentationen, något vi går igenom i en separat artikel om leverantör, deployer och distributör.
Tre rekommendationer för svenska organisationer
1. Klassa varje system separat, inte hela organisationen. Ni kan ha tio AI-system där åtta är icke högrisk och två är. Den vanligaste fellen är att hantera "AI" som ett enda block. Varje system behöver sin egen Annex III-bedömning.
2. Dokumentera artikel 6.3-bedömningen aktivt. Om ni anser att ett system är undantaget, skriv ner varför, vilket av kriterierna som tillämpas, och vilka antaganden som ligger till grund. Tillsynsmyndigheten kommer fråga, och en muntlig "vi tycker att..." räcker inte.
3. Granska klassificeringen var sjätte månad. Användningen av ett system förändras över tid. Ett verktyg som började som "stöd för läraren" blir ofta "beslutet" inom ett halvår. Ett system som var rent internt blir lanserat externt. Klassificeringen ska följa med, inte vara fryst i lanseringsögonblicket.
På Walma har vi byggt vår plattform Noda så att Annex III-bedömningen följer med varje agent och uppdateras när användningsmönstret ändras. Det är så vi tänker att klassificeringen behöver fungera framöver: som en levande kontroll, inte ett engångsdokument.
FAQ
Hur vet vi om vårt system är högrisk?
Mappa användningen mot de åtta områdena i Annex III. Om matchning finns, gå genom artikel 6.3-undantaget. Om inget undantag tillämpas är systemet högrisk. Om ni är osäkra, anta högrisk och dokumentera er bedömning. Det är billigare att överuppfylla än att bli omklassificerad i tillsyn.
Vad är skillnaden mellan högrisk-AI i Annex III och i Annex I?
Annex III täcker användningsområden där AI-system är högrisk när de inte ingår i en redan reglerad produkt. Annex I täcker AI som är inbäddad i produkter som redan har EU-produktreglering, exempelvis medicintekniska produkter, fordon och maskiner. Annex I-systemen får högrisk-status genom befintlig produktlagstiftning plus AI Act-tillägg.
Räcker artikel 6.3-undantaget för att slippa hela compliance-bördan?
Ja, om bedömningen är välgrundad. Men ni måste fortfarande registrera systemet i EU-databasen och dokumentera bedömningen. Och GDPR samt sektorslagstiftning gäller oavsett.
Kan profilering ändå räknas som icke högrisk?
Nej. Förordningen är tydlig: om systemet utför profilering av fysiska personer faller artikel 6.3-undantaget bort, även om de andra kriterierna är uppfyllda.
Vad händer om vi klassat fel?
Om ni klassat ett system som icke högrisk men tillsynsmyndigheten gör en annan bedömning, gäller leverantörsskyldigheterna retroaktivt. Det betyder att ni snabbt behöver bygga upp riskhantering, dokumentation, konformitetsbedömning och loggning. Att ha en välgrundad bedömning från början är därför inte bara ett dokumentationskrav, det är riskreducering.
Hur kan Walma hjälpa oss klassa våra system?
Vi gör Annex III-klassificering som standardsteg i alla AI Act-projekt. Genom workshop med er utvecklings och verksamhetsteam mappar vi varje system mot de åtta områdena, bedömer artikel 6.3-undantag, och dokumenterar resultaten i en levande inventarielista som kan uppdateras när användningen ändras.

