Apropå Arbetsförmedlingen och AI: några saker som förtjänar lite mer luft

Apropå Arbetsförmedlingen och AI: några saker som förtjänar lite mer luft

De senaste dagarna har Arbetsförmedlingens användning av ett AI-verktyg fått stor uppmärksamhet. I den efterföljande rapporteringen har jag själv medverkat som expertkommentator. Det som ryms i en intervju är dock sällan hela resonemanget, så låt mig ta tillfället i akt att breda ut några av de saker som bara hann antydas.
Som bakgrund, här är Aftonbladets ursprungliga artikel samt intervjun.
Det här är inte en text om Arbetsförmedlingen. Det är en text apropå diskussionen, och om säkerhet, teknik och några återkommande missförstånd kring AI.
När vi säger “AI” men menar helt olika saker
En av de mest olyckliga sammanblandningarna i debatten rör ordet språkmodell.
I vardagligt tal används “LLM” ofta som synonym till tjänster som ChatGPT. Men i det sammanhanget pratar vi egentligen om en färdig, molnbaserad AI-produkt (en SaaS-tjänst) där data skickas till en extern leverantör som driver hela lösningen.
I Arbetsförmedlingens fall verkar det, såvitt man kan bedöma utifrån rapporteringen, ha handlat om något helt annat: en språkmodell som använts som en komponent i en egenbyggd intern chatt, driftad on-prem.
Ur ett säkerhetsperspektiv är detta två fundamentalt olika saker.
Ett sätt att tänka på det är att skilja på:
- Språkmodellen – motorn.
- AI-produkten – bilen som byggs runt motorn.
- Driftsformen – kör du bilen själv, eller åker du taxi?
Att köra själv innebär ansvar, men också kontroll. Att åka taxi innebär bekvämlighet, men då lämnar du också ifrån dig information om vart du åker och när. Samma logik gäller AI. Säkerhetsfrågan avgörs i hög grad av hur lösningen används och driftas – inte bara av var modellen en gång tränats.
“Ingen data lämnade organisationen” – ändå finns en risk
Mycket av debatten har kretsat kring dataläckage. Skickades information till Kina eller inte? I det här fallet tycks svaret vara nej.
Men där tar säkerhetsresonemanget ofta slut alldeles för tidigt.
Alla säkerhetshot handlar nämligen inte om att stjäla eller förstöra data. Vissa handlar om påverkan. Om att forma beteenden, språkbruk och perspektiv – långsamt och subtilt.
Detta är inget nytt fenomen. Påverkansoperationer är väldokumenterade och väl förstådda. Det nya är att språkmodeller kan bli en del av den vardagliga kognitiva infrastrukturen i organisationer: de sammanfattar, föreslår, formulerar och prioriterar.
Språkmodeller är inte neutrala
Ett vanligt motargument är: “modellen svarar ju bara på det vi frågar.”
Det är inte fel. Men det är en smula naivt.
De flesta frågor som är värda att ställa i en organisation har inte ja-eller-nej-svar. Och även vid till synes enkla uppgifter – som att sammanfatta en text – finns ett stort tolkningsutrymme. Vad lyfts fram? Vad tonas ned? Vad nämns inte alls?
Språkmodeller är tränade på mänskligt producerat material, under mänskliga värderingar och prioriteringar. De bär därför med sig ideologiska och kulturella biaser. Det gäller modeller från statsnära kinesiska bolag. Det gäller lika mycket modeller från västerländska techbolag drivna av libertarianska ideal.
Detta är inte spekulation. Det är väl belagt i forskningen. Och det är något tekniska beslutsfattare behöver förhålla sig till, oavsett sektor.
Vad jag hoppas att beslutsfattare tar med sig
Två saker, egentligen.
För det första:
Det finns skäl att känna ett visst lugn. Teknisk säkerhet är svårt – men det blir inte principiellt svårare för att AI är inblandat. Mycket av arbetet handlar om samma klassiska frågor som alltid: arkitektur, drift, åtkomst och ansvar.
För det andra:
När du stoppar in en språkmodell i dina interna verktyg tar du också ombord en extern röst. Den rösten har värderingar. Den påverkar hur saker uttrycks, vilka alternativ som känns rimliga och vilka perspektiv som aldrig föreslås.
Det betyder inte att man ska avstå. Men det betyder att man behöver vara medveten. Tänka igenom vilken funktionalitet som är lämplig, och vilken uppföljning, övervakning eller utvärdering som krävs för att hantera den här typen av risk.
Inte panik. Inte naivitet.
Bara ett lite mer insiktsfullt samtal om vad det faktiskt innebär att använda AI.
Senaste artiklarna






Insights
Senaste artiklarna

Varför läsa en 60 år gammal bok om “datan” i jul?

AWS Manufacturing GenAI & Agentic Hackathon – från lärande till en oväntad vinst

Säkerhet behöver samma mognadsresa som hållbarhet
Apropå Arbetsförmedlingen och AI: några saker som förtjänar lite mer luft
