Vi använder AI.
Här är hur.
Vi är ett AI-konsultbolag — vi använder naturligtvis AI i eget arbete. Men vi använder det inte urskillningslöst. Denna policy beskriver var, hur och varför.
1. I vår egen innehållsproduktion
Vi använder AI-verktyg — främst ChatGPT, Claude och Gemini — som stöd i research, utkast och språkpolish när vi skriver artiklar och tjänstesidor. Det skiljer oss inte från de flesta professionella skribenter 2026.
Men AI genererar aldrig en publicerad artikel på egen hand. Varje publicerad text går genom:
- Mänsklig redigering av innehållsflöde, exempel och slutsatser
- Faktagranskning av en andra person (se redaktionell policy)
- Godkännande av den namngivna författaren, som står med sitt namn som byline
Vi märker inte separat vilka delar som är AI-assisterade och vilka som är rent mänskliga — det går inte att dra en meningsfull gräns. Det som räknas är att en namngiven expert står bakom publicerat innehåll och tar ansvar för det.
2. I systemen vi bygger åt kunder
När vi bygger AI-system åt kunder följer vi fyra principer:
- Kunden äger datan. Kundens data bearbetas av AI-modeller under kundens personuppgiftsbiträdesavtal (DPA) med den valda leverantören — inte under vårt avtal.
- Ingen träning på kunddata utan uttrycklig tillåtelse. Vi aktiverar alltid opt-out från modellträning som standard, och det står explicit i våra projektavtal.
- Val av modell är kundens beslut. Vi rekommenderar utifrån teknisk lämplighet, men val av OpenAI vs Anthropic vs open-source vs EU-hostade alternativ är kundens. Vi har inga incitament att styra valet.
- Mänsklig oversight är inbyggt. För beslut med hög påverkan (art. 22 GDPR) bygger vi in mänsklig granskning som del av flödet — inte som eftertanke.
3. När AI är fel svar
Vi säger nej till AI-projekt där AI inte är rätt lösning. Detta händer oftare än folk tror. Vanliga skäl:
- Problemet löses bättre av deterministisk logik eller en enkel regel
- Datavolymen eller datakvaliteten är otillräcklig
- Kostnaden per korrekt svar blir högre än värdet
- Juridisk risk (t.ex. automatiserat beslutsfattande utan oversight) överväger nyttan
- Kundens interna IT-struktur kan inte underhålla systemet på lång sikt
När vi säger nej motiverar vi det skriftligt och föreslår alternativ — vanligen traditionell automation, en BI-lösning eller strukturerad sökning utan LLM.
4. Transparens mot slutanvändare
När vi bygger kundvänd AI (chatbots, assistenter, beslutsstöd) ska det alltid framgå tydligt för slutanvändaren att de interagerar med ett AI-system. Vi bygger inte system som spelar mänskliga utan att vara det.
5. Säkerhet och robusthet
Alla AI-system vi bygger har:
- Loggning av input och output för revisionsspår
- Hallucinations-detektering via regelbaserad sanity-check eller human-in-the-loop
- Fallback-logik om AI-tjänsten inte svarar eller är osäker
- Kostnadsbegränsning per användare och per request
- Prompt injection-skydd när systemet tar användarinput
6. EU AI Act och regelefterlevnad
Vi följer och hjälper klienter navigera EU AI Act. För system som klassas som "high-risk" enligt förordningen bygger vi in dokumentation, oversight och bias-granskning från designfasen.
Läs mer: Tjänstesida för AI-infrastruktur.
7. Om denna policy
Denna policy uppdateras när vår praktik förändras eller när regelverk som EU AI Act preciseras. Tidigare versioner arkiveras inte publikt i nuläget men finns tillgängliga på begäran.