Hoppa till innehåll

Varför datan är 80% av jobbet

Modeller är likvärdiga idag. Vem som helst kan anropa GPT-5 eller Claude 4.7. Skillnaden mellan ett AI-system som fungerar och ett som inte gör det ligger nästan alltid i datan som matas in: är den komplett, konsistent, aktuell, strukturerad och rättslig tillgänglig?

Vi möter ofta företag där datan sitter i fyra olika system, uppdateras manuellt, saknar konsekvent namngivning och har attribut som ingen vet ursprung till. Ingen AI-modell i världen kan kompensera för det.

Vad vi bedömer i en data readiness-audit

  • Tillgänglighet: finns datan dokumenterad och sökbar?
  • Kvalitet: kompletthet, noggrannhet, konsistens, aktualitet
  • Struktur: format, schemastabilitet, referensiell integritet
  • Storlek och täckning: räcker mängden för att AI:n ska lära sig mönster?
  • Juridik: vilken rättslig grund har ni för att använda den till AI, vad kräver GDPR?
  • Lineage: kan ni spåra var en specifik datapunkt kommer ifrån?
  • Uppdaterings­takt: hur färsk är datan, hur ofta uppdateras den?

Vad vi bygger efter auditen

  • ETL-pipelines från era källsystem (SAP, Dynamics, Sales­force, egen databas) till AI-redo format
  • Datakvalitets­övervakning — automatiska larm när inflödet avviker från förväntad profil
  • Metadata-katalog så ni vet vilka attribut ni faktiskt har
  • PII-detektering och pseudonymisering innan data når AI-modeller
  • Retention policies implementerade tekniskt, inte bara dokumenterade
  • Versionshantering så ni kan reproducera en AI-modells beteende på gammal data

Typiska fall

CRM → RAG-system

Säljdata i Salesforce ska matas in i AI-assistent för account managers. Vi bygger daglig sync, normaliserar data­struktur och pseudonymiserar där det behövs.

Dokument­bibliotek → embeddings

Fyra SharePoint-mappar med 20 000 dokument. Vi bygger pipeline som parsar, chunkar, embeddar och håller indexet i synk när dokument uppdateras.

Transaktionsdata → prediktiv modell

ERP-data behöver aggregeras, cleansas och feature-engineeras innan modellträning. Vi bygger feature store och träningsdatapipeline.

Investeringsnivå

Data readiness-audit: 35 000–90 000 kr (2–3 veckor). Pipeline-implementation: 150 000–500 000 kr beroende på antal källsystem och datavolym. Fri förstudie först — vi ger en skriftlig bedömning om vilken nivå ni behöver.

Vanliga frågor

Måste vi flytta data till molnet?

Nej. Vi kan bygga pipelines som håller data on-prem (t.ex. pgvector i er egen PostgreSQL) om ni har krav på det. Cloudflare, AWS eller Azure fungerar också — valet är ert.

Vi har ostrukturerad data (PDF, e-post, bilder). Räknas det?

Ja, och det är ofta där mest värde finns. Vi har specialistverktyg för att extrahera strukturerad information ur PDF:er, skanna­de dokument och e-post.

Vad gör vi med data som inte får användas?

Del av auditen: identifiera vilken data som har otillräcklig rättslig grund och föreslå antingen uppdaterat samtycke, pseudonymisering eller uteslutning ur AI-flödet. Läs mer om GDPR-kompatibel AI.

Starta rätt

Audit före bygge sparar månader.

Vi bedömer er datamognad och levererar konkret väg framåt.

Boka audit