Data readiness.
Grunden AI
bygger på.
Harvard Business Review benämner det "the data readiness problem": organisationer investerar miljoner i AI men upptäcker att datan inte är AI-redo. Vi fixar grunden innan ni bygger modellen ovanpå.
Varför datan är 80% av jobbet
Modeller är likvärdiga idag. Vem som helst kan anropa GPT-5 eller Claude 4.7. Skillnaden mellan ett AI-system som fungerar och ett som inte gör det ligger nästan alltid i datan som matas in: är den komplett, konsistent, aktuell, strukturerad och rättslig tillgänglig?
Vi möter ofta företag där datan sitter i fyra olika system, uppdateras manuellt, saknar konsekvent namngivning och har attribut som ingen vet ursprung till. Ingen AI-modell i världen kan kompensera för det.
Vad vi bedömer i en data readiness-audit
- Tillgänglighet: finns datan dokumenterad och sökbar?
- Kvalitet: kompletthet, noggrannhet, konsistens, aktualitet
- Struktur: format, schemastabilitet, referensiell integritet
- Storlek och täckning: räcker mängden för att AI:n ska lära sig mönster?
- Juridik: vilken rättslig grund har ni för att använda den till AI, vad kräver GDPR?
- Lineage: kan ni spåra var en specifik datapunkt kommer ifrån?
- Uppdateringstakt: hur färsk är datan, hur ofta uppdateras den?
Vad vi bygger efter auditen
- ETL-pipelines från era källsystem (SAP, Dynamics, Salesforce, egen databas) till AI-redo format
- Datakvalitetsövervakning — automatiska larm när inflödet avviker från förväntad profil
- Metadata-katalog så ni vet vilka attribut ni faktiskt har
- PII-detektering och pseudonymisering innan data når AI-modeller
- Retention policies implementerade tekniskt, inte bara dokumenterade
- Versionshantering så ni kan reproducera en AI-modells beteende på gammal data
Typiska fall
CRM → RAG-system
Säljdata i Salesforce ska matas in i AI-assistent för account managers. Vi bygger daglig sync, normaliserar datastruktur och pseudonymiserar där det behövs.
Dokumentbibliotek → embeddings
Fyra SharePoint-mappar med 20 000 dokument. Vi bygger pipeline som parsar, chunkar, embeddar och håller indexet i synk när dokument uppdateras.
Transaktionsdata → prediktiv modell
ERP-data behöver aggregeras, cleansas och feature-engineeras innan modellträning. Vi bygger feature store och träningsdatapipeline.
Investeringsnivå
Data readiness-audit: 35 000–90 000 kr (2–3 veckor). Pipeline-implementation: 150 000–500 000 kr beroende på antal källsystem och datavolym. Fri förstudie först — vi ger en skriftlig bedömning om vilken nivå ni behöver.
Vanliga frågor
Måste vi flytta data till molnet?
Nej. Vi kan bygga pipelines som håller data on-prem (t.ex. pgvector i er egen PostgreSQL) om ni har krav på det. Cloudflare, AWS eller Azure fungerar också — valet är ert.
Vi har ostrukturerad data (PDF, e-post, bilder). Räknas det?
Ja, och det är ofta där mest värde finns. Vi har specialistverktyg för att extrahera strukturerad information ur PDF:er, skannade dokument och e-post.
Vad gör vi med data som inte får användas?
Del av auditen: identifiera vilken data som har otillräcklig rättslig grund och föreslå antingen uppdaterat samtycke, pseudonymisering eller uteslutning ur AI-flödet. Läs mer om GDPR-kompatibel AI.
Audit före bygge sparar månader.
Vi bedömer er datamognad och levererar konkret väg framåt.