Hoppa till innehåll

Kort definition

En Large Language Model (LLM) är en maskininlärningsmodell tränad på mycket stora mängder text för att förutsäga nästa ord i en sekvens. Från den förmågan härleds allt annat: att besvara frågor, sammanfatta, översätta, resonera.

Storleken — mätt i antal parametrar, från miljarder till biljoner — är en del av varumärket men inte hela sanningen. Moderna små modeller på 7–70B parametrar når prestanda som för två år sedan krävde 500B+.

Stora vs små språkmodeller

Stora modeller (GPT-5, Claude 4.7, Gemini Ultra) har bred kunskap och starka resonemangsförmågor men är dyra att köra och har latens. Små språkmodeller (SLM:er som Llama 4 8B, Phi-4, Mistral) är snabba och billiga, ofta tillräckligt bra för specifika uppgifter efter fine-tuning.

För de flesta mellanföretag är kombinationen optimal: stora modeller för komplexa uppgifter, små för volym-transaktioner.

Vad LLM:er inte är

LLM:er är inte sökmotorer. De kan inte veta vad som hände i går utan extern kontext. De har inget minne mellan sessioner om du inte bygger det. De kan fabricera svar som låter rimliga men är faktuellt fel — ett fenomen kallat hallucinering.

Därför kombineras de i produktion nästan alltid med RAG, verktygsanvändning eller validering.

Använd när

  • Du behöver naturlig språkförståelse eller -generering
  • Uppgiften har inte en fast regel utan kräver tolkning
  • Användare förväntar sig ett konversationsgränssnitt

Använd inte när

  • Problemet har en deterministisk lösning (räkna, filtrera, validera)
  • Du behöver 100% reproducerbarhet — LLM:er är stokastiska
  • Kostnad per anrop är kritisk och uppgiften kan lösas med enklare teknik
Behöver du hjälp?

Bygger ni system som använder LLM?

Vi hjälper er bedöma rätt arkitektur, undvika vanliga fallgropar och bygga produktionsklart.

Boka konsultation