LLM (Large Language Model)
Även känt som: Large Language Model · Stor språkmodell
En LLM är en stor språkmodell tränad på enorma mängder text. GPT-5, Claude 4.7, Gemini och Llama är exempel. De är grunden för moderna AI-applikationer — från chatbots till kodassistenter.
Kort definition
En Large Language Model (LLM) är en maskininlärningsmodell tränad på mycket stora mängder text för att förutsäga nästa ord i en sekvens. Från den förmågan härleds allt annat: att besvara frågor, sammanfatta, översätta, resonera.
Storleken — mätt i antal parametrar, från miljarder till biljoner — är en del av varumärket men inte hela sanningen. Moderna små modeller på 7–70B parametrar når prestanda som för två år sedan krävde 500B+.
Stora vs små språkmodeller
Stora modeller (GPT-5, Claude 4.7, Gemini Ultra) har bred kunskap och starka resonemangsförmågor men är dyra att köra och har latens. Små språkmodeller (SLM:er som Llama 4 8B, Phi-4, Mistral) är snabba och billiga, ofta tillräckligt bra för specifika uppgifter efter fine-tuning.
För de flesta mellanföretag är kombinationen optimal: stora modeller för komplexa uppgifter, små för volym-transaktioner.
Vad LLM:er inte är
LLM:er är inte sökmotorer. De kan inte veta vad som hände i går utan extern kontext. De har inget minne mellan sessioner om du inte bygger det. De kan fabricera svar som låter rimliga men är faktuellt fel — ett fenomen kallat hallucinering.
Därför kombineras de i produktion nästan alltid med RAG, verktygsanvändning eller validering.
Använd när
- Du behöver naturlig språkförståelse eller -generering
- Uppgiften har inte en fast regel utan kräver tolkning
- Användare förväntar sig ett konversationsgränssnitt
Använd inte när
- Problemet har en deterministisk lösning (räkna, filtrera, validera)
- Du behöver 100% reproducerbarhet — LLM:er är stokastiska
- Kostnad per anrop är kritisk och uppgiften kan lösas med enklare teknik
Bygger ni system som använder LLM?
Vi hjälper er bedöma rätt arkitektur, undvika vanliga fallgropar och bygga produktionsklart.