Hoppa till innehåll

Därför rankar inte din AI-sajt på Google (och hur du fixar det)

De flesta AI-tjänstesidor missar grundläggande teknisk SEO. Här är de vanligaste felen och hur du åtgärdar dem utan att kompromissa med designen.

Därför rankar inte din AI-sajt på Google (och hur du fixar det)

Vi granskar regelbundet sajter för AI-konsultbolag, AI-startups och företag som just lanserat en AI-produkt. Och vi ser samma tekniska SEO-misstag om och om igen — misstag som kostar synlighet utan att ha något med innehållskvalitet att göra.

Det här är inte en artikel om "skriv bättre content". Det är en lista på konkreta tekniska fel som håller din sida borta från topp-10.

Fel 1: JSON-LD-schema med fel @type

Det vanligaste felet vi hittar i audit efter audit: sajter som deklarerar sig som ProfessionalService eller LocalBusiness i sin JSON-LD, trots att de inte är ett fysiskt företag med en adress.

Google behandlar ProfessionalService som en underklass till LocalBusiness. Det innebär ett obligatoriskt address-fält. Saknas det kastar Google ett Rich Result-valideringsfel och ignorerar schema-blocket. Du förlorar alla potentiella rich results — utan att få ett felmeddelande i Search Console (det registreras bara i Screaming Frog och Rich Results Test).

Lösningen: Ändra @type från ProfessionalService till Service. En ändring. Eliminerar felet och alla warnings som följer.

Fel 2: Duplicerad meta description

Det här händer nästan alltid när du kopplar ett headless CMS till ett Astro, Next.js eller Nuxt-projekt: båda systemen injicerar meta description, och du får två taggar med identiskt innehåll.

Google väljer en av dem slumpmässigt — vanligen den första i källkoden. Det är inte alltid den du vill ska synas. Resultatet är ett SERP-snippet som trunkeras konstigt eller visar fel text.

Diagnostik: View Source i webbläsaren, sök efter <meta name="description". Det ska finnas exakt en. Mer än en är ett problem.

Lösningen: Identifiera vilket system som injicerar taggen (oftast CMS:et via en Head-komponent). Inaktivera den hårdkodade versionen i din template. Låt CMS:et äga meta description.

Fel 3: Inga säkerhetshuvuden

Säkerhetshuvuden är inte en direkt rankingfaktor. Men de är ett förtroende- och kvalitetssignal, och de påverkar Core Web Vitals indirekt via hur browsern hanterar resursinläsning.

Specifikt: om du saknar Strict-Transport-Security på en HTTPS-sajt skickar du en signal att du inte tagit HTTPS på fullt allvar. Det är ett granskningsflag för Google Quality Rater Guidelines-perspektivet.

Lösningen: Cloudflare (som de flesta moderna sajter kör bakom) låter dig sätta samtliga säkerhetshuvuden via Transform Rules utan att röra koden:

  • Strict-Transport-Security: max-age=31536000; includeSubDomains
  • X-Content-Type-Options: nosniff
  • X-Frame-Options: SAMEORIGIN
  • Referrer-Policy: strict-origin-when-cross-origin

Målet: grade A på securityheaders.com.

Fel 4: Ingen sitemap (eller en tom sitemap)

Screaming Frog hittar regelbundet sajter utan sitemap.xml, eller med en sitemap som listas i robots.txt men returnerar 404. Det saktar ner Googles discovery av nya sidor med veckor till månader.

För Astro-sajter: @astrojs/sitemap-integrationen genererar sitemap-index.xml och sitemap-0.xml automatiskt vid varje build, förutsatt att site-konfigurationen i astro.config.mjs är satt. SSR-sidor behöver listas explicit via customPages.

Verifiera efter deploy: curl -I https://dindomän.se/sitemap-index.xml ska returnera HTTP 200.

Fel 5: Core Web Vitals missar LCP

Largest Contentful Paint (LCP) under 2,5 sekunder är Google-gränsen för "Good". De flesta AI-tjänstesajter missar detta av en av tre orsaker:

  • Renderingsblockerande typsnitt. Google Fonts utan font-display: swap blockerar rendering. Astros inbyggda font-provider hanterar detta korrekt.
  • Inga preload-hints för LCP-element. Om din hero-bild eller hero-text är LCP-elementet ska det ha <link rel="preload"> i head.
  • Cloudflare Workers Cold Start. Första begäran mot en Worker som inte har warm cache kan ta 300–600ms extra. Cloudflare Tiered Cache minskar detta.

Fel 6: Inga BreadcrumbList-schema på undersidor

Rich results för breadcrumbs visas i Google SERP och ger extra visuellt utrymme (URL-sökvägen syns under titeln). Det kräver BreadcrumbList JSON-LD på varje sida med en hierarkisk URL-struktur.

Implementera det en gång i en återanvändbar komponent. Varje sida deklarerar sina brödsmulor som props; komponenten genererar korrekt JSON-LD.

Fel 7: Ingen intern länkstruktur

AI-tjänstesajter tenderar att vara one-pagers utan undersidor, eller att ha tjänstesidor som inte länkar till varandra. Google behöver interna länkar för att förstå hierarkin och prioritera vilka sidor som ska rankas för vilka söktermer.

Enkel regel: varje sida ska länkas från minst tre andra sidor på sajten. Varje tjänstesida ska länka till de andra tjänstesidorna. Footer och navigation räknas.

Checklistan

  1. JSON-LD: kontrollera @type i Rich Results Test
  2. View Source: exakt en meta description
  3. securityheaders.com: grade A
  4. sitemap-index.xml: HTTP 200, innehåller alla sidor
  5. PageSpeed Insights: LCP under 2,5s på mobil
  6. BreadcrumbList JSON-LD på alla undersidor
  7. Intern länkstruktur: varje sida länkad från minst tre ställen

Teknisk SEO är inte magi. Det är ett ingenjörsproblem med mätbara resultat. Åtgärda listan ovan och du har en starkare teknisk grund än 90 procent av dina konkurrenter.