Runt den 12e september 2025 uppmärksammade SEO-branschen att Google har stängt av URL-parametern &num=100, som tidigare lät SEO-verktyg läsa in 100 organiska resultat i ett enda SERP-anrop. Konsekvensen av detta är att rank trackers och SERP-API:er nu behöver paginera, vilket ökar belastningen och kostnaderna för varje sökning. Flera leverantörer har redan börjat ändra i sin dokumentation kring hur djupt de söker efter resultat och även justerat sina priser. Samtidigt syns en minskning av exponeringar i Google Search Console (GSC) hos många som troligtvis hänger ihop med färre bot-laddningar av resultatsidor.

En snabb summering

  • &num=100 returnerar inte längre top-100 resultat i SERP:en och är tillfälligt eller permanent avstängd.
  • Flera verktyg reducerar spårningsdjupet: AccuRanker går till Top-20 som standard och Semrush säger att Top-10 noggrannheten är oförändrad men att uppdateringsfrekvensen påverkas kortsiktigt.
  • Många ser ett fall i antalet desktop-exponeringar i Search Console och ett hopp i genomsnittlig position. Detta är troligen kopplat till färre botar som laddar djupt in i SERP:en.

Detta är vad du behöver veta om ändringen

Mellan den 12-15e september gick utvecklar- och verktygssidor ut med att &num=100 i praktiken inte längre fungerar. Som SEO-byrå gjorde vi såklart våra egna tester vid ungefär denna tidpunkt som visade att anrop med num=100 gav 10 resultat, istället för 100 som den tidigare har gjort. Detta gav oss en tydlig teknisk förklaring till varför många leverantörer började begränsa djup eller uppdateringsfrekvens och även sin prislista.

Internationellt bekräftades skiftet snabbt av större branschmedier och leverantörer. Search Engine Roundtable dokumenterade tidslinjen från de första rapporterna (kring den 12e september), till att &num=100 i praktiken upphört att fungera. För den som följer SEO-rapporter innebär det att grafer kan se större förändringar runt den 10-12 september utan motsvarande förändring i klick eller konvertering.

Barry Schwartz var också tidig med att rapportera om ändringen:

Vad innebär ändringen rent tekniskt?

Ändringen innebär att Google inte längre levererar 100 organiska resultat på en enda sida, vilket i sin tur gör att verktyg måste hämta flera sidor (med 10 resultat i taget) för att nå samma djup. Det innebär i sin tur fler sidladdningar, fler sessioner och därmed högre kostnad per Top-100 resultat.

Officiella API:n har aldrig tillåtit 100 resultat per svar

Googles dokumenterade Programmable Search / Custom Search JSON API har länge haft taket num=10 per anrop med paginering via start. Även om vissa scraping-flöden tidigare kunde få 100 resultat via &num=100 i det publika gränssnittet så har det aldrig varit en del av Googles officiella JSON-API-modell. Det ger ytterligare kontext till varför funktionen kunnat ändras utan en publicerad API-ändringslogg.

Konsekvenser för verktyg och rapportering

Spårningsdjup och kostnader

AccuRanker meddelar att de inte längre spårar Top-100 utan går över till Top-20 som standard och utreder möjligheten till valbart djup (t.ex. Top-40). De förklarar även hur snittposition/SoV kan justeras när värden över 20 inte finns. Detta är bara ett exempel på hur verktyg tacklar denna förändring.

Semrush bekräftar samtidigt att Top-10-noggrannheten är intakt och att interimslösningar rullats ut, med kortsiktigt ändrad uppdateringsfrekvens för vissa djupare datapunkter. För majoriteten av kommersiella KPI:er (Top-3, Top-10) bör ändringen vara minimal, medan allt utanför Top-10 blir dyrare/osäkrare att hämta frekvent.

Effekter i Google Search Console

Många rapporterar fall i exponeringar och ett hopp i genomsnittlig position efter den 10-12e september. Detta gör att datan nu går mer i linje med Googles egen definition om att en exponering räknas när användaren besöker den sidan med resultat, även om ditt resultat inte scrollas in i vyn. Om färre resultatsidor laddas (färre bot-laddningar av djupare sidor) faller impressions och snittposition kan förbättras utan att klick påverkas.

Vad detta inte betyder

Det här betyder inte nödvändigtvis att en ändring i algoritmen för ranking har skett, utan snarare ett datainsamlingsskifte som påverkar hur djupt, hur ofta och hur konsekvent verktyg kan hämta resultat efter Top-10/Top-20 placeringar. Var därför försiktig med att tolka den kortsiktiga trendskiften som ett “rankingproblem”, vänta istället till dess att verktygen har kalibrerats om och utvärdera då istället.

Varför har Google gjort detta?

Google har inte kommenterat på detta i skrivande stund (16e september, 2025), men sammantaget pekar mycket på att anledningen är av tre praktiska skäl:

  • För att effektivisera laddning och serverresurser (i linje med att minska överflödig siddata).
  • För att jämställa beteendet med Googles dokumenterade API-gränser där max 10 resultat per svar och paginering gäller.
  • För att försvåra masshämtning och annat missbruk där &num=100 tidigare gjorde skrapning billig och enkel.

Tillsammans talar detta mer för en effektiviserings- och skyddsåtgärd än en avsikt att “förstöra” SEO-mätningen. Ändringen betyder att det krävs fler anrop för samma ranking-djup, vilket leder till högre kostnader och ett avbrott i möjligheten att mäta placeringar bortom Top-20 resultat för många verktyg.

Utöver detta har många kommenterat kring vad dom tror att ändringen innebär framgent. Ryan Jones skrev på X om hur han tror att framtiden kommer att se ut för rankingverktygen:

Vi själva tror inte att det är riktigt så illa, men vi förväntar oss ändringar i hur pass långt bak i SERP:en resultaten kommer att spåras samt vad verktygen kommer att kosta.

Vad du bör göra nu

Kontrollera spårningsdjupet. Ta reda på vilket djup ert verktyg nu faktiskt samlar in data så att ni vet vad som fortsatt är pålitligt. Gör också noteringar kring detta i rapporten för att inte missa ändringen när ni sedan ett år senare gör en Year-on-Year jämförelse.

Omkalibrera KPI:er mot era pålitliga intervall. Behåll fokus på Top-3/Top-10 och, där det är relevant/möjligt, även Top-20. Detta är troligtvis bara en tillfällig fråga då verktygen jobbar hårt med att hitta en lösning, men för de som rapporterar ofta så är det viktigt att hitta metoder för att ändå ha någon form av koll under tiden.

Förklara GSC-skiften i rapporter. Lägg till en kort notering i era rapporter om just denna ändring och hur den minskat antalet exponeringar i GSC.

Räkna på kostnader. Om ert verktyg har ökat kostnaderna för att hämta djupare placeringar så kan ni behöva fundera över hur ofta ni faktiskt behöver data på dessa djupare placeringar. Tidigare kan man ha gjort det bara för att, men om det tillkommer stora kostnader bör man se över om det verkligen är viktigt.

Summering

&num=100 är i praktiken nu avstängt av Google. Konsekvensen av detta är rankingverktyg kräver fler anrop per sökning som innebär högre kostnader och/eller mindre spårningsdjup samt kortsiktigt mer volatilitet i djupare placeringar. Top-10 data är fortsatt robust enligt många leverantörers besked, medan GSC-grafer visar en nedgång av exponeringar som troligen kommer från färre laddade resultatsidor (av bottar). Vår rekommendation är att definiera och dokumentera ert nya spårningsdjup, kalibrera KPI:er runt pålitliga ranking-intervall och notera ändringen i rapporter tills läget stabiliserats så att det inte missas i en senare Year-on-Year jämförelse.