Googlebot en de 2 MB limiet: waarom dit voor bijna iedereen geen probleem is

Home
/
bloggen

Af en toe duikt er een technisch SEO onderwerp op dat onnodig veel onrust geeft. De 2 MB crawl limiet van Googlebot is er zo eentje. Op papier klinkt het streng, maar nieuwe data uit echte websites laat iets anders zien: voor het overgrote deel van de sites is 2 MB aan HTML ruim voldoende. En als je toch twijfelt, zijn er inmiddels simpele tools om het even te checken.

Wat Google precies binnenhaalt

Als we het hebben over die 2 MB limiet, gaat het om de rauwe HTML die Googlebot downloadt. Dus het markup bestand zelf, niet de JavaScript en CSS bestanden waarnaar je vanuit de HTML linkt.

Rauwe HTML is in de basis gewoon tekst. Om een tekstbestand richting 2 MB te krijgen heb je grofweg meer dan twee miljoen tekens nodig. Dat gebeurt niet zomaar, tenzij er echt veel code in het document wordt gepropt.

HTTPArchive legt ook helder uit wat ze meten met “HTML bytes” (bron: https://almanac.httparchive.org/en/2025/page-weight#html-bytes). Het gaat om alle markup, inclusief dingen die vaak onschuldig lijken maar snel kunnen opstapelen, zoals inline scripts in script tags en inline styling. Dat zijn precies de onderdelen die de HTML zwaar kunnen maken, zonder dat je dat als marketeer direct doorhebt.

De cijfers: 2 MB is in de praktijk heel ruim

De nieuwste HTTPArchive cijfers zijn nuchter en eerlijk tegelijk. De mediaan van rauwe HTML komt uit op 33 kilobyte. Zelfs bij de 90e percentiel, dus de zwaardere pagina’s, zit je rond 155 kilobyte. Met andere woorden: bij ongeveer 90 procent van de websites blijft de HTML onder of rond die 155 kilobyte.

Pas bij de 100e percentiel gaat het mis, en dat is meteen ook de reden waarom dit onderwerp af en toe weer opduikt. Daar zie je een explosie naar extreem grote documenten. Dat zijn uitzonderingen, geen normale sites.

HTTPArchive benoemt daarbij dat het lang vrij gelijk blijft tussen apparaten en dat het verschil pas echt zichtbaar wordt bij de absolute uitschieters. In hun data kwam desktop op de 100e percentiel uit op 401,6 MB en mobiel op 389,2 MB. Dat zijn geen pagina’s waar een normaal bedrijf dagelijks mee werkt. Dat is het soort situatie dat je meestal alleen ziet bij ernstige fouten, misconfiguraties of systemen die per ongeluk enorme hoeveelheden data in de HTML stoppen.

Homepage versus onderliggende pagina’s: meestal nauwelijks verschil

Wat ik zelf interessant vind is dat de data niet alleen naar homepages kijkt, maar ook naar inner pages. Je zou verwachten dat product pagina’s, categoriepagina’s of bijvoorbeeld landingspagina’s zwaarder zijn, omdat er meer content, filters en elementen op staan.

Toch is het verschil in HTML grootte volgens HTTPArchive meestal klein. Pas vanaf de 75e percentiel zie je dat inner pages wat zwaarder worden dan homepages. En opnieuw geldt: bij de 100e percentiel wordt het pas echt extreem.

Daar laten de cijfers zien hoe gek het kan worden als iets ontspoort. Inner pages tikken dan 624,4 MB aan, wat 375 procent groter is dan de homepage op 166,5 MB. Als je dit soort getallen ziet, is het geen “SEO detail” meer. Dan is er bijna altijd een technisch probleem dat je ook buiten SEO om wilt oplossen, simpelweg omdat het voor gebruikers en onderhoud ook niet gezond is.

Mobiel en desktop zijn verrassend vergelijkbaar

Nog een patroon uit het rapport: de HTML grootte tussen mobiel en desktop ligt opvallend dicht bij elkaar. Dat suggereert dat veel sites in de praktijk dezelfde pagina aan beide groepen serveren.

HTTPArchive merkt daarbij op dat dit onderhoud technisch prettig is voor developers, omdat je niet twee compleet losse versies hoeft te beheren. De keerzijde is dat je soms elementen voor beide varianten in dezelfde HTML meeneemt, waardoor de totale paginagewicht kan toenemen.

De geruststelling is dat dit in de echte wereld bijna nooit in de buurt komt van 2 MB. Zelfs als je wat “dubbele” markup mee serveert, blijf je bij normale websites ver onder die grens. Daarom zeg ik ook tegen klanten: maak je eerst druk om de dingen die echt rendement opleveren, zoals content die aansluit op zoekintentie, goede interne structuur en pagina’s die snel en stabiel laden. De HTML limiet is zelden de bottleneck.

Tame the Bots: zien wat Google nog meekrijgt tot 2 MB

Voor de kleine groep extreme uitschieters is er een praktische update geweest bij Tame the Bots. Dave Smart heeft hun Fetch and Render tool (https://tamethebots.com/tools/fetch-render) aangepast zodat die stopt met crawlen zodra de 2 MB limiet is bereikt. Daarmee simuleert de tool waar Googlebot zou afhaken.

Smart zei er zelf bij dat dit in de praktijk bijna nooit een echt probleem is, waarschijnlijk voor 99,99 procent van de sites niet, maar dat hij het toch heeft toegevoegd om het gedrag te kunnen nabootsen (bron: https://bsky.app/profile/tamethebots.com/post/3me6sikpri22c).

Belangrijk detail: deze tool laat je vooral zien hoe een pagina er voor Google uit kan zien als de crawl wordt afgekapt op 2 MB HTML. Het vertelt je niet automatisch of je erboven zit, en ook niet hoeveel je HTML exact weegt. Daar heb je weer andere hulpmiddelen voor nodig.

Snel checken wat je pagina weegt

Als je vooral rust wilt, of je wilt iets kunnen laten zien aan een collega of klant, dan is het handig om de paginagrootte even te meten.

Toolsaday heeft een eenvoudige web page size checker waarmee je één URL per keer test (https://toolsaday.com/seo/web-page-size-checker). Het doet precies wat je verwacht en juist dat maakt het prettig: je krijgt snel een indicatie in kilobytes.

Small SEO Tools heeft een vergelijkbare checker, met als praktisch verschil dat je tot tien URL’s tegelijk kunt testen (https://smallseotools.com/website-page-size-checker/). Handig als je bijvoorbeeld een set belangrijke templates wilt nalopen, zoals homepage, categorie, product en een paar contentpagina’s.

Mijn advies is om dit soort tools te gebruiken als controlemoment, niet als nieuwe bron van stress. Als je ziet dat je HTML in de orde van tientallen of enkele honderden kilobytes zit, dan zit je gewoon goed.

De conclusie: zet dit lager op je SEO lijstje

De 2 MB crawl limiet van Googlebot klinkt spannend, maar de data uit echte websites laat zien dat het voor de meeste bedrijven in Nederland geen punt is. De mediaan van 33 KB en zelfs de 90e percentiel rond 155 KB zeggen genoeg.

Kom je toch in de buurt van die grens, dan is dat meestal een symptoom van iets dat dieper zit, zoals veel te veel inline scripts, een template die blijft groeien, of een systeem dat per ongeluk enorme brokken data in de markup plakt. Dan is het verstandig om het technisch op te lossen, niet omdat het “van SEO moet”, maar omdat het je site en je organisatie uiteindelijk minder kwetsbaar maakt.

Wil je zekerheid, test een paar kernpagina’s met een van de tools hierboven. En als je niets geks ziet, streep dit onderwerp dan met een gerust hart weg en besteed je aandacht aan de zaken die wel structureel verschil maken.

Neem contact op

Eerlijkheid staat voorop in mijn werk. Daarom zeg ik direct: ik ben niet de juiste partner voor jou als. Ik help je om jouw merk te transformeren van een fluistering naar een brul die niemand kan negeren.

Ik ben niet gebouwd om mee te doen, ik ben ontworpen om te domineren.

Contact Us