SEO Pulse februari 2026: Discover krijgt eigen update, AI Mode krijgt advertenties en bots vragen om duidelijke keuzes

Home
/
bloggen

Er zijn van die weken waarin je voelt dat het speelveld weer een stukje verschuift. Niet omdat “SEO dood is”, maar omdat Google steeds meer producten naast elkaar zet die elk hun eigen regels krijgen. Deze week ging het over Discover, AI Mode, crawlgedrag en wat AI systemen blijkbaar het liefst citeren. Als je in Nederland een site runt die moet groeien, wil je hier rustig en nuchter op reageren, zonder paniek, maar ook zonder wegkijken.

Discover heeft nu zijn eigen core update

Google heeft de core update van februari 2026 gelanceerd, maar dit keer gericht op Discover in plaats van op de normale zoekresultaten. De uitrol kan tot twee weken duren.

Het valt op dat dit eerst alleen geldt voor Engelstalige gebruikers in de Verenigde Staten. Google zegt wel dat uitbreiding naar meer landen en talen komt, maar zonder datum. De officiële reden is herkenbaar: het moet de kwaliteit van Discover verbeteren.

Het praktische gevolg is groter dan het klinkt. Voorheen liepen Discover veranderingen vaak mee met een bredere core update. Nu kan je zichtbaarheid in de feed schuiven, terwijl je posities in Search vrijwel gelijk blijven. Als je in Search Console alleen naar het totale Google verkeer kijkt, trek je al snel de verkeerde conclusie.

Mijn advies voor de komende twee weken is simpel: kijk in Search Console apart naar Discover en naar Search. Zie je een dip, behandel het dan eerst als een Discover probleem, niet als een algemene SEO afstraffing. Vooral bij publishers en contentgedreven sites kan dit hard aankomen. NewzDash CEO John Shehata deelde dat Discover bij nieuwssites rond de 68 procent van het Google verkeer kan zijn. Dan wil je geen diagnose stellen op basis van het verkeerde dashboard.

Lees meer: https://www.searchenginejournal.com/google-releases-discover-focused-core-update/566647/

Alphabet laat zien hoe AI Mode geld gaat verdienen

Alphabet publiceerde de Q4 2025 cijfers en Search omzet groeide met 17 procent naar 63 miljard dollar. Interessant, maar nog interessanter is wat ze tussen de regels door vertellen over AI Mode.

CEO Sundar Pichai zei dat vragen in AI Mode gemiddeld drie keer langer zijn dan traditionele zoekopdrachten. CBO Philipp Schindler noemde dat een kans om advertentieruimte te creëren op queries die eerder lastig te monetizen waren. Google test nu advertenties onder de AI Mode antwoorden.

Voor SEA teams betekent dit: er komt een nieuw type zoekgedrag bij, met langere, meer conversationele vragen. Dat vraagt niet alleen andere zoekwoorden, maar ook andere advertentieteksten en landingspagina’s. Je gaat minder winnen met de standaard set van korte, commerciële termen.

Voor SEO en contentteams zit de spanning ergens anders. Google viert hier vooral dat mensen langer in Google blijven. Hoe langer de sessie daar, hoe minder vanzelfsprekend de klik naar jouw site wordt. AI Mode vormt bovendien een vloeiende route vanuit AI Overviews, waar vorige week al over geschreven werd.

Mijn nuchtere kijk hierop: stuur op wat je kunt meten. Let op veranderingen in doorklik, branded search en vooral op het aandeel verkeer dat nog echt naar je domein komt. Als je business afhankelijk is van organisch bereik, dan moet je weten welke delen straks “in Google blijven hangen” en waar je nog wél bezoek uit krijgt.

Lees meer: https://www.searchenginejournal.com/google-search-hits-63b-details-ai-mode-ad-tests/566613/ en context over AI Overviews: https://www.searchenginejournal.com/google-ai-overviews-now-powered-by-gemini-3/565987/

Mueller over Markdown voor LLM bots: niet slim, vooral technisch riskant

John Mueller reageerde fel op het idee om LLM crawlers geen HTML te geven, maar een kale Markdown versie van je pagina’s. Een developer wilde daarmee tokens besparen. Mueller noemde het op Bluesky letterlijk “a stupid idea” en op Reddit legde hij uit waarom het technisch wringt.

Zijn vragen zijn precies de vragen die ik in projecten ook stel: herkent zo’n bot Markdown op je website als een normale webpagina of ziet hij het als een tekstbestand. En als het een tekstbestand is, volgt hij dan links, begrijpt hij de structuur, en wat gebeurt er met interne navigatie, koppen, context en relaties tussen pagina’s.

De kern is: je haalt vaak juist de signalen weg die systemen nodig hebben om je site te begrijpen. Wat voelt als “lichter” kan in de praktijk betekenen dat je context, hiërarchie en interne linking sloopt. Dat is niet alleen een SEO punt, het raakt ook je gebruikerservaring als je meerdere varianten gaat serveren.

Mueller is hier consistent in. Hij trok eerder al een parallel tussen llms.txt en de keywords meta tag, en onderzoek van SE Ranking op 300.000 domeinen vond geen duidelijke link tussen llms.txt en meer AI citaties. Met andere woorden: ga niet rommelen aan je output omdat het als een snel trucje klinkt.

Als je iets wilt verbeteren voor crawlers, begin dan met de basics: nette HTML, goede structuur, duidelijke interne links, en een site die snel en betrouwbaar antwoordt.

Lees meer: https://www.searchenginejournal.com/googles-mueller-calls-markdown-for-bots-idea-a-stupid-idea/566598/ en over llms.txt: https://www.searchenginejournal.com/google-says-llms-txt-comparable-to-keywords-meta-tag/544804/ en het onderzoek: https://www.searchenginejournal.com/llms-txt-shows-no-clear-effect-on-ai-citations-based-on-300k-domains/561542/

Google meldt crawl problemen bij WooCommerce plugins en dat zegt genoeg

In de podcast Search Off the Record vertelde het Search Relations team dat ze bugs hebben ingediend tegen WordPress plugins, onder andere bij WooCommerce. Reden: sommige plugins maken onnodig veel crawlbare URL’s aan via actie parameters, denk aan add to cart links.

Googlebot ontdekt die URL’s en probeert ze te crawlen, terwijl ze geen zoekwaarde hebben. Dat kost crawlbudget en kan ervoor zorgen dat belangrijke pagina’s later of minder vaak opgepakt worden.

Wat ik hier opvallend aan vind, is dat Google dit upstream probeert op te lossen. Normaal ligt de verantwoordelijkheid bij het individuele domein. Als Google pluginbouwers aanspreekt, is het probleem waarschijnlijk groot en wijdverspreid.

Run je een webshop op WooCommerce, pak dit dan praktisch aan. Kijk in Search Console bij crawlstatistieken en in je logs of je veel URL’s ziet met cart, checkout, add to cart of andere parameters die niet bedoeld zijn om te indexeren. Check ook je plugins: welke genereren dit, en kun je het beperken met instellingen, canonical tags, noindex of het blokkeren van bepaalde parameters.

Lees meer: https://www.searchenginejournal.com/googles-crawl-team-filed-bugs-against-wordpress-plugins/566491/ en de transcript: https://search-off-the-record.libsyn.com/crawling-challenges-what-the-2025-year-end-report-tells-us-transcript

LinkedIn testte AI zichtbaarheid en kwam uit op ouderwetse content hygiëne

LinkedIn deelde resultaten van interne tests over wat helpt om zichtbaar te worden in AI gegenereerde zoekresultaten. Ze zagen in een subset van B2B onderwerpen dat niet merkgedreven traffic in de markt tot 60 procent kan dalen.

Wat werkte volgens hun tests, is opvallend herkenbaar. Pagina’s met structuur deden het beter in AI citaties, zeker als er een named author staat, zichtbare credentials, en een duidelijke publicatiedatum. LinkedIn werkt ook aan analytics om LLM verkeer beter te herkennen en wil gedrag van LLM bots in CMS logs kunnen volgen.

Wat mij geruststelt, is dat dit aansluit op wat AI platforms zelf zeggen. In een interview met Jesse Dwyer van Perplexity kwamen vergelijkbare aanwijzingen naar voren over waarom bronnen wel of niet geciteerd worden. Als zowel de citerende partij als de bronhouder dezelfde richting aanwijst, dan is dat een stuk bruikbaarder dan losse meningen.

Voor Nederlandse bedrijven betekent dit: besteed aandacht aan auteurschap, actualiteit en transparantie. Niet omdat het een truc is, maar omdat het je merk en je betrouwbaarheid ondersteunt. Daar win je op lange termijn altijd mee, ook buiten AI om.

Lees meer: https://www.searchenginejournal.com/linkedin-shares-what-works-for-ai-search-visibility/566385/ en de LinkedIn publicatie: https://www.linkedin.com/business/marketing/blog/content-marketing/how-linkedin-marketing-is-adapting-to-ai-led-discovery en het Perplexity interview: https://www.searchenginejournal.com/perplexity-ai-interview-explains-how-ai-search-works/565395/

Thema van de week: Google splitst je dashboard op

Als je alles van deze week bij elkaar legt, zie je één patroon. “Google” is niet langer één kanaal dat je met één grafiek kunt volgen.

Discover krijgt een eigen core update cyclus. AI Mode krijgt advertenties en functies die in de klassieke resultaten niet bestaan. Mueller trekt een lijn in wat bots technisch gezien nog “normaal web” vinden. Google grijpt zelfs in bij plugins om crawlproblemen te beperken. En LinkedIn bouwt aan aparte meting voor LLM gedreven bezoeken.

Een jaar geleden kon je in Search Console kijken naar organisch verkeer en dat als redelijke thermometer gebruiken. Nu valt het uiteen in Search, Discover, AI Mode en zelfs zichtbaarheid via externe AI systemen.

Wat je nu helpt, is een rustige herinrichting van je meting. Zorg dat Discover als apart kanaal terugkomt in je reporting. Kijk bij contentprestaties niet alleen naar posities, maar ook naar doorklik en merkzoekvolume. En als je een serieus e commerce platform runt, ga dan logdata en crawlgedrag serieuzer nemen dan vroeger, want verspild crawlbudget is zonde van tijd en omzet.

Het doel is niet om elke nieuwe feature achterna te rennen. Het doel is om te weten waar je groei vandaan komt, waar die weglekt, en welke knoppen je echt hebt.

Wat ik deze week verder zou bewaren

Als je nog wat extra context wilt, dan zijn dit stukken die ik zelf zou opslaan voor later. SparkToro liet zien hoe wisselvallig AI merk aanbevelingen zijn, in meer dan 99 procent van de gevallen verandert de uitkomst per query: https://www.searchenginejournal.com/ai-recommendations-change-with-nearly-every-query-sparktoro/566242/. Google onderzoekt daarnaast nieuwe controles om AI zoekfuncties te kunnen uitsluiten: https://www.searchenginejournal.com/google-may-let-sites-opt-out-of-ai-search-features/566065/. En Gemini 3 is nu de motor achter AI Overviews met een soepele route richting AI Mode: https://www.searchenginejournal.com/google-ai-overviews-now-powered-by-gemini-3/565987/.

Zie het als signalen van dezelfde beweging. Meer AI in de interface, meer varianten van traffic, en dus meer redenen om je meetpunten scherp te houden.

Neem contact op

Eerlijkheid staat voorop in mijn werk. Daarom zeg ik direct: ik ben niet de juiste partner voor jou als. Ik help je om jouw merk te transformeren van een fluistering naar een brul die niemand kan negeren.

Ik ben niet gebouwd om mee te doen, ik ben ontworpen om te domineren.

Contact Us