
Ik merk dat veel ondernemers nu vooral kijken naar AI zoekmachines alsof het een compleet nieuw spel is. Begrijpelijk, maar er zit een risico in: je gaat dan jagen op trucjes, terwijl de basis nog steeds gewone Google resultaten zijn. Google publiceerde eind januari een paper over SAGE, een methode om AI agents te trainen op echt diep zoekwerk. Als je goed leest wat er mis kan gaan in zo’n deep research, zie je meteen waar kansen liggen voor content die wél gevonden en gebruikt wordt.
Wat SAGE eigenlijk is en waarom dit jou raakt
SAGE staat voor Steerable Agentic Data Generation for Deep Search with Execution Feedback. Dat klinkt zwaarder dan het is.
Het probleem dat Google onderzoekt is simpel: als je een AI agent leert zoeken met te makkelijke oefenvragen, dan presteert hij prima in het lab, maar struikelt hij in de echte wereld. En precies dat is de wereld waarin jouw klanten zoeken. Zeker in B2B, e commerce en alles waar beslissingen geld kosten.
In de paper bouwen de onderzoekers daarom een systeem dat automatisch moeilijke vraag antwoord paren maakt, zodat AI agents leren doorzetten, twijfelen, bijsturen en meerdere bronnen combineren. Niet één zoekopdracht, klaar. Maar meerdere stappen met controle onderweg.
Als je content maakt, is dit interessant om een andere reden: de onderzoekers ontdekten óók welke “shortcuts” ervoor zorgen dat deep research ineens niet meer nodig is. En in SEO termen is dat vaak precies wat je wil zijn: de pagina die het probleem afkapt, zodat de agent niet verder hoeft te hoppen naar een concurrent.
Waarom bestaande trainingssets te oppervlakkig waren
De onderzoekers vergelijken SAGE met bestaande datasets die veel gebruikt worden om zoek en redeneer agents te trainen. Denk aan Musique, HotpotQA en Natural Questions.
Hun observatie: die oudere sets vragen meestal maximaal vier redeneringsstappen. Ook het aantal zoekopdrachten per vraag ligt laag. Musique zit gemiddeld op 2,7 searches per vraag, HotpotQA op 2,1 en Natural Questions zelfs op 1,3.
Dat lijkt prima, tot je beseft wat er ontbreekt. In de praktijk zijn er genoeg vragen waarbij je als mens ook niet in één keer het antwoord vindt. Je moet eerst een begrip controleren, dan een voorwaarde, dan een bron, dan een berekening, en pas daarna kun je iets zinnigs concluderen.
Als je AI agents daarop wil trainen, heb je dus trainingsdata nodig die dat gedrag uitlokt. Anders ontstaat er een gat tussen wat agents geleerd hebben en wat ze echt moeten kunnen.
Hoe het dual agent systeem van SAGE werkt
SAGE gebruikt twee agents.
De eerste agent is de “question writer”. Die probeert juist een vraag te maken die lastig is, die meerdere stappen vraagt en die meerdere zoekopdrachten nodig heeft.
De tweede agent is de “search agent”. Die gaat de vraag oplossen met zoeken, lezen en redeneren. Daarna geeft hij feedback terug: was de vraag eigenlijk wel te doen, en hoeveel zoekstappen waren minimaal nodig.
De slimme draai zit in de execution trace, het spoor van wat de search agent precies deed. Dus welke zoekopdrachten hij uitvoerde, welke documenten hij pakte en op welk moment hij het antwoord vond of miste.
Als de search agent de vraag te snel oplost of juist faalt omdat er een vreemde shortcut in zit, gaat die trace terug naar de vraag maker. Zo leert het systeem de volgende ronde vragen beter “sturen” richting echte diepgang.
Voor jou als marketeer is dit geen technisch detail. Dit is precies hoe agentic search in de praktijk werkt: een reeks zoekstappen, steeds weer gevoed door wat er net gevonden is. Jouw pagina kan in dat proces een tussenstation zijn, maar je wil liever het eindstation zijn.
Vier shortcuts waardoor deep research opeens niet meer nodig is
De feedbackloops lieten vier patronen zien die deep research kortsloten. In training is dat een probleem, want je wil juist moeilijke cases. In het echte web is het de realiteit. En het is nuttige informatie, omdat het je laat zien hoe een agent “lui” mag zijn als de SERP en de content het toelaten.
Eén: information co location (35 procent). Meerdere stukjes informatie die nodig zijn om een vraag te beantwoorden staan in hetzelfde document. Daardoor hoeft de agent niet twee of drie pagina’s te bezoeken. Hij vindt alles in één hop.
Twee: multi query collapse (21 procent). Een slimme zoekopdracht levert in één keer genoeg informatie op uit meerdere documenten om meerdere deelvragen te beantwoorden. Wat bedoeld was als een meerstaps proces, valt samen tot één stap.
Drie: superficial complexity (13 procent). De vraag lijkt voor mensen lang en ingewikkeld, maar de zoekmachine kan direct doorschieten naar het antwoord. Er is weinig echte redenering nodig.
Vier: overly specific questions (31 procent). De vraag is zo gedetailleerd dat het antwoord in de eerste zoekopdracht al te herkennen is. Dan is diep zoeken niet meer nodig.
Wat ik hier belangrijk aan vind: “moeilijk” is vaak een gevoel. Voor een agent telt vooral of het web ergens een pagina heeft die de keten breekt.
Wat je hiervan meeneemt voor content en SEO
Als je dit doorvertaalt naar content, dan zie je een paar nuchtere lessen. Niet als truc, maar als richting.
Bij information co location wint vaak de meest complete pagina. Niet omdat hij lang is, maar omdat hij de losse feiten bij elkaar zet. Als jouw bezoeker drie dingen moet weten om te besluiten, en jij geeft er twee maar niet de derde, dan dwing je een volgende stap af. Voor een mens is dat irritant. Voor een agent is het een signaal om door te zoeken.
Multi query collapse draait om het beantwoorden van meerdere deelvragen in één pagina. Niet met een rommelige alles op een hoop tekst, maar met structuur. Denk aan duidelijke tussenkoppen die precies de vragen afvangen die mensen ook echt stellen. Een agent die met één query jouw pagina raakt, kan dan meteen meerdere stukjes ophalen.
Superficial complexity is een waarschuwing voor lange teksten die vooral complex ogen. Als het antwoord in één snippet of één duidelijke bron te vinden is, dan ga je het niet winnen met extra woorden. Dan win je met helderheid, bronvermelding en snelle vindbaarheid in je tekst.
En overly specific questions laat zien dat details soms juist de route verkorten. In SEO termen: specifieke data, namen, jaartallen, berekeningen en definities kunnen precies die ontbrekende schakel zijn waardoor een agent stopt met zoeken. In training noemen ze dat een shortcut. In contentmarketing noem ik het gewoon goed werk leveren.
De praktische vertaling: wees de pagina waar het onderzoek eindigt
Als ik dit toepas op Nederlandse mkb bedrijven, dan kom ik steeds op dezelfde afweging: bundelen waar het helpt, splitsen waar het duidelijker wordt.
Je hoeft niet alles in één pagina te proppen. Soms is het beter om een hoofdartikel te maken dat het onderwerp uitlegt en vervolgens gericht doorlinkt naar subpagina’s met verdieping. Het verschil zit hem in de ervaring.
Voor de lezer wil je overzicht, context en een volgende stap. Voor een agent wil je ook dat de relevante feiten makkelijk te pakken zijn. Dat lukt vaak met een heldere opbouw. Begin met wat het is en voor wie het geldt, geef daarna de belangrijkste keuzes en voorwaarden, en eindig met concrete voorbeelden of rekenregels.
In e commerce zie je dit bijvoorbeeld bij verzendkosten, levertijden, retourvoorwaarden en garantie. Als die informatie verspreid staat, kost het zowel klanten als agents extra stappen. Als je het netjes bij elkaar zet, krijg je minder ruis in je funnel en minder “hops” in het zoekproces.
Mijn advies is daarom bijna saai, maar het werkt: kijk bij je belangrijkste pagina’s welke vragen mensen eerst stellen voordat ze kopen of contact opnemen, en zorg dat die antwoorden niet verspreid zijn over vijf losse blogs zonder samenhang.
Waarom klassiek zoeken nog steeds het fundament blijft
In dit onderzoek gebruikt de search agent klassieke zoekresultaten. Voor elke query pakt hij de top drie resultaten en haalt daar informatie uit. De paper zegt niet dat dit precies één op één is hoe elk live systeem werkt, maar het is wél een realistische aanname.
Dat betekent voor je aanpak iets heel simpels: je hoeft niet te schrijven voor een AI, je moet schrijven voor zoekers en voor Google’s normale rankingmechanisme. Als jij niet in de buurt van die topresultaten komt, krijg je ook in agentic zoekflows minder kansen om überhaupt geciteerd of gebruikt te worden.
Daarom kijk ik liever naar twee doelen tegelijk. Het eerste is goed ranken op je kernonderwerpen, idealiter in de top drie. Het tweede is zorgen dat je interne linkstructuur logisch genoeg is dat ook je verdiepingspagina’s kans maken om hoog te komen. Want in multi hop trajecten wordt vaak een subonderwerp apart opgezocht.
Je hoeft niet te gokken hoe AI gaat “denken”. Je moet zorgen dat je pagina’s in het klassieke zoekspel al sterk staan, en dat je content de shortcuts mogelijk maakt die agents van nature nemen.
Wat je morgen al kunt doen zonder alles om te gooien
Als je dit rustig wil doorvoeren, begin dan klein.
Pak één belangrijk thema waar je sales of leads van afhangen, bijvoorbeeld een dienst, productcategorie of veelgestelde compliance vraag. Lees je eigen content alsof je klant haast heeft. Staan alle voorwaarden, definities en cijfers bij elkaar of moet je heen en weer klikken.
Kijk daarna in Search Console op welke zoekvragen mensen binnenkomen. Vaak zie je meteen welke deelvragen ontbreken. Vul die aan op de pagina waar de beslissing valt, en gebruik interne links naar verdieping in plaats van de kern uit te smeren.
En als je twijfelt of je te breed gaat: blijf dicht bij één probleem en één doelgroep per pagina. Compleet zijn werkt alleen als het ook overzichtelijk blijft.
De paper waar dit op gebaseerd is, werd door Google gepubliceerd op 26 januari 2026 en is als PDF te lezen: https://arxiv.org/pdf/2601.18202.
Mijn punt is niet dat je nu ineens “voor agents” moet schrijven. Mijn punt is dat agents hetzelfde doen als goede klanten: ze zoeken net zo lang door tot iemand het duidelijk en volledig uitlegt. Zorg dat jij die partij bent.