
AI is inmiddels een vast onderdeel van zoekmachinewerk, contentproductie en analyses. Ik zie teams er sneller mee werken, maar ik zie ook dezelfde valkuil steeds terugkomen: een model dat iets met veel overtuiging opschrijft, terwijl het simpelweg niet klopt. Dat voelt als ‘hallucineren’, maar in de praktijk is het vaak een voorspelbare reactie op vage instructies. Het goede nieuws is dat je dit grotendeels kunt voorkomen. Niet door nóg mooier te formuleren, maar door vooraf regels af te spreken. Dat doe je met een rubric.
Waarom AI ‘hallucineert’ meestal jouw schuld is
Als je een model vraagt om een ‘koekjesrecept’ en je laat het daarbij, dan vraag je eigenlijk om gokken. Zonder allergieën, dieetwensen, tijd, oven, doelgroep of context kan alles eruit komen. Kerstkoekjes in juli, een recept met pinda’s terwijl je collega allergisch is, of iets zó veilig en saai dat niemand het wil bakken.
Dat is precies wat er in marketing en SEO ook gebeurt. Je vraagt om een analyse, een strategie of een tekst, maar je levert geen grenzen, geen bronnen en geen regels over wat het model moet doen als informatie ontbreekt. Dan doet het wat het beste kan: een vloeiend verhaal maken dat logisch klinkt. Alleen, logisch is niet hetzelfde als waar.
Vloeiendheid wint het vaak van terughoudendheid
Een model is gebouwd om door te praten. Als je vraagt om een ‘complete’ output en je zegt niet wat het moet doen bij onzekerheid, dan kiest het meestal voor vloeiendheid. Het antwoord loopt door, zinnen sluiten mooi op elkaar aan, en het klinkt alsof iemand het zeker weet.
Terughoudendheid is voor een model geen standaard stoplicht. Het is een regel die jij expliciet moet zetten. Zonder die regel gaat het invullen, afronden en aannemen. Precies daar ontstaan de verzonnen citaten, de niet bestaande cijfers en de neppe voorbeelden die je later duur komen te staan.
De rekening van een fout gaat verder dan tijdverlies
Als een AI tekst intern blijft, is de schade vaak beperkt tot extra correctiewerk. Maar zodra output in een rapport, een offerte of een publicatie terechtkomt, verandert het spel.
In 2025 moest Deloitte volgens berichtgeving van Associated Press 440.000 Australische dollar terugbetalen nadat in een door AI ondersteund overheidsrapport fouten werden gevonden, waaronder gefabriceerde citaties en een verkeerd toegeschreven uitspraak. Een reviewer beschreef dat er een zaak verkeerd werd geciteerd en dat er vervolgens een quote van een rechter werd verzonnen. Dat raakt vertrouwen en reputatie, en het kost geld.
De les is niet dat je AI uit je processen moet bannen. Juist analyse en rapportage zijn taken waar het veel kan betekenen. Alleen moet je het begrenzen, net zoals je een junior collega niet zonder checklist een klantpresentatie laat maken.
Wat een rubric is en waarom het wél werkt
Veel teams proberen hallucinaties te voorkomen met algemene zinnen als ‘wees accuraat’ of ‘gebruik alleen betrouwbare bronnen’. Dat klinkt netjes, maar het is te vaag. Het beschrijft een gewenste uitkomst, geen besluitvorming.
Een rubric is in de basis een beoordelingskader. Denk aan hoe docenten vroeger werk beoordeelden met criteria als ‘voldoende onderbouwing’ en ‘heldere structuur’. In AI gebruik je datzelfde idee, maar met een ander doel: niet achteraf beoordelen, maar tijdens het genereren sturen.
Je geeft het model concrete grenzen. Wat is verplicht, wat mag alleen als het is aangeleverd, wat is verboden, en wat moet het doen als het niet aan de voorwaarden kan voldoen. Daarmee haal je het gokken uit het proces.
Waarom ‘betere prompts’ alleen het probleem niet oplost
Specifieker prompten helpt vaak voor toon en vorm. Je kunt een structuur vragen, een doelgroep noemen of een lengte aangeven. Dat maakt de output prettiger leesbaar.
Maar het pakt de kern niet aan: de momenten waarop informatie ontbreekt. Veel prompts vragen om resultaten, terwijl ze geen regels geven. Zinnen als ‘citeer bronnen’ laten open welke bronnen bedoeld zijn, hoe streng je moet zijn, en wat er gebeurt als er geen bron is.
Daar komt nog iets bij. Lange prompts met veel eisen zorgen voor botsende doelen. Je vraagt om snel, volledig, duidelijk én zelfverzekerd. Als er geen rangorde is, kiest het model vaak voor een afgerond verhaal. En dat is precies waar feitelijkheid kan sneuvelen.
Wat rubrics doen wat prompts niet kunnen
Een prompt zegt wat je wilt. Een rubric zegt hoe het model beslissingen moet nemen onderweg.
In praktijk betekent dit dat je onzekerheid een vaste plek geeft. Als data ontbreekt, moet het model dat benoemen. Als iets slechts een aanname kan zijn, moet het dat labelen. Als er geen basis is om een claim te doen, moet het stoppen of terugschakelen naar een gedeeltelijk antwoord.
Rubrics werken vooral goed omdat ze grenzen scherp maken. Het model hoeft minder te raden wat ‘acceptabel’ is. Je zet prioriteiten, bijvoorbeeld dat feitelijke juistheid belangrijker is dan volledigheid. En je spreekt failure gedrag af, dus wat er gebeurt als succes niet mogelijk is. Dat klinkt streng, maar het is vooral beschermend.
De bouwstenen van een goede AI rubric
Je hoeft geen pagina’s vol regels te schrijven. Te veel details zorgen juist voor verwarring, net zoals een recept kan mislukken als je twintig smaken tegelijk wilt.
Wat je wel nodig hebt, is een klein setje regels die je echt kunt handhaven. In mijn ervaring zijn dit de onderdelen die het verschil maken.
Je begint met nauwkeurigheidseisen. Wat moet onderbouwd zijn, wat telt als bewijs, en wanneer is ‘ongeveer’ niet oké. Daarna komen bronverwachtingen. Moet het model alleen werken met informatie die jij aanlevert, of mag het algemene kennis gebruiken, en hoe ga je om met tegenstrijdigheden.
Vervolgens maak je onzekerheid expliciet. Schrijf op wat het model moet doen bij ontbrekende, onduidelijke of incomplete input. Voeg ook toonregels toe, zodat het niet met zekerheid praat over iets wat eigenlijk een gok is.
Tot slot, en die wordt vaak vergeten, definieer je het failure gedrag. Mag het een deelantwoord geven. Mag het vragen om extra input. Mag het weigeren. Dat is geen zwakte, dat is volwassen gedrag.
Voorbeeld: concurrentieanalyse zonder verzonnen SEO feiten
Stel, je team vraagt: waarom rankt concurrent X boven ons op een onderwerp, en wat moeten we aanpassen. Een klassieke prompt is dan iets als:
‘Evalueer waarom concurrent X ons verslaat op onderwerp Y. Noem de zoekwoorden waarop ze scoren, de SERP features die ze winnen en adviseer een contentaanpak.’
Dat lijkt logisch, maar je geeft geen data mee. Geen Search Console, geen ranking export, geen SERP screenshots, geen contentinventaris. Dus als het model tóch moet ‘noemen’ welke zoekwoorden en features er zijn, gaat het invullen.
Met een rubric zet je het recht.
Taak: ‘Analyseer waarom concurrent X mogelijk beter presteert dan wij op onderwerp Y. Geef inzichten en aanbevelingen.’
Rubric: ‘Doe geen uitspraken over rankings, verkeer, SERP features of linkprofielen tenzij die gegevens in de input staan. Als data ontbreekt, benoem wat je niet kunt bepalen en welke input nodig is. Formuleer adviezen als voorwaardelijk wanneer bewijs ontbreekt. Gebruik geen stellige taal zonder onderbouwing. Als een betrouwbare analyse niet kan, geef een deelantwoord en vraag om de ontbrekende gegevens, in plaats van te gokken.’
Je merkt wat er gebeurt. Je houdt AI in de flow, maar je voorkomt dat het met een mooi verhaal gaten dichtplamuurt.
Zo werken prompts en rubrics samen in je workflow
Een rubric vervangt je prompt niet. Het is de stabilisator erachter.
De prompt blijft verantwoordelijk voor de opdracht. Wat moet er worden samengevat, vergeleken of geschreven. De rubric bepaalt de spelregels.
Handig is dat je prompts vaak wisselen per onderwerp, maar dat je rubric redelijk gelijk kan blijven per type taak. Voor SEO analyses blijft dezelfde discipline gelden: geen cijfers zonder input, benoem onzekerheid, en vraag om data. Voor content geldt hetzelfde: geen medische claims zonder bron, geen beloftes die je niet kunt waarmaken, en altijd aangeven wanneer iets een suggestie is.
Je kunt rubrics simpelweg onder je prompt plakken. In grotere teams kun je ze ook als template gebruiken, of als vaste instructie in een tool. De vorm maakt minder uit dan de helderheid.
Voorkom overengineering: houd het klein en scherp
Een valkuil is dat je alles wilt afdekken. Dan krijg je een rubric die zo lang is dat niemand hem nog leest, inclusief het model.
Een andere fout is tegenstrijdige eisen. Je wilt tegelijk volledig en kort, stellig en voorzichtig, creatief en alleen gebaseerd op bronnen. Dat kan, maar dan moet je zeggen wat voorgaat als het botst. Als je dat niet doet, kiest het model weer zelf.
Mijn richtlijn is simpel. Schrijf alleen regels die je echt belangrijk vindt en die je kunt controleren. Zet ze in volgorde. En maak failure gedrag altijd expliciet. Dan blijft het werkbaar, ook als je team groeit.
Rubric based prompting: zo werk je met AI als een volwassene
Goed prompten gaat niet over slimme zinnen. Het gaat over vooruitdenken waar AI gedwongen wordt te raden, en daar grenzen zetten.
Als je rubrics gebruikt, geef je het model toestemming om te vertragen, nuance aan te brengen of te stoppen. Dat voelt soms alsof je minder krijgt, maar in de praktijk krijg je juist meer: minder herstelwerk, minder risico en meer vertrouwen in wat er wél staat.
Wil je dit morgen al toepassen, kies dan één workflow, bijvoorbeeld een SEO audit, een contentbriefing of een kwartaalrapport. Voeg een korte rubric toe met bronregels, onzekerheidsregels en failure gedrag. Daarna ga je pas finetunen. Zo maak je AI een hulpmiddel waar je op kunt bouwen, in plaats van een snelle route naar gedoe.