Stel je voor: je draait een Google Ads campagne met een maandbudget van €5.000. Je biedstrategie staat op Target CPA, je advertentieteksten klinken goed, en de resultaten zijn... oké. Maar wat als een andere biedstrategie 25% meer conversies oplevert voor hetzelfde budget? Of als een andere kop in je advertentie je CTR verdubbelt? Zonder te testen weet je het simpelweg niet. A/B testen is de enige manier om van "goed genoeg" naar "optimaal" te gaan. In dit artikel leer je alles over A/B testen in Google Ads in 2026: welke tools je hebt, hoe je ze inzet, en hoe je de resultaten vertaalt naar betere campagneprestaties.
1. Wat is A/B testen in Google Ads?
A/B testen is het gelijktijdig draaien van twee varianten om objectief te meten welke beter presteert. In Google Ads betekent dit dat je twee versies van een element vergelijkt — denk aan advertentieteksten, biedstrategieen, landingspagina's of doelgroepen — terwijl het verkeer gecontroleerd verdeeld wordt. De ene helft van je doelgroep ziet variant A, de andere helft ziet variant B. Na genoeg data trek je conclusies op basis van harde cijfers.
Het principe klinkt simpel, maar de kracht zit in de systematische aanpak. In plaats van te gokken of "Gratis verzending" een sterkere kop is dan "Vandaag besteld, morgen in huis", laat je het verkeer beslissen. Soms zijn de resultaten verrassend: een ogenschijnlijk kleine wijziging in een beschrijving kan het verschil maken tussen een conversiepercentage van 3% en 5%. Over een maandbudget van €10.000 vertaalt dat zich naar duizenden euro's aan extra omzet.
Google Ads heeft de testmogelijkheden de afgelopen jaren flink uitgebreid. De ouderwetse methode — handmatig twee advertenties in dezelfde ad group plaatsen en hopen op nuttige data — is vervangen door Experiments. Dit is een volwaardige testomgeving die Google in 2024 verder heeft verbeterd en die inmiddels het hart vormt van elke serieuze optimalisatiestrategie. Experiments splitst verkeer gecontroleerd, houdt statistieken bij en vertelt je wanneer een resultaat betrouwbaar is. Expanded Text Ads (ETAs) zijn inmiddels volledig uitgefaseerd — je kunt ze niet meer aanmaken. Alles draait nu om Responsive Search Ads en de slimme testmogelijkheden die daarbij horen.
2. Wat kun je allemaal testen?
Veel adverteerders denken bij A/B testen alleen aan het vergelijken van twee advertentieteksten. Maar de mogelijkheden in Google Ads zijn veel breder dan dat. Hier is een compleet overzicht van alles wat je kunt testen — gerangschikt van de hoogste naar de laagste potentiele impact.
Biedstrategieen
Dit is waar de grootste winsten zitten. Twijfel je tussen Target CPA en Maximize Conversions? Of wil je weten of het verhogen van je target ROAS van 400% naar 500% je daadwerkelijk meer oplevert? Met campaign-level experiments test je twee biedstrategieen naast elkaar terwijl alle andere campagne-instellingen identiek blijven. Het verkeer wordt op cookieniveau gesplitst, waardoor elke gebruiker consistent dezelfde variant ziet. Dit is verreweg de meest impactvolle test die je kunt draaien.
Landingspagina's
De pagina waar mensen op landen na een klik heeft een enorme invloed op je conversiepercentage. Via Experiments kun je het verkeer splitsen over twee URL's: dezelfde advertentie stuurt de ene helft naar pagina A en de andere helft naar pagina B. Test variaties in je kop, formulierlengte, call-to-action positie, of zelfs een compleet ander paginadesign. Combineer dit met GA4 voor diepere inzichten in scrollgedrag en sessieduur op elke variant.
Advertentieteksten (RSA's)
Responsive Search Ads zijn in 2026 het enige advertentietype voor zoekadvertenties. Google draait automatisch combinaties van je koppen en beschrijvingen, maar dat betekent niet dat je zelf niet meer kunt testen. Je kunt bewuste tests opzetten door koppen te pinnen, Ad Variations te gebruiken, of twee RSA's met totaal verschillende invalshoeken naast elkaar te draaien. Meer hierover in hoofdstuk 4.
Doelgroepen en targeting
Test of een bredere doelgroep beter presteert dan een smalle. Vergelijk twee audience segments: leveren in-market audiences betere resultaten dan custom audiences voor jouw product? Of test het verschil tussen observation mode en targeting mode voor je doelgroepen. Dit is vooral waardevol bij campagnes met een groter budget waar je de targeting wilt verfijnen zonder te veel risico te nemen.
Performance Max asset groups
Sinds Google Experiments heeft opengesteld voor Performance Max campagnes, kun je asset groups vergelijken. Test andere afbeeldingen, koppen, beschrijvingen of doelgroepsignalen. Je kunt ook URL-expansie aan- of uitzetten om te meten of Google verkeer naar relevante pagina's stuurt.
Assets en extensies
Sitelinks, callouts, structured snippets en afbeeldingsassets hebben directe invloed op je CTR en advertentieruimte. Test verschillende combinaties: werken prijsgebaseerde callouts beter dan feature-gebaseerde? Levert een sitelink naar je prijspagina meer conversies op dan eentje naar je reviews?
3. Google Ads Experiments: stap voor stap opzetten
Experiments is de motor achter alle A/B testen in Google Ads. Het maakt een gecontroleerde kopie van je bestaande campagne, past de variabele aan die je wilt testen, en splitst het verkeer automatisch. Hieronder doorlopen we het volledige proces — van opzet tot toepassing.
Navigeer naar Experiments
Klik in het linker menu van Google Ads op "Experiments" (onder het kopje Campagnes). Klik vervolgens op het blauwe plusteken om een nieuw experiment te starten. Je ziet hier ook een overzicht van al je eerdere en lopende tests.
Kies je experimenttype
Google biedt drie hoofdtypen: Custom experiment voor het testen van campagne-instellingen zoals biedstrategieen en doelgroepen, Ad variation voor het op schaal aanpassen van advertentieteksten, en Performance Max experiment voor het testen van PMax-specifieke instellingen. Selecteer het type en kies de broncampagne.
Configureer de verkeersplit
Bepaal hoe het verkeer verdeeld wordt. De standaard is 50/50, en dat is in de meeste gevallen de beste keuze — het levert de snelste resultaten op. Kies voor een 70/30 of 80/20 split als je het risico wilt beperken bij tests met potentieel grote impact. De split is cookie-gebaseerd: elke gebruiker ziet consistent dezelfde variant gedurende de hele test.
Wijzig precies een variabele
Pas in de experimentcampagne het ene element aan dat je wilt testen. Dat kan een biedstrategie zijn, een andere doelgroep, een aangepaste advertentietekst of een andere landingspagina-URL. De gouden regel: verander slechts een ding tegelijk. Alleen dan weet je met zekerheid wat het verschil in prestaties veroorzaakt.
Stel de looptijd in en start
Kies een start- en einddatum. Plan minimaal 2 weken, bij voorkeur 4 weken, zodat je verschillende dagen en tijdstippen meeneemt. Google geeft geen betrouwbare resultaten bij te korte tests. Na afloop toont het experiment automatisch welke variant beter presteerde, inclusief een betrouwbaarheidsscore.
Pas de winnaar toe
Als het experiment een duidelijke winnaar oplevert met minimaal 95% betrouwbaarheid, klik je op "Apply experiment". De winnende instellingen worden overgenomen naar je originele campagne. Google maakt dit naadloos — er is geen downtime en je verliest geen data.
Pro tip: kies altijd cookie-gebaseerde splits
Google biedt ook de optie om verkeer op zoekwoord-niveau te splitsen, maar dat levert minder betrouwbare resultaten op. Bij cookie-gebaseerde splits krijgt elke individuele gebruiker consistent dezelfde variant te zien, ongeacht via welk zoekwoord ze binnenkomen. Dat voorkomt vertekening en maakt je testresultaten statistisch sterker.
4. A/B testen in RSA's en Performance Max
Responsive Search Ads slim testen
RSA's zijn ontworpen om zelf te optimaliseren: Google's machine learning combineert je koppen en beschrijvingen automatisch om de best presterende combinaties te vinden. Dat maakt gericht testen lastiger dan bij de oude ETAs, maar niet onmogelijk. Er zijn vier bewezen methodes om toch data-gedreven beslissingen te nemen:
- Pin-strategie voor gecontroleerde tests — Pin een specifieke kop op positie 1 in variant A (bijvoorbeeld "Bespaar 20% op alle producten") en een andere kop op positie 1 in variant B ("Gratis verzending bij iedere bestelling"). De overige koppen laat je los. Zo test je een specifiek bericht terwijl Google de rest optimaliseert. Dit is de meest zuivere manier om kopvarianten te vergelijken.
- Ad Variations voor tests op schaal — Gebruik Ad Variations om een woord of zin in alle advertenties van een campagne tegelijk te vervangen. Bijvoorbeeld: vervang "Bespaar" door "Ontvang korting" in alle koppen. Google toont de resultaten geaggregeerd per campagne, zodat je trends kunt ontdekken die bij individuele ad groups niet zichtbaar zouden zijn.
- Twee RSA's met verschillende invalshoeken — Draai twee RSA's in dezelfde ad group met bewust verschillende benaderingen. De ene richt zich op prijs ("Vanaf €29 per maand"), de andere op kwaliteit ("Door 5.000+ klanten beoordeeld met 4,8 sterren"). Na 4 weken analyseer je welke benadering structureel beter presteert op conversieniveau.
- Asset labels als feedback-loop — Google labelt individuele koppen en beschrijvingen als "Best", "Good" of "Low". Controleer deze labels elke twee weken. Vervang assets met een "Low" label door nieuwe varianten en monitor of de overall advertentiesterkte verbetert. Dit is geen klassieke A/B test, maar wel een continue optimalisatiecyclus.
Performance Max experimenten opzetten
Performance Max campagnes waren lang een zwarte doos: je stopte er assets in en Google besloot de rest. Maar met de introductie van PMax Experiments heb je nu concrete testmogelijkheden. Dit kun je vergelijken:
- Asset group varianten — Dupliceer je PMax campagne via Experiments en pas een asset group aan. Test andere afbeeldingen, koppen of beschrijvingen om te ontdekken welke creatieve richting het beste presteert over alle Google-kanalen heen (Search, Display, YouTube, Discover, Gmail, Maps).
- Doelgroepsignalen vergelijken — Test een campagne met brede doelgroepsignalen versus specifieke audience signals. Dit helpt je kwantificeren hoeveel waarde je signalen daadwerkelijk toevoegen. Bij sommige accounts presteren brede signalen even goed — dan bespaart het je work aan doelgroepbeheer.
- Biedstrategie varianten — Vergelijk Target ROAS met Maximize Conversion Value. Of test verschillende ROAS-doelen: levert een target van 500% meer totale waarde op dan 800%, ondanks de lagere efficiency? Deze tests geven je concrete antwoorden die je nergens anders kunt vinden.
- URL-expansie aan of uit — Final URL expansion stuurt verkeer naar pagina's die Google relevant acht, maar die niet altijd jouw gewenste landingspagina's zijn. Test of het uitzetten van URL-expansie leidt tot hogere conversiepercentages, of juist tot gemiste kansen op onverwachte zoektermen.
Praktijkvoorbeeld: biedstrategie-test voor een B2B SaaS-klant
Resultaten van een 4-weken experiment met een maandbudget van €8.000 en een 50/50 verkeersplit.
| Metric | Target CPA (controle) | Max. Conversions (variant) |
|---|---|---|
| Klikken | 1.842 | 2.156 |
| CTR | 4,2% | 4,8% |
| Conversies | 89 | 112 |
| Kosten per conversie | €44,94 | €35,71 |
| Conversiewaarde | €12.460 | €15.680 |
| Betrouwbaarheid | 97% — Variant is significant beter | |
Resultaat: Maximize Conversions leverde 26% meer conversies op tegen een 20% lagere CPA. Het experiment is direct toegepast op de originele campagne.
5. Resultaten analyseren en toepassen
Data verzamelen is de eerste stap, maar de echte waarde zit in hoe je resultaten interpreteert en vertaalt naar actie. Hieronder beschrijven we een gestructureerde aanpak die we bij Searchlab voor elke test hanteren.
Wacht altijd op statistische significantie
De meest gemaakte fout bij A/B testen: te vroeg conclusies trekken. Als variant B na vier dagen een 15% hogere CTR heeft, is dat geen bewijs dat het structureel beter werkt. Je hebt minimaal 95% betrouwbaarheid (confidence level) nodig voordat je een beslissing neemt. Google toont dit percentage rechtstreeks bij je experiment als een groen, oranje of rood signaal. Wacht tot het groen is voordat je handelt. Te vroeg stoppen leidt tot beslissingen gebaseerd op ruis in plaats van een echt patroon.
Focus op de metrics die ertoe doen
Een hogere CTR is mooi, maar als die extra klikken niet converteren, schiet je er niets mee op. Focus altijd op de metric die het dichtst bij je bedrijfsdoel ligt. Voor de meeste adverteerders is dat kosten per conversie (CPA) of return on ad spend (ROAS). In sommige gevallen is conversiewaarde belangrijker dan het aantal conversies — bijvoorbeeld wanneer je producten met sterk verschillende prijzen verkoopt. Stel je primaire KPI vast voordat je de test start.
Kijk naar secundaire effecten
Naast je hoofd-KPI moet je ook secundaire metrics in de gaten houden. Een biedstrategie die meer conversies oplevert maar je gemiddelde orderwaard met 40% verlaagt, is niet per se een verbetering. Controleer of het impression share niet dramatisch daalt, of de bounce rate op je landingspagina niet stijgt. Een holistische blik voorkomt dat je optimaliseert voor een metric terwijl je elders waarde verliest.
Pas de winnaar toe en start de volgende test
Zodra je een duidelijke winnaar hebt, klik je op "Apply experiment" in Google Ads. De winnende instellingen worden overgenomen naar je originele campagne zonder downtime. Maar stop daar niet. A/B testen is een doorlopend proces, geen eenmalige actie. De beste accounts die wij beheren draaien continu experimenten — zodra de ene test is afgerond, start de volgende. In de praktijk levert dit cumulatief 15-30% meer rendement op per kwartaal.
Documenteer elke test
Houd een testlogboek bij met kolommen voor: datum, campagne, hypothese, geteste variabele, resultaat (winnaar + procentueel verschil), en genomen actie. Na zes maanden heb je een database van inzichten die je helpt slimmere hypotheses te formuleren. Veel klanten ontdekken patronen — bijvoorbeeld dat emotionele koppen structureel beter presteren dan rationele koppen, of dat een hogere ROAS-target in bepaalde seizoenen beter werkt dan in andere.
6. AI-gestuurde advertentiesuggesties benutten
Google Ads maakt steeds meer gebruik van AI om adverteerders te helpen hun campagnes te verbeteren. In 2026 zie je op meerdere plekken in het platform automatisch gegenereerde suggesties die direct verband houden met je testmogelijkheden.
Automatisch gegenereerde advertentievarianten
Google genereert op basis van je landingspagina en bestaande advertenties automatisch nieuwe kop- en beschrijvingssuggesties. Je vindt deze onder Recommendations in je account. Deze suggesties zijn niet altijd beter dan je eigen teksten, maar ze bieden een startpunt voor nieuwe tests. Neem ze niet klakkeloos over — gebruik ze als inspiratie voor je volgende Ad Variation experiment.
Asset-rapportage en automatische combinaties
Bij RSA's toont Google welke combinaties van koppen en beschrijvingen het vaakst worden vertoond en hoe ze presteren. Deze data is goud waard voor je teststrategie. Als Google een bepaalde kop bijna nooit vertoont, is dat een signaal dat de relevantie laag is. Vervang die kop door een variant die dichter bij je best presterende koppen ligt en meet of de overall performance verbetert.
Performance Max Insights
In het Insights-tabblad van je Performance Max campagnes toont Google welke doelgroepsegmenten, zoektermen en asset-combinaties het beste presteren. Gebruik deze inzichten om gerichte hypotheses te formuleren voor je volgende experiment. Zie je dat een bepaald doelgroepsegment bovengemiddeld converteert? Test of het toevoegen van dat segment als specifiek audience signal je campagne verbetert.
De combinatie van AI-suggesties en gestructureerd testen is krachtig. Laat Google de hypotheses leveren via automatische suggesties en Insights, en valideer ze vervolgens met een formeel experiment. Zo benut je het beste van beide werelden: de dataverwerking van Google's AI en de methodische zekerheid van A/B testen.
7. Best practices en veelvoorkomende valkuilen
Na honderden experimenten voor klanten in uiteenlopende branches hebben we bij Searchlab een set principes ontwikkeld. Dit zijn de belangrijkste lessen — en de valkuilen die je absoluut moet vermijden.
Best practices
- ✓ Test een variabele per experiment — Zo weet je precies welk element het verschil maakt
- ✓ Plan minimaal 2-4 weken looptijd — Kortere periodes missen dag- en weekvariaties
- ✓ Begin met high-impact tests — Test eerst biedstrategieen en landingspagina's, dan advertentieteksten
- ✓ Gebruik 50/50 splits — Geeft de snelste en statistisch sterkste resultaten
- ✓ Maak testen een maandelijkse routine — Cumulatieve verbeteringen leveren het meeste op
- ✓ Documenteer alles — Een testlogboek maakt je slimmer met elke test
Veelvoorkomende valkuilen
- ✗ Te vroeg stoppen — 3 dagen data is geen basis voor een beslissing, wacht op 95%
- ✗ Meerdere variabelen tegelijk — Dan weet je niet wat het verschil veroorzaakte
- ✗ Te weinig verkeersvolume — Bij minder dan 1.000 klikken per variant zijn resultaten zelden significant
- ✗ Seizoenseffecten negeren — Test niet tijdens piekperiodes als je normale resultaten wilt
- ✗ Alleen CTR optimaliseren — Meer klikken zonder meer conversies kost geld
- ✗ ETAs blijven gebruiken — Volledig uitgefaseerd, focus op RSA-optimalisatie
De kern van succesvol A/B testen is discipline. Het gaat niet om een enkele briljante test, maar om een continu proces van hypothese formuleren, testen, analyseren en doorontwikkelen. De accounts die wij beheren worden elke maand beter — niet door grote sprongen, maar door een reeks van kleine, bewezen verbeteringen die zich opstapelen. Zo bouw je een Google Ads campagne die consistent beter presteert dan de concurrentie.
Wat kan A/B testen voor jou opleveren?
Bij Searchlab draaien we wekelijks experimenten voor onze klanten. Van biedstrategie-tests tot landingspagina-optimalisatie en RSA-verbeteringen — we halen er gemiddeld 15-30% meer rendement uit bestaande campagnes. Benieuwd wat dat voor jouw account betekent? Bekijk eerst wat Google Ads kost en neem contact op voor een vrijblijvend adviesgesprek.
8. Veelgestelde vragen
Hoeveel budget heb ik nodig voor A/B testen in Google Ads?
Er is geen hard minimumbedrag, maar je hebt voldoende verkeer nodig voor statistisch significante resultaten. De vuistregel is minimaal 100 conversies per variant. Bij een conversiepercentage van 5% zijn dat 2.000 klikken per variant. Met een gemiddelde CPC van €1 kom je dan uit op ongeveer €4.000 totaal testbudget. Bij hogere conversiepercentages of lagere CPC's kun je met minder toe. Heb je minder budget? Richt je dan op high-impact tests zoals biedstrategieen in plaats van advertentieteksten.
Hoe lang moet een A/B test in Google Ads draaien?
Google adviseert 2 tot 4 weken als minimum, maar het hangt sterk af van je verkeersvolume. De test moet lang genoeg lopen om variaties over weekdagen, weekenden en dagdelen mee te nemen. Gebruik de ingebouwde significantiecalculator in Google Ads Experiments — die laat in real-time zien wanneer je resultaten het 95% betrouwbaarheidsniveau bereiken. Bij campagnes met weinig verkeer kan het 6-8 weken duren.
Kan ik A/B testen uitvoeren in Performance Max campagnes?
Ja. Via Google Ads Experiments kun je een Performance Max campagne dupliceren en de experimentversie aanpassen. Je kunt asset groups testen met andere koppen, beschrijvingen, afbeeldingen en doelgroepsignalen. Ook biedstrategieen en URL-expansie-instellingen kun je vergelijken. Google verdeelt het verkeer automatisch. Dit geeft je eindelijk data-gedreven controle over campagnes die voorheen een zwarte doos waren.
Wat is het verschil tussen Experiments en Ad Variations?
Experiments is het overkoepelende testframework in Google Ads. Hiermee test je campagne-instellingen, biedstrategieen, doelgroepen en budgetten. Ad Variations is een specifiek experimenttype binnen dat framework, gericht op het testen van advertentieteksten. Met Ad Variations kun je op schaal woorden vervangen, beschrijvingen aanpassen of koppen wijzigen in alle advertenties van een campagne tegelijk. Beide zijn bereikbaar via hetzelfde Experiments-menu.
Wanneer is een A/B testresultaat in Google Ads betrouwbaar?
Streef naar minimaal 95% betrouwbaarheid (confidence level). Google Ads toont dit percentage automatisch bij elk experiment als een kleurindicator. Bij 95% is er slechts 5% kans dat het verschil op toeval berust. Bij minder dan 95% is het verstandig om de test langer door te laten lopen. Neem nooit beslissingen op basis van resultaten die nog niet significant zijn — dat is erger dan helemaal niet testen.