Google Ads 17 februari 2026 12 min leestijd

A/B Testen in Google Ads: De Complete Gids voor 2026

Draai je Google Ads campagnes op gevoel, of op basis van harde data? Met A/B testen ontdek je welke advertenties, biedstrategieen en landingspagina's werkelijk het beste presteren. In deze gids leer je precies hoe je Experiments, RSA-testen en Performance Max experimenten opzet, analyseert en optimaliseert.

Ruud ten Have

Ruud ten Have

Marketing & AI Strategy • Searchlab

Samenvatting

A/B testen in Google Ads draait in 2026 volledig om Experiments — de centrale testomgeving waarmee je campagnes, advertenties, biedstrategieen en doelgroepen gecontroleerd vergelijkt. Met RSA-testen optimaliseer je koppen en beschrijvingen binnen Responsive Search Ads, en met Performance Max experimenten test je asset groups en doelgroepsignalen. Streef altijd naar minimaal 95% betrouwbaarheid en laat je tests 2-4 weken lopen voor betrouwbare resultaten.

Stel je voor: je draait een Google Ads campagne met een maandbudget van €5.000. Je biedstrategie staat op Target CPA, je advertentieteksten klinken goed, en de resultaten zijn... oké. Maar wat als een andere biedstrategie 25% meer conversies oplevert voor hetzelfde budget? Of als een andere kop in je advertentie je CTR verdubbelt? Zonder te testen weet je het simpelweg niet. A/B testen is de enige manier om van "goed genoeg" naar "optimaal" te gaan. In dit artikel leer je alles over A/B testen in Google Ads in 2026: welke tools je hebt, hoe je ze inzet, en hoe je de resultaten vertaalt naar betere campagneprestaties.

1. Wat is A/B testen in Google Ads?

A/B testen is het gelijktijdig draaien van twee varianten om objectief te meten welke beter presteert. In Google Ads betekent dit dat je twee versies van een element vergelijkt — denk aan advertentieteksten, biedstrategieen, landingspagina's of doelgroepen — terwijl het verkeer gecontroleerd verdeeld wordt. De ene helft van je doelgroep ziet variant A, de andere helft ziet variant B. Na genoeg data trek je conclusies op basis van harde cijfers.

Het principe klinkt simpel, maar de kracht zit in de systematische aanpak. In plaats van te gokken of "Gratis verzending" een sterkere kop is dan "Vandaag besteld, morgen in huis", laat je het verkeer beslissen. Soms zijn de resultaten verrassend: een ogenschijnlijk kleine wijziging in een beschrijving kan het verschil maken tussen een conversiepercentage van 3% en 5%. Over een maandbudget van €10.000 vertaalt dat zich naar duizenden euro's aan extra omzet.

Google Ads heeft de testmogelijkheden de afgelopen jaren flink uitgebreid. De ouderwetse methode — handmatig twee advertenties in dezelfde ad group plaatsen en hopen op nuttige data — is vervangen door Experiments. Dit is een volwaardige testomgeving die Google in 2024 verder heeft verbeterd en die inmiddels het hart vormt van elke serieuze optimalisatiestrategie. Experiments splitst verkeer gecontroleerd, houdt statistieken bij en vertelt je wanneer een resultaat betrouwbaar is. Expanded Text Ads (ETAs) zijn inmiddels volledig uitgefaseerd — je kunt ze niet meer aanmaken. Alles draait nu om Responsive Search Ads en de slimme testmogelijkheden die daarbij horen.

2. Wat kun je allemaal testen?

Veel adverteerders denken bij A/B testen alleen aan het vergelijken van twee advertentieteksten. Maar de mogelijkheden in Google Ads zijn veel breder dan dat. Hier is een compleet overzicht van alles wat je kunt testen — gerangschikt van de hoogste naar de laagste potentiele impact.

Biedstrategieen

Dit is waar de grootste winsten zitten. Twijfel je tussen Target CPA en Maximize Conversions? Of wil je weten of het verhogen van je target ROAS van 400% naar 500% je daadwerkelijk meer oplevert? Met campaign-level experiments test je twee biedstrategieen naast elkaar terwijl alle andere campagne-instellingen identiek blijven. Het verkeer wordt op cookieniveau gesplitst, waardoor elke gebruiker consistent dezelfde variant ziet. Dit is verreweg de meest impactvolle test die je kunt draaien.

Landingspagina's

De pagina waar mensen op landen na een klik heeft een enorme invloed op je conversiepercentage. Via Experiments kun je het verkeer splitsen over twee URL's: dezelfde advertentie stuurt de ene helft naar pagina A en de andere helft naar pagina B. Test variaties in je kop, formulierlengte, call-to-action positie, of zelfs een compleet ander paginadesign. Combineer dit met GA4 voor diepere inzichten in scrollgedrag en sessieduur op elke variant.

Advertentieteksten (RSA's)

Responsive Search Ads zijn in 2026 het enige advertentietype voor zoekadvertenties. Google draait automatisch combinaties van je koppen en beschrijvingen, maar dat betekent niet dat je zelf niet meer kunt testen. Je kunt bewuste tests opzetten door koppen te pinnen, Ad Variations te gebruiken, of twee RSA's met totaal verschillende invalshoeken naast elkaar te draaien. Meer hierover in hoofdstuk 4.

Doelgroepen en targeting

Test of een bredere doelgroep beter presteert dan een smalle. Vergelijk twee audience segments: leveren in-market audiences betere resultaten dan custom audiences voor jouw product? Of test het verschil tussen observation mode en targeting mode voor je doelgroepen. Dit is vooral waardevol bij campagnes met een groter budget waar je de targeting wilt verfijnen zonder te veel risico te nemen.

Performance Max asset groups

Sinds Google Experiments heeft opengesteld voor Performance Max campagnes, kun je asset groups vergelijken. Test andere afbeeldingen, koppen, beschrijvingen of doelgroepsignalen. Je kunt ook URL-expansie aan- of uitzetten om te meten of Google verkeer naar relevante pagina's stuurt.

Assets en extensies

Sitelinks, callouts, structured snippets en afbeeldingsassets hebben directe invloed op je CTR en advertentieruimte. Test verschillende combinaties: werken prijsgebaseerde callouts beter dan feature-gebaseerde? Levert een sitelink naar je prijspagina meer conversies op dan eentje naar je reviews?

3. Google Ads Experiments: stap voor stap opzetten

Experiments is de motor achter alle A/B testen in Google Ads. Het maakt een gecontroleerde kopie van je bestaande campagne, past de variabele aan die je wilt testen, en splitst het verkeer automatisch. Hieronder doorlopen we het volledige proces — van opzet tot toepassing.

1

Navigeer naar Experiments

Klik in het linker menu van Google Ads op "Experiments" (onder het kopje Campagnes). Klik vervolgens op het blauwe plusteken om een nieuw experiment te starten. Je ziet hier ook een overzicht van al je eerdere en lopende tests.

2

Kies je experimenttype

Google biedt drie hoofdtypen: Custom experiment voor het testen van campagne-instellingen zoals biedstrategieen en doelgroepen, Ad variation voor het op schaal aanpassen van advertentieteksten, en Performance Max experiment voor het testen van PMax-specifieke instellingen. Selecteer het type en kies de broncampagne.

3

Configureer de verkeersplit

Bepaal hoe het verkeer verdeeld wordt. De standaard is 50/50, en dat is in de meeste gevallen de beste keuze — het levert de snelste resultaten op. Kies voor een 70/30 of 80/20 split als je het risico wilt beperken bij tests met potentieel grote impact. De split is cookie-gebaseerd: elke gebruiker ziet consistent dezelfde variant gedurende de hele test.

4

Wijzig precies een variabele

Pas in de experimentcampagne het ene element aan dat je wilt testen. Dat kan een biedstrategie zijn, een andere doelgroep, een aangepaste advertentietekst of een andere landingspagina-URL. De gouden regel: verander slechts een ding tegelijk. Alleen dan weet je met zekerheid wat het verschil in prestaties veroorzaakt.

5

Stel de looptijd in en start

Kies een start- en einddatum. Plan minimaal 2 weken, bij voorkeur 4 weken, zodat je verschillende dagen en tijdstippen meeneemt. Google geeft geen betrouwbare resultaten bij te korte tests. Na afloop toont het experiment automatisch welke variant beter presteerde, inclusief een betrouwbaarheidsscore.

6

Pas de winnaar toe

Als het experiment een duidelijke winnaar oplevert met minimaal 95% betrouwbaarheid, klik je op "Apply experiment". De winnende instellingen worden overgenomen naar je originele campagne. Google maakt dit naadloos — er is geen downtime en je verliest geen data.

Pro tip: kies altijd cookie-gebaseerde splits

Google biedt ook de optie om verkeer op zoekwoord-niveau te splitsen, maar dat levert minder betrouwbare resultaten op. Bij cookie-gebaseerde splits krijgt elke individuele gebruiker consistent dezelfde variant te zien, ongeacht via welk zoekwoord ze binnenkomen. Dat voorkomt vertekening en maakt je testresultaten statistisch sterker.

4. A/B testen in RSA's en Performance Max

Responsive Search Ads slim testen

RSA's zijn ontworpen om zelf te optimaliseren: Google's machine learning combineert je koppen en beschrijvingen automatisch om de best presterende combinaties te vinden. Dat maakt gericht testen lastiger dan bij de oude ETAs, maar niet onmogelijk. Er zijn vier bewezen methodes om toch data-gedreven beslissingen te nemen:

Performance Max experimenten opzetten

Performance Max campagnes waren lang een zwarte doos: je stopte er assets in en Google besloot de rest. Maar met de introductie van PMax Experiments heb je nu concrete testmogelijkheden. Dit kun je vergelijken:

Praktijkvoorbeeld: biedstrategie-test voor een B2B SaaS-klant

Resultaten van een 4-weken experiment met een maandbudget van €8.000 en een 50/50 verkeersplit.

Metric Target CPA (controle) Max. Conversions (variant)
Klikken 1.842 2.156
CTR 4,2% 4,8%
Conversies 89 112
Kosten per conversie €44,94 €35,71
Conversiewaarde €12.460 €15.680
Betrouwbaarheid 97% — Variant is significant beter

Resultaat: Maximize Conversions leverde 26% meer conversies op tegen een 20% lagere CPA. Het experiment is direct toegepast op de originele campagne.

5. Resultaten analyseren en toepassen

Data verzamelen is de eerste stap, maar de echte waarde zit in hoe je resultaten interpreteert en vertaalt naar actie. Hieronder beschrijven we een gestructureerde aanpak die we bij Searchlab voor elke test hanteren.

Wacht altijd op statistische significantie

De meest gemaakte fout bij A/B testen: te vroeg conclusies trekken. Als variant B na vier dagen een 15% hogere CTR heeft, is dat geen bewijs dat het structureel beter werkt. Je hebt minimaal 95% betrouwbaarheid (confidence level) nodig voordat je een beslissing neemt. Google toont dit percentage rechtstreeks bij je experiment als een groen, oranje of rood signaal. Wacht tot het groen is voordat je handelt. Te vroeg stoppen leidt tot beslissingen gebaseerd op ruis in plaats van een echt patroon.

Focus op de metrics die ertoe doen

Een hogere CTR is mooi, maar als die extra klikken niet converteren, schiet je er niets mee op. Focus altijd op de metric die het dichtst bij je bedrijfsdoel ligt. Voor de meeste adverteerders is dat kosten per conversie (CPA) of return on ad spend (ROAS). In sommige gevallen is conversiewaarde belangrijker dan het aantal conversies — bijvoorbeeld wanneer je producten met sterk verschillende prijzen verkoopt. Stel je primaire KPI vast voordat je de test start.

Kijk naar secundaire effecten

Naast je hoofd-KPI moet je ook secundaire metrics in de gaten houden. Een biedstrategie die meer conversies oplevert maar je gemiddelde orderwaard met 40% verlaagt, is niet per se een verbetering. Controleer of het impression share niet dramatisch daalt, of de bounce rate op je landingspagina niet stijgt. Een holistische blik voorkomt dat je optimaliseert voor een metric terwijl je elders waarde verliest.

Pas de winnaar toe en start de volgende test

Zodra je een duidelijke winnaar hebt, klik je op "Apply experiment" in Google Ads. De winnende instellingen worden overgenomen naar je originele campagne zonder downtime. Maar stop daar niet. A/B testen is een doorlopend proces, geen eenmalige actie. De beste accounts die wij beheren draaien continu experimenten — zodra de ene test is afgerond, start de volgende. In de praktijk levert dit cumulatief 15-30% meer rendement op per kwartaal.

Documenteer elke test

Houd een testlogboek bij met kolommen voor: datum, campagne, hypothese, geteste variabele, resultaat (winnaar + procentueel verschil), en genomen actie. Na zes maanden heb je een database van inzichten die je helpt slimmere hypotheses te formuleren. Veel klanten ontdekken patronen — bijvoorbeeld dat emotionele koppen structureel beter presteren dan rationele koppen, of dat een hogere ROAS-target in bepaalde seizoenen beter werkt dan in andere.

6. AI-gestuurde advertentiesuggesties benutten

Google Ads maakt steeds meer gebruik van AI om adverteerders te helpen hun campagnes te verbeteren. In 2026 zie je op meerdere plekken in het platform automatisch gegenereerde suggesties die direct verband houden met je testmogelijkheden.

Automatisch gegenereerde advertentievarianten

Google genereert op basis van je landingspagina en bestaande advertenties automatisch nieuwe kop- en beschrijvingssuggesties. Je vindt deze onder Recommendations in je account. Deze suggesties zijn niet altijd beter dan je eigen teksten, maar ze bieden een startpunt voor nieuwe tests. Neem ze niet klakkeloos over — gebruik ze als inspiratie voor je volgende Ad Variation experiment.

Asset-rapportage en automatische combinaties

Bij RSA's toont Google welke combinaties van koppen en beschrijvingen het vaakst worden vertoond en hoe ze presteren. Deze data is goud waard voor je teststrategie. Als Google een bepaalde kop bijna nooit vertoont, is dat een signaal dat de relevantie laag is. Vervang die kop door een variant die dichter bij je best presterende koppen ligt en meet of de overall performance verbetert.

Performance Max Insights

In het Insights-tabblad van je Performance Max campagnes toont Google welke doelgroepsegmenten, zoektermen en asset-combinaties het beste presteren. Gebruik deze inzichten om gerichte hypotheses te formuleren voor je volgende experiment. Zie je dat een bepaald doelgroepsegment bovengemiddeld converteert? Test of het toevoegen van dat segment als specifiek audience signal je campagne verbetert.

De combinatie van AI-suggesties en gestructureerd testen is krachtig. Laat Google de hypotheses leveren via automatische suggesties en Insights, en valideer ze vervolgens met een formeel experiment. Zo benut je het beste van beide werelden: de dataverwerking van Google's AI en de methodische zekerheid van A/B testen.

7. Best practices en veelvoorkomende valkuilen

Na honderden experimenten voor klanten in uiteenlopende branches hebben we bij Searchlab een set principes ontwikkeld. Dit zijn de belangrijkste lessen — en de valkuilen die je absoluut moet vermijden.

Best practices

  • Test een variabele per experiment — Zo weet je precies welk element het verschil maakt
  • Plan minimaal 2-4 weken looptijd — Kortere periodes missen dag- en weekvariaties
  • Begin met high-impact tests — Test eerst biedstrategieen en landingspagina's, dan advertentieteksten
  • Gebruik 50/50 splits — Geeft de snelste en statistisch sterkste resultaten
  • Maak testen een maandelijkse routine — Cumulatieve verbeteringen leveren het meeste op
  • Documenteer alles — Een testlogboek maakt je slimmer met elke test

Veelvoorkomende valkuilen

  • Te vroeg stoppen — 3 dagen data is geen basis voor een beslissing, wacht op 95%
  • Meerdere variabelen tegelijk — Dan weet je niet wat het verschil veroorzaakte
  • Te weinig verkeersvolume — Bij minder dan 1.000 klikken per variant zijn resultaten zelden significant
  • Seizoenseffecten negeren — Test niet tijdens piekperiodes als je normale resultaten wilt
  • Alleen CTR optimaliseren — Meer klikken zonder meer conversies kost geld
  • ETAs blijven gebruiken — Volledig uitgefaseerd, focus op RSA-optimalisatie

De kern van succesvol A/B testen is discipline. Het gaat niet om een enkele briljante test, maar om een continu proces van hypothese formuleren, testen, analyseren en doorontwikkelen. De accounts die wij beheren worden elke maand beter — niet door grote sprongen, maar door een reeks van kleine, bewezen verbeteringen die zich opstapelen. Zo bouw je een Google Ads campagne die consistent beter presteert dan de concurrentie.

Wat kan A/B testen voor jou opleveren?

Bij Searchlab draaien we wekelijks experimenten voor onze klanten. Van biedstrategie-tests tot landingspagina-optimalisatie en RSA-verbeteringen — we halen er gemiddeld 15-30% meer rendement uit bestaande campagnes. Benieuwd wat dat voor jouw account betekent? Bekijk eerst wat Google Ads kost en neem contact op voor een vrijblijvend adviesgesprek.

8. Veelgestelde vragen

Hoeveel budget heb ik nodig voor A/B testen in Google Ads?

Er is geen hard minimumbedrag, maar je hebt voldoende verkeer nodig voor statistisch significante resultaten. De vuistregel is minimaal 100 conversies per variant. Bij een conversiepercentage van 5% zijn dat 2.000 klikken per variant. Met een gemiddelde CPC van €1 kom je dan uit op ongeveer €4.000 totaal testbudget. Bij hogere conversiepercentages of lagere CPC's kun je met minder toe. Heb je minder budget? Richt je dan op high-impact tests zoals biedstrategieen in plaats van advertentieteksten.

Hoe lang moet een A/B test in Google Ads draaien?

Google adviseert 2 tot 4 weken als minimum, maar het hangt sterk af van je verkeersvolume. De test moet lang genoeg lopen om variaties over weekdagen, weekenden en dagdelen mee te nemen. Gebruik de ingebouwde significantiecalculator in Google Ads Experiments — die laat in real-time zien wanneer je resultaten het 95% betrouwbaarheidsniveau bereiken. Bij campagnes met weinig verkeer kan het 6-8 weken duren.

Kan ik A/B testen uitvoeren in Performance Max campagnes?

Ja. Via Google Ads Experiments kun je een Performance Max campagne dupliceren en de experimentversie aanpassen. Je kunt asset groups testen met andere koppen, beschrijvingen, afbeeldingen en doelgroepsignalen. Ook biedstrategieen en URL-expansie-instellingen kun je vergelijken. Google verdeelt het verkeer automatisch. Dit geeft je eindelijk data-gedreven controle over campagnes die voorheen een zwarte doos waren.

Wat is het verschil tussen Experiments en Ad Variations?

Experiments is het overkoepelende testframework in Google Ads. Hiermee test je campagne-instellingen, biedstrategieen, doelgroepen en budgetten. Ad Variations is een specifiek experimenttype binnen dat framework, gericht op het testen van advertentieteksten. Met Ad Variations kun je op schaal woorden vervangen, beschrijvingen aanpassen of koppen wijzigen in alle advertenties van een campagne tegelijk. Beide zijn bereikbaar via hetzelfde Experiments-menu.

Wanneer is een A/B testresultaat in Google Ads betrouwbaar?

Streef naar minimaal 95% betrouwbaarheid (confidence level). Google Ads toont dit percentage automatisch bij elk experiment als een kleurindicator. Bij 95% is er slechts 5% kans dat het verschil op toeval berust. Bij minder dan 95% is het verstandig om de test langer door te laten lopen. Neem nooit beslissingen op basis van resultaten die nog niet significant zijn — dat is erger dan helemaal niet testen.

Ruud ten Have

Geschreven door

Ruud ten Have

Ruud is marketeer met 10+ jaar ervaring in online advertising. Bij Searchlab beheert hij dagelijks Google Ads accounts voor klanten in uiteenlopende sectoren — van B2B SaaS tot e-commerce. A/B testen en datagedreven optimalisatie vormen de kern van zijn aanpak.

Gerelateerde artikelen