Inhoudsopgave
- Ons SEO voor AI-experiment
- Wat zijn serverlogs?
- Welke gebeurtenissen worden geregistreerd in serverlogs?
- Verschillende user-agents: welke zijn er en wat betekenen ze?
- Voorbeeld serverlog
- 6 inzichten uit ons GEO-experiment: waardevolle informatie over serverlogs
- Waar vind je jouw serverlogs?
- Hoe analyseer je je serverlogs?
- De belangrijkste informatie op een rij
Deel dit artikel
Wist je dat je kunt meten hoe zichtbaar je bent in AI-zoekmachines? Dit doe je door serverlogs van je website te analyseren.
Waar je in Google Analytics alleen ziet hoeveel verkeer vanuit AI-tools op je website landt, doe je in serverlogs veel waardevollere inzichten op. Zoals hoe vaak jouw content wordt gebruikt in antwoorden en hoe vaak jouw naam wordt vermeld als bron.
In dit artikel lees je wat serverlogs zijn, waar je ze kunt vinden, hoe je ze analyseert én welke inzichten wij hierover hebben opgedaan in ons SEO voor AI-experiment.
Ons SEO voor AI-experiment
Voordat we in de serverlogs duiken: even wat achtergrondinformatie over ons SEO voor AI-experiment. Sinds april 2025 testen wij met 20 bedrijven wat er nodig is om écht zichtbaar te worden in AI-zoekmachines zoals ChatGPT en Perplexity.
Meetbaarheid is hierbij uiteraard van groot belang. Daarom zijn we de laatste tijd hard bezig geweest om die meetbaarheid inzichtelijk te krijgen. Dat is gelukt. En daarnaast leverde dit ons waardevolle inzichten op over wanneer je wel en niet als bron genoemd wordt in antwoorden van LLM’s.
Wat zijn serverlogs?
Tijd om het onderwerp in te duiken: serverlogs. Wat zijn dit nu eigenlijk precies?
Serverlogs zijn tekstbestanden (meestal in .txt- of .log-formaat) die automatisch door de server van je website worden aangemaakt en gebeurtenissen op de server registreren.
En zoals wij hebben onderzocht: deze documenten zijn waardevol voor het verkrijgen van inzicht in jouw zichtbaarheid in AI-tools. In serverlogs zie je namelijk wie welke informatie op jouw website opvraagt. En zo kun je dus ook zien of jouw content is geraadpleegd door AI-bots.
Welke gebeurtenissen worden geregistreerd in serverlogs?
Waar in de serverlogs zie je dan precies hoe vaak jouw content wordt geraadpleegd en hoe vaak jouw naam wordt vermeld als bron? Daar komen we straks op. Om dit te begrijpen heb je namelijk eerst meer kennis nodig over hoe serverlogs in elkaar steken. Welke gebeurtenissen worden hierin geregistreerd?
In elk serverlog-bestand wordt informatie vastgelegd zoals het IP-adres van de ontvanger, het gebruikte protocol (HTTP/1.1, HTTP/2 of HTTP/3) en de bestandsgrootte in bytes. Daarnaast worden het tijdstip van het bezoek, de URL en de user-agent geregistreerd. Vooral informatie over de user-agent is interessant.
Want wat zijn user-agent-gegevens precies? Deze informatie geeft aan of het bezoek afkomstig is van een bot, zoals GoogleBot, Bingbot of GPTBot. En dat is uiteraard wat je wilt weten. Als een bot jouw server bezoekt, betekent dit dat de bot iets met jouw content doet.
Verschillende user-agents: welke zijn er en wat betekenen ze?
Laten we doorpakken op die user-agents. Als het gaat om het meten van zichtbaarheid in AI, zijn er twee belangrijke categorieën: user-agents die jouw content raadplegen voor het trainen van kennis, en user-agents die jouw content gebruiken voor het ophalen van actuele informatie.
1. User-agents die jouw content raadplegen voor het trainen van kennis
Eens in de zoveel tijd werken LLM’s hun interne kennis bij. Dit is informatie die niet per se heel actueel hoeft te zijn; het gaat met name om ‘algemene kennis’.
Het kan gebeuren dat een LLM jóúw content raadpleegt voor het trainen van hun kennis. In dat geval kunnen ze, in het vervolg, jouw content dus ook gebruiken voor het formuleren van antwoorden. Deze content is dan immers onderdeel geworden van het geheugen van de LLM.
Is jouw content gecrawld voor het trainen van kennis? Dat herken je aan een user-agent in de serverlog die eindigt op ‘bot’. Zoals:
- GPTBot
- PerplexityBot
- ClaudeBot
2. User-agents die jouw content crawlen voor actuele informatie
Wordt er een zoekopdracht gedaan in een LLM die niet beantwoord kan worden met de interne kennis waar die LLM over beschikt? Zoals ‘Wie heeft gisteren de 400 meter horden gewonnen?’. In dat geval kan een LLM besluiten om actuele informatie op te halen op het web.
Als jouw content is geraadpleegd voor het ophalen van actuele informatie, dan herken je dit aan een user-agent in de serverlog die eindigt op ‘user’. Zoals:
- ChatGPT-user
- Perplexity-user
- Claude-user
Niet van toepassing op AI-tools Google en Bing
Let op: Bovenstaande informatie is niet van toepassing op de AI-tools van Google en Bing. Google en Bing maken voor hun AI-tools namelijk gebruik van hun reguliere crawlers; dezelfde die ze gebruiken voor hun zoekmachines.
6 inzichten uit ons GEO-experiment: waardevolle informatie over serverlogs
Hoe je jouw eigen serverlogs kunt zien en analyseren lees je straks. Eerst delen we 6 waardevolle inzichten over serverlogs die we opdeden in ons SEO voor AI-experiment. Want: welke gegevens vertellen je nu hoe zichtbaar je écht bent in AI-zoekmachines? En wanneer word je wel als bron vermeld in antwoorden en wanneer niet?
1. Content crawlen voor ophalen actuele informatie = bronvermelding
In ChatGPT en Perplexity word je als bron vermeld in antwoorden als ze jouw content raadplegen voor het ophalen van actuele informatie.
Hoe zit dit precies? Laten we nog even terugkijken naar de verschillende user-agents, waar we het eerder over hebben gehad. Je hebt een categorie user-agents die jouw content kan raadplegen voor het trainen van kennis. Maar je hebt ook een categorie user-agents die jouw content mogelijk raadpleegt als er actuele informatie opgehaald moet worden, die niet in de interne kennis voorkomt.
En raadpleegt ChatGPT of Perplexity jouw content voor het ophalen van actuele informatie? Dán wordt jouw naam direct als bron vermeld in het antwoord. En dit leidt dus direct tot zichtbaarheid van jouw bedrijf.
Wordt jouw content geraadpleegd voor het trainen van kennis? Dan word je niet direct als bron vermeld (mogelijk wel indirect, als jouw naam onderdeel is geworden van de interne kennis van een LLM).
Hoe ziet zo’n bronvermelding er precies uit? Het betekent dat er in ChatGPT of Perplexity een link naar jouw website achter de tekst komt te staan, of dat je als bron wordt genoemd onderaan het gegeven antwoord.
Gemini, Copilot en Claude gebruiken geen externe bronnen voor actuele informatie
Goed om rekening mee te houden: bovenstaand inzicht geldt alleen voor ChatGPT en Perplexity. Gemini van Google en Copilot van Bing werken namelijk met hun eigen actuele index. En Claude haalt nauwelijks actuele informatie op.
2. Aantal bronvermeldingen meetbaar met user-agents eindigend op ‘user’
Doorpakkend op bovenstaand inzicht, kunnen we ook direct concluderen hoe je meetbaar maakt hoe vaak je als bron wordt vermeld in ChatGPT en Perplexity.
Want zoals eerder verteld: telkens wanneer jouw content wordt geraadpleegd voor het ophalen van actuele informatie, zie je dat terug in je serverlogs. Dit herken je namelijk aan een user-agent die eindigt op ‘user’.
Concreet kun je daarom zeggen: het aantal keer dat je als bron wordt vermeld in AI-zoekmachines meet je door het aantal user-agents eindigend op ‘user’ bij elkaar op te tellen.
Wel goed om te weten: serverlogs worden vaak slechts 30 dagen bewaard. Verder dan dat kun je dus niet terugkijken.
3. Niet alle content is geschikt voor het ophalen van actuele informatie
Misschien denk je nu: waarom zou je überhaupt willen dat mijn content opgehaald wordt voor training van kennis, als mijn naam hier niet direct als bron wordt vermeld? Waarom zou ik me niet volledig richten op content die opgehaald wordt voor actuele informatie?
Heel simpel: LLM’s gaan lang niet altijd op zoek naar actuele informatie. Sterker nog: als het niet nodig is, doen ze dit liever niet. Actuele informatie ophalen is namelijk kostbaar.
Informatie over tuinonderhoud is bijvoorbeeld nog steeds hetzelfde als vorig jaar. Dit soort vragen zal door een AI-tool eerder beantwoord worden op basis van zijn interne kennis, aangezien de informatie ongewijzigd is en er geen behoefte is om up-to-date gegevens op te zoeken. Dit verschilt van een vraag zoals “Hoeveel punten staat Max Verstappen achter op Oscar Piastri in de Formule 1?”, waarbij actuele gegevens van het internet nodig zijn om een antwoord te geven.
Het is daarom belangrijk om kritisch na te denken over de inhoud van je content. Maar ook: over een goede balans tussen content die geschikt is voor het trainen van kennis, en content die geschikt is voor het ophalen van actuele informatie.
Content die wél geschikt is voor het ophalen van actuele informatie
Voorbeelden van content die wél vaak live wordt opgevraagd:
- Nieuws
- Evenementen
- Sportuitslagen en -standen
- Weer en natuurverschijnselen
- Actuele wetgeving
- Technologie en software
- Reisinformatie
- Producten en prijzen
4. Met extra links vergroot je de kans dat jouw content gecrawld wordt voor training
Tijd om dieper in te gaan op content die gecrawld kan worden voor het trainen van kennis. In de serverlogs te herkennen aan user-agents die eindigen op ‘bot’.
Zoals hierboven verteld is óók deze content belangrijk. Want ook al wordt jouw naam hier niet direct als bron vermeld in het antwoord; op deze manier laat je LLM’s wel kennismaken met jouw bedrijf, producten of diensten. Die informatie kunnen LLM’s gebruiken bij het formuleren van antwoorden. En ook dat leidt dus tot zichtbaarheid. Jouw producten, diensten en/of bedrijf wordt op deze manier immers mogelijk genoemd in antwoorden.
Blijkt uit de serverlogs dat de content die je graag geïndexeerd wil hebben, maar niet gecrawld wordt voor het trainen van kennis? Het kan helpen om extra interne of externe links naar deze content te genereren.
5. Alle AI-tools hebben hun eigen crawlpatroon voor trainen kennis
Hoe vaak crawlen AI-tools content om kennis te trainen? Uit ons experiment blijkt dat er grote verschillen zijn tussen AI-tools.
ChatGPT en Claude crawlen doorgaans minder frequent, maar vertonen af en toe plotselinge pieken waarin ze intensief crawlen gedurende meerdere dagen. Deze pieken blijken bovendien afhankelijk te zijn van de taal: bij meertalige websites komen de pieken per taal op verschillende tijdstippen voor. Perplexity heeft daarentegen een consistenter crawlpatroon, vergelijkbaar met dat van Bing en Google.
Over de precieze frequentie van het crawlen zijn helaas nog geen uitspraken te doen.
6. Shopping-resultaten in ChatGPT werken anders dan je verwacht
Het laatste inzicht uit ons GEO-experiment heeft betrekking op shopping-resultaten in ChatGPT. Hiermee bedoelen we productresultaten, met productnaam, afbeelding, prijs en link naar een productpagina. Eigenlijk zoals je het kent uit Google Shopping.
Opvallend hierbij is: deze resultaten werken anders dan je verwacht. Je zou verwachten dat deze informatie altijd in realtime wordt opgehaald, maar uit ons onderzoek blijkt dat dit niet altijd het geval is.
Wanneer je een algemene vraag stelt, zoals “Ik ben op zoek naar een krik voor de auto, wat zou je me aanraden?”, voert ChatGPT wel een zoekopdracht uit. Aangezien er echter weinig specifieke details worden gevraagd, haalt het de productinformatie uit de beschikbare rich snippets. De productpagina wordt dus niet bezocht. Het is daarom essentieel om gestructureerde data op je productpagina te hebben, zodat je rich snippets kunt genereren.
Als je echter meer gedetailleerde input geeft, bijvoorbeeld “Ik ben op zoek naar een pneumatische krik voor een Ford Focus van 1.300 kilo. Ik wil de auto tot 50 cm kunnen opkrikken. Wat beveel je aan?”, moet ChatGPT dieper ingaan op de specificaties en de productpagina wél zelf bezoeken. Als dit is gebeurt, zie je dit uiteraard terug in de serverlogs, met de user-agent ‘ChatGPT-user’.
Waar vind je jouw serverlogs?
Inmiddels ben je waarschijnlijk nieuwsgierig geworden: waar vind je de serverlogs van jouw website?
Als marketeer of ondernemer kun je wellicht het best in gesprek gaan met je developer. Hij of zij weet als het goed is direct waar je het over hebt.
Ben je technisch ingesteld en wil je het zelf proberen? Vaak zie je je serverlogs eenvoudig in via je webhosting control panel, zoals Plesk of DirectAdmin. Het kan echter lastiger zijn om de volledige loggeschiedenis in dit soort systemen te bekijken. In dat geval is het handig om de logs via FTP te downloaden.
Als je de logs via FTP wilt downloaden, vind je ze bij veel shared hosting oplossingen in de “logs”-map wanneer je inlogt op je FTP-account (meestal op hetzelfde niveau als public_html). Bij dedicated hosting of een VPS bevinden ze zich vaak in de map /var/logs/.
Aangezien logbestanden vaak groot zijn, worden ze meestal per dag gecomprimeerd opgeslagen, vaak als een .tar.gz-bestand. Dit bestand kun je openen met programma’s zoals WinRAR of 7-Zip.
In de gecomprimeerde mappen vind je uiteindelijk een .txt- of .log-bestand, dat je eenvoudig kunt openen met programma’s zoals Kladblok of Notepad++.
Hoe analyseer je je serverlogs?
Wanneer je jouw serverlogs hebt gedownload, zul je al snel merken dat deze bestanden enorm veel gegevens bevatten. Logs kunnen flink groot worden, waardoor je specifieke software nodig hebt om ze te analyseren. Deze software wordt log file analysers genoemd.
Er zijn twee soorten log file analysers:
- Online log file analysers importeren je logbestanden automatisch, waardoor ze gebruiksvriendelijker zijn. Je kunt de logs vervolgens analyseren via een eenvoudige interface. Een voorbeeld van zo’n online tool is Botify. Het nadeel van deze online diensten is dat ze vaak vrij duur zijn en dat je per website moet betalen.
- Offline log file analysers bestaan uit software die je op je computer installeert. Je moet de serverlogs handmatig downloaden, mogelijk uitpakken en vervolgens importeren voordat je ze kunt analyseren. Deze oplossing is minder gebruiksvriendelijk en tijdrovender, vooral bij grote logbestanden, en je computer kan zwaar belast worden.
Daar staat tegenover dat de kosten veel lager zijn. Bijvoorbeeld, de Log File Analyser van Screaming Frog kost slechts € 129 per jaar, ongeacht het aantal websites dat je analyseert.

De belangrijkste informatie op een rij
Er is veel nuttige informatie gedeeld. Wat hebben we nu precies behandeld? Hier volgt een overzicht van de belangrijkste punten:
- Serverlogs geven inzicht in of LLM’s jouw content hebben geraadpleegd om antwoorden samen te stellen. Dit biedt een blik op jouw zichtbaarheid binnen AI-tools.
- User-agents die eindigen op ‘bot’ duiden erop dat jouw content gecrawld is voor het trainen van kennis, terwijl user-agents die eindigen op ‘user’ aangeven dat jouw content gebruikt is voor het ophalen van actuele informatie.
- Het laten crawlen van je content voor kennistraining is cruciaal om je producten of diensten bekend te maken bij AI-tools. Hier krijg je doorgaans echter geen directe bronvermelding mee.
- Wanneer je content wordt gecrawld voor actuele informatie, word je wel expliciet vermeld als bron in het antwoord. Dit gebeurt echter voornamelijk bij ChatGPT en Perplexity, en enkel wanneer zij vinden dat actuele informatie nodig is.
- Hoe vaak je direct als bron wordt genoemd in LLM’s kun je bijhouden door het aantal user-agents die eindigen op ‘user’ te registreren.
- Shopping-resultaten worden niet altijd in realtime opgehaald; dit hangt af van de specifieke zoekopdracht.
Op de hoogte gehouden van inzichten uit ons experiment?
Nog meer kennis opdoen over hoe je vindbaar wordt in AI-zoekmachines? En altijd op de hoogte gehouden worden van inzichten uit ons experiment? Meld je gratis aan voor onze AI-hub!