/ leestijd 17 min.

SMX Advanced in Berlijn: de 5 grootste SEO-ontwikkelingen

  • SEO

De SEO-wereld is altijd in ontwikkeling en anno 2023 misschien wel meer dan ooit tevoren. AI begint immers een steeds grotere rol te spelen. Als onlinemarketingbureau is het dan ook cruciaal om bovenop deze ontwikkelingen te zitten en daar houden wij ons bij DoubleSmart ook mee bezig.

Eén van de middelen om kennis te verrijken is door conferenties te bezoeken. Op 13 en 14 september bezocht één van onze SEO-specialisten, Patrick Straver, de SMX Advanced conference in Berlijn. Dit is een SEO- & PPC-conferentie volledig gericht op de ervaren specialisten. Hier deed hij interessante inzichten op en de 5 belangrijkste lees jij in dit blog.

Na het lezen van dit blog weet je meer over:

  • Het effect van een groeimindset;
  • Hoe je je website begrijpelijk maakt voor Google;
  • Waar je AI goed voor kan gebruiken als online marketeer;
  • Hoe je je website duurzamer maakt met behulp van SEO en;
  • Tips om afbeeldingen op een SEO-geoptimaliseerde manier in te zetten.

1. Stuur niet alleen verkeer naar je website, maar laat het ook converteren

Veel bedrijven huren SEO-, SEA- en socialmediaspecialisten in om ervoor te zorgen dat er veel verkeer naar hun website komt, met het idee dat dit meer omzet op zou moeten leveren. Keynote spreker en CRO-goeroe André Morys wijst iedereen erop dat de website net zo belangrijk is bij het behalen van deze doelen. Een website waarop het voor de websitebezoekers lastig is om tot een conversie te komen zal minder snel de voor de onlinecampagne gestelde doelen behalen.

Op dit vlak moeten bedrijven bij zichzelf te rade gaan of ze een ‘vaste mindset’ of ‘groeimindset’ hebben. Bedrijven met een vaste mindset maken keuzes op basis van aanzien, ervaring of positie binnen het bedrijf. Bedrijven met een ‘groeimindset’ staan erom bekend dat ze niet weten wat de beste manier is om te groeien, maar dat ze dit wel willen onderzoeken om het voor elkaar te krijgen. Zij willen de concurrent verslaan door sneller te leren.

Een goed voorbeeld van een bedrijf met een ‘groeimindset’ is Booking.com, die in de wereldwijde hotelbranche een dominante positie heeft opgebouwd. De sleutel tot dit succes? Het uitvoeren van duizenden A/B-tests. Hierbij stond centraal dat deze tests mochten falen. Sterker nog: slechts 10% van de tests bleek een succes te zijn en ook 10% van de tests faalde. Maar liefst 80% van de tests zorgde niet voor een verschil, waarmee deze dus ook geen succes bleken te zijn. Falen is dus onderdeel van een CRO-traject; het is noodzakelijk om je bedrijf te doen groeien.

2. Hoe AI het zoekgedrag van de consument verandert

De komst van AI gaat de wereld van online marketing sterk veranderen. Waar er vroeger heel specifiek op zoekwoorden en later zoekintentie werd geoptimaliseerd, zal er met AI een nieuwe stap worden gezet. Dit zal een grote impact hebben op zowel de manier waarop we zoeken, als waarop Google websites zal indexeren. Google verwacht dat dit de grootste verandering is sinds de introductie van de Page Rank.

Google gaat websites beter begrijpen

Een belangrijk onderdeel is dat Google websites beter gaat begrijpen, dankzij AI. Tot op heden leert Google websites onder andere te begrijpen door middel van structured data. Dit is een goed systeem, maar tevens erg beperkt; zowel in het verschil van templates voor themaopmaak als de onderliggende opties hierbij. AI kan websites veel beter begrijpen, op een manier waarmee de huidige structured data in het niets valt.

Stel, je hebt een website waarmee je een villa verhuurt. Op de website staat dat er bij het zwembad ook nog een apart zwembad zit dat is omgeven door een hek en dat slechts 50 centimeter diep is. Als een persoon dit leest, begrijpt hij meteen dat dit een peutervriendelijk zwembad is, zonder dat dit daadwerkelijk wordt benoemd. Google is momenteel nog niet slim genoeg om deze logica toe te passen, maar met de komst van AI gaat dit veranderen.

Wat heeft dit voor gevolgen voor jouw website? Vooropgesteld moet deze goed opgebouwd zijn. Communiceer zo duidelijk en alomvattend mogelijk op de website, werk met duidelijke silo’s en denk ook goed na over filters op pagina’s van bijvoorbeeld productcategorieën. Hier staat tegenover dat het belang van structured data steeds verder af zal nemen, aangezien Google dit niet meer nodig heeft om de website te begrijpen.

Google en Bing lijken andere paden te volgen

Op het gebied van de zoekmachine zelf lijkt Google niet het pad van Bing te volgen, die AI via een chatfunctie heeft geïntegreerd in de zoekmachine. Google heeft specifiek aangegeven dat het AI in de huidige zoekmachine gaat toepassen, waarbij de tests rondom de ‘Search Generative Experience’ (SGE) een goed voorbeeld zijn.

De verwachting is dan ook dat Google op basis van AI de zoekopdracht steeds specifieker zal maken. Hiervan zijn ook al voorbeelden zichtbaar. Wanneer je een zoekopdracht invoert, stelt Google zelf ideeën voor om je zoekopdracht uit te breiden. Voor online marketeers betekent dit dus dat de longtail zoekwoorden verveelvoudigd gaan worden.

3. Het toepassen van AI als online marketeer

Artifical intelligence zet dit jaar de werkzaamheden van online marketeers aardig op z’n kop. Er is ontzettend veel mogelijk. Toch is AI zeker niet op alles het magische antwoord. Het helpt je echt niet zomaar sneller gevonden te worden online. Je moet goed weten waar je AI wel en niet goed voor kunt gebruiken, iets wat de Amerikaanse Lily Ray duidelijk wist te maken tijdens haar presentatie op SMX.

De tekortkomingen van AI

Het is belangrijk om te weten dat AI wordt gevormd door Large Language Models. Dit zijn algoritmes die content kunnen begrijpen (ook in verschillende talen), van content kunnen leren en die deze informatie kunnen toepassen in bijvoorbeeld zelfgeschreven content of analyses.

Alle kennis waar een AI-systeem dus over beschikt, is gebaseerd op informatie die het systeem op verschillende plekken op het internet heeft gevonden. Een goed controlesysteem voor of de gevonden informatie ook daadwerkelijk klopt is er niet. Daarom kan het goed voorkomen dat je, als je zou vragen wat de uitkomst is van een simpele som als 1+1, 3 als antwoord krijgt. Dit is dan bijvoorbeeld het gevolg van dat 1+1=3 op verschillende plekken op het internet staat.

AI wil antwoord antwoord geven
Een ander probleem met AI is dat AI altijd antwoord wil geven. Vraag je bijvoorbeeld iets waar het AI-systeem geen antwoord op weet, zoals recente ontwikkelingen waar het systeem nog geen kennis over heeft, zal deze proberen op basis van de bestaande kennis een antwoord geven. Vaak zal het antwoord niet kloppen met de werkelijkheid, terwijl het AI-systeem niet aangeeft dat het aannames heeft gedaan of informatie geeft die niet gebaseerd is op bestaande kennis.

Om deze reden kan AI wel goed teksten schrijven, maar voor kwalitatief goede teksten zal er altijd een mens met de benodigde expertise nodig zijn om de opgestelde content te controleren.

De regelgeving rondom AI
Een ander probleem betreft de regelgeving rondom AI. Dit is nu nog iets dat in de kinderschoenen staat. Alles lijkt mogelijk te zijn door het gebrek aan regelgeving, maar is dat ook echt zo? AI-systemen gebruiken content van andere websites om bijvoorbeeld nieuwe content te creëren, zonder dat er ook maar een vermelding wordt geplaatst naar de bron van de informatie. Er wordt met name in de EU dan ook hard gewerkt aan regelgeving voor AI die copyrights moet beschermen.

Tegenwoordig kun je AI ook voorzien van eigen input, bijvoorbeeld bestanden met gegevens die je wilt analyseren of modificeren. Hierbij is het niet ongebruikelijk dat er volledige klantbestanden met persoonsgegevens worden geüpload naar een systeem, waar helemaal geen verwerkersovereenkomst mee is. Wat wordt er nog meer met deze bestanden gedaan dan alleen het uitvoeren van de gewenste analyses? Een datalek is op deze wijze eenvoudig veroorzaakt, door niemand minder dan een onwetende medewerker uit je eigen organisatie!

AI-systemen zijn getraind tot een bepaald moment
Als laatste zijn de AI-systemen vaak slechts getraind tot een bepaald moment. Zowel ChatGPT als Claude (een AI-systeem dat nog niet in Nederland beschikbaar is) gebruikt kennis die minimaal een halfjaar oud is. Daarom kunnen deze systemen op basis van actuele informatie geen kennis geven, maar als je hierom vraagt geven ze dus niet aan dat ze deze kennis niet hebben! Bing en Bard (van Google) beschikken wel over actuele kennis.

Als je kijkt naar de genoemde problemen, is het ook niet vreemd dat AI-content in veel gevallen minder goed in Google zal ranken dan je aanvankelijk zou verwachten. Als je niet goed met de AI-content omspringt, kan het zeker de kwaliteit van je website verslechteren. Terwijl je het tegenovergestelde juist verwacht!

Waar kan AI wel goed voor worden gebruikt?

Als er dan zoveel problemen met AI zijn, waar kun je het dan wel goed voor inzetten? Een aantal voorbeelden:

Contentcreatie: AI-systemen kunnen goed content creëren, zolang je maar een menselijke controle hebt om de opgestelde content te controleren.
Inspiratie: ga je een tekst schrijven, of zit je vast bij het schrijven van een tekst? Vraag een AI-systeem om inspiratie voor deze tekst. Het kan je inzichten geven waar je zelf niet direct aan had gedacht.
Herschrijven van content: je hebt voor een opdrachtgever een tekst geschreven, maar hebt te horen gekregen dat de tone of voice niet gewenst is? Als je je eigen tekst aanlevert, kan AI deze eenvoudig in een andere stijl herschrijven.
Content vergelijkingen: je rankt in Google slechter dan een concurrent, maar weet niet waardoor dit komt? Een AI-systeem kan de content eenvoudig vergelijken met die van de concurrentie. Geef de URL’s van jouw landingspagina en die van je concurrent, plus eventueel een link naar de richtlijnen van Google en vraag om een vergelijking tussen beide pagina’s. Dit geeft je nieuwe inzichten voor het verbeteren van je eigen pagina.
Clusteren van data: het verzamelen van data is vaak veel werk, maar het clusteren van die data is misschien nog wel meer werk! AI kan daarin helpen, bijvoorbeeld door zoekwoorden uit een zoekwoordonderzoek te clusteren.
Structured data creëren: structured data opstellen kan een aardige klus zijn wanneer je dit zonder plugins moet doen. AI-systemen kunnen dit veel efficiënter. Geef de benodigde informatie en dit wordt volledig omgezet naar structured data. Dit kun je direct voor je website gebruiken.
Patronen herkennen: voor bepaalde SEO-analyses kan het erg handig zijn om patronen te herkennen, zoals waarom bepaalde pagina’s wel goed ranken en andere niet. Geef AI de juiste input en vraag of er patronen kunnen worden gevonden. Dit soort analyses kosten jou veel tijd, maar een AI-systeem maalt er niet om.
Het visualiseren van data: visuele content creëren bij een verhaal of data is vaak een tijdrovende klus, waardoor het er vaak bij in schiet. Geef AI de juiste data en het creëert de visuals die je direct kunt gebruiken.
Creëren van FAQ’s: FAQ’s zijn een effectief middel om de kwaliteit van een pagina voor online vindbaarheid te verbeteren, maar zijn erg tijdrovend in het opzetten. Voed het AI-systeem met de content van je pagina en vraag om op basis van deze content een FAQ op te stellen. Tip: vraag hierbij ook meteen om de FAQ structured data, zo ben je direct klaar.

4. Een duurzamere wereld begint bij de SEO-specialist

Duurzaamheid is voor veel bedrijven één van de thema’s waarmee ze zichzelf positief in de markt proberen te zetten. Er wordt dan onder andere gekeken naar verpakkingen van levensmiddelen, schoner woon-werkverkeer en een duurzame werkomgeving voor werknemers. Hierbij wordt echter vaak één ding over het hoofd gezien: het internet stoot veel meer schadelijks uit dan dat je zou denken.

Op SMX Advanced gaf Joost de Valk, oprichter van de welbekende Yoast plugin, een vurig betoog over een duurzamere manier van denken bij het optimaliseren van websites. Als we namelijk doorgaan op de manier hoe we nu bezig zijn, zal naar verwachting 20% van alle geproduceerde elektriciteit op de wereld gebruikt worden voor het internet in 2025.

Veel online marketeers realiseren niet hoeveel verkeer er daadwerkelijk op een website komt. Wat je in Google Analytics ziet is slechts een fractie van het daadwerkelijke verkeer op een site. Het grootste gedeelte van het websiteverkeer wordt namelijk door bots gevormd. Als voorbeeld gaf hij een website die uit vier bestanden bestond en in een maand 160 pageviews kreeg. Hij kreeg dus ongeveer 640 ‘hits’ van echte bezoekers. Het werkelijke aantal hits op basis van de serverlogs? 608.000!

Waar bestaat dit ‘spookverkeer’ dan uit? Voor een deel uit crawlers van zoekmachines, AI-systemen en tools zoals Ahrefs en Majestic, maar voor het grootste deel uit crawlers van hackers die het internet afspeuren voor data die ze kunnen misbruiken of die speuren naar kwetsbaarheden bij websites.

Bots van zoekmachines, AI-systemen en tools

Vaak wordt er gedacht dat het goed is als een zoekmachine je website meer bezoekt. Een crawler loopt redelijk willekeurig door de website heen, dus als deze vaker langskomt is de kans dus groter dat je gewijzigde of nieuwe content wordt gevonden.

Dit scenario is echter inmiddels achterhaald. Als we naar Google kijken, kun je in je XML-sitemap een lastmod-veld toevoegen waarin je aangeeft wanneer een pagina voor het laatste aangepast is. Zo kan Google heel gericht indexeren. Bing heeft zelfs al ondersteuning voor IndexNow, waarbij je website letterlijk een seintje aan de zoekmachine geeft dat er een pagina aangepast is. Het gevolg is dat zoekmachines niet per se grote hoeveelheden pagina’s hoeven te bezoeken. Zolang je je website goed ingericht hebt.

Via de robots.txt kun je zoekmachines instructies geven om alle pagina’s die niet bijdragen aan je vindbaarheid uit te sluiten. Kijk hierbij goed naar URL’s die met name sitebuilders als WordPress automatisch aanmaken, zoals allerlei feeds, categoriepagina’s en tag-pagina’s. Crawlers van betrouwbare bedrijven zouden altijd de robots.txt moeten respecteren, dus hiermee kun je al veel bereiken als het gaat om duurzaamheid.

Je kunt ook kritisch kijken naar welke zoekmachines je website mogen crawlen. Heb je een website die zich volledig op Nederland focust, is het dan wel nodig dat het Chinese Baidu of het Russische Yandex je website crawlen?

Bots van hackers

Waar crawlers van betrouwbare bedrijven zich keurig aan de robots.txt houden, geldt dit uiteraard niet voor crawlers van hackers. De belangrijkste acties die je hiertegen kunt ondernemen is het verminderen van het aantal pagina’s binnen de website tot wat je echt nodig hebt. Waar je voor bijvoorbeeld zoekmachines nog feeds, categoriepagina’s en tag-pagina’s via de robots.txt kunt uitsluiten, kun je deze pagina’s voor hackers beter volledig verwijderen.

Op serverniveau kun je uiteraard ook actie ondernemen om het verkeer van hackers te voorkomen. Werk bijvoorbeeld met een whitelist en een blacklist van crawlers, waarbij niet bekende crawlers automatisch op een blacklist worden geplaatst indien deze te actief zijn op de website.

Snellere websites

Naast acties om de bots te beperken in hun bewegingsvrijheid, kun je ook goed kijken naar hoe je website laadt. Een website die sneller en efficiënter laadt is duurzamer dan een website die trager laadt. Dit wordt vaak veroorzaakt door er het inladen van veel onnodige data.

Hier wordt het vervolgens wel complex: vanuit duurzaamheid wil je dat een website uit zo min mogelijk bestanden bestaat, terwijl moderne browsers zijn ingericht om te kunnen multitasken en om bijvoorbeeld sneller 10 kleine bestandjes in te laden dan één groot bestand. Je zult dus een compromis moeten vinden, waarbij je bijvoorbeeld kleine bestandjes van enkele kB’s bundelt in één groter – maar niet te groot – bestand van 20 kB.

Te grote bestanden wil je niet hebben, want dat gaat ten koste van de snelheid van je website en dat zal met name problematisch zijn voor de nieuwe Interaction to Next Paint core web vital.

Noodzakelijk voor grote bedrijven

Naast dat duurzaamheid voor bedrijven marketingtechnisch aantrekkelijk is, zullen ze zich er ook vanuit de wetgeving bewuster mee bezig moeten houden. Bedrijven vanaf 100 medewerkers zullen vanaf 1 januari 2024 zelf hun volledige uitstoot in kaart moeten brengen, wat dus ook de uitstoot van hun website zal betreffen. Er zal voor veel bedrijven dus een onaangename verrassing te wachten staan.

5. De visuele presentatie van zoekresultaten

Voor een aantrekkelijk zoekresultaat in Google heb je de page title en meta description optimaal ingestoken en structured data toegevoegd, dus nu ben je klaar om zoveel mogelijk organisch verkeer naar je website te trekken. Tot recent was dit zeker zo, maar die tijd is voorbij.

Google probeert de zoekresultaten steeds meer aan te laten sluiten bij de pagina, wat voor een belangrijk deel gebeurt door het gebruik van afbeeldingen. Markus Hövener gaf hier op SMX interessante inzichten voor.

Meer visuele elementen in de zoekresultaten bieden SEO-specialisten nieuwe middelen om hun zoekresultaten meer op te doen vallen. Het nadeel is echter dat ze niet direct grip hebben op welke afbeelding(en) van een pagina gekozen wordt om te tonen in de zoekresultaten. Het kan zelfs voorkomen dat Google voor dezelfde pagina verschillende afbeeldingen toont, afhankelijk van het gebruikte zoekwoord. Ook geeft Google geen informatie over welke afbeelding geselecteerd is, waardoor het verzamelen van data voor een onderzoek erg lastig wordt.

Toch is het niet zo dat je hier als SEO-specialist helemaal niets mee kunt doen. Vaak wordt de eerste grote afbeelding boven de vouw gepakt, bijvoorbeeld de hero-afbeelding. Door een specifieke afbeelding verder te optimaliseren voor het zoekresultaat, kun je Google sturen naar de afbeelding die je wilt tonen. Hiervoor kun je de volgende richtlijnen gebruiken:

  • Plaats de afbeelding hoog op de pagina.
  • Vierkante (1:1) afbeeldingen werken beter dan liggende of staande afbeeldingen.
  • Als er tekst in de afbeelding staat, moet deze ook verkleind nog goed leesbaar zijn.
  • Het beeld moet uniek zijn en uitnodigend zijn om op te klikken. Stockfoto’s werken vaak dus niet.
  • Geef de afbeelding een passende bestandsnaam en alt-tag.
  • Plaats een boodschap in de afbeelding die opvalt, zoals: een korting, sale en extra voordelen.
  • Zorg ervoor dat afbeeldingen minimaal 200 pixels breed zijn.

Echter zijn dit alleen richtlijnen voor afbeeldingen die bij zoekresultaten getoond worden. Google heeft meer diensten, waarbij weer totaal andere regels gelden. Zo wordt voor Google Discover zelfs minimale afbeeldingbreedtes van 1200 pixels aangeraden, terwijl de carrousel-functie van Google weer liggende afbeeldingen gebruikt. En ook sociale media zoals Facebook en Twitter hebben weer andere afbeeldingresoluties.

Het advies is dan ook: ga voor een compromis tussen al deze vereisten. Dit doe je door je hoofdboodschap in het centrum van je afbeelding te plaatsen, terwijl de randen ongebruikt blijven. Zo verminder je het risico dat er een platform is waarbij je geselecteerde afbeelding niet zijn doel mist.

Nieuwsbrief inschrijven

Meer weten over SEO?

We hebben een hele SEO-kennisbank voor je. Allemaal handige artikelen met bruikbare informatie die onze SEO-experts met alle liefde delen met de wereld!

Benieuwd naar de nieuwste marketingtips, inzichten en best practices? Schrijf je in voor de nieuwsbrief en ontvang ze zo in je mailbox!

meld je aan voor de nieuwsbrief

Deze content is verzorgd door

Patrick Straver

SEO-specialist

Patrick is dé expert op het gebied van technische optimalisatie van websites en in die rol verblijdt hij heel wat klanten met een gebruiksvriendelijkere en hoger rankende website.