De SEO-wereld is altijd in ontwikkeling en anno 2023 misschien wel meer dan ooit tevoren. AI begint immers een steeds grotere rol te spelen. Als onlinemarketingbureau is het dan ook cruciaal om bovenop deze ontwikkelingen te zitten en daar houden wij ons bij DoubleSmart ook mee bezig.
Eén van de middelen om kennis te verrijken is door conferenties te bezoeken. Op 13 en 14 september bezocht één van onze SEO-specialisten, Patrick Straver, de SMX Advanced conference in Berlijn. Dit is een SEO- & PPC-conferentie volledig gericht op de ervaren specialisten. Hier deed hij interessante inzichten op en de 5 belangrijkste lees jij in dit blog.
Na het lezen van dit blog weet je meer over:
Veel bedrijven huren SEO-, SEA- en socialmediaspecialisten in om ervoor te zorgen dat er veel verkeer naar hun website komt, met het idee dat dit meer omzet op zou moeten leveren. Keynote spreker en CRO-goeroe André Morys wijst iedereen erop dat de website net zo belangrijk is bij het behalen van deze doelen. Een website waarop het voor de websitebezoekers lastig is om tot een conversie te komen zal minder snel de voor de onlinecampagne gestelde doelen behalen.
Op dit vlak moeten bedrijven bij zichzelf te rade gaan of ze een ‘vaste mindset’ of ‘groeimindset’ hebben. Bedrijven met een vaste mindset maken keuzes op basis van aanzien, ervaring of positie binnen het bedrijf. Bedrijven met een ‘groeimindset’ staan erom bekend dat ze niet weten wat de beste manier is om te groeien, maar dat ze dit wel willen onderzoeken om het voor elkaar te krijgen. Zij willen de concurrent verslaan door sneller te leren.
Een goed voorbeeld van een bedrijf met een ‘groeimindset’ is Booking.com, die in de wereldwijde hotelbranche een dominante positie heeft opgebouwd. De sleutel tot dit succes? Het uitvoeren van duizenden A/B-tests. Hierbij stond centraal dat deze tests mochten falen. Sterker nog: slechts 10% van de tests bleek een succes te zijn en ook 10% van de tests faalde. Maar liefst 80% van de tests zorgde niet voor een verschil, waarmee deze dus ook geen succes bleken te zijn. Falen is dus onderdeel van een CRO-traject; het is noodzakelijk om je bedrijf te doen groeien.
De komst van AI gaat de wereld van online marketing sterk veranderen. Waar er vroeger heel specifiek op zoekwoorden en later zoekintentie werd geoptimaliseerd, zal er met AI een nieuwe stap worden gezet. Dit zal een grote impact hebben op zowel de manier waarop we zoeken, als waarop Google websites zal indexeren. Google verwacht dat dit de grootste verandering is sinds de introductie van de Page Rank.
Een belangrijk onderdeel is dat Google websites beter gaat begrijpen, dankzij AI. Tot op heden leert Google websites onder andere te begrijpen door middel van structured data. Dit is een goed systeem, maar tevens erg beperkt; zowel in het verschil van templates voor themaopmaak als de onderliggende opties hierbij. AI kan websites veel beter begrijpen, op een manier waarmee de huidige structured data in het niets valt.
Stel, je hebt een website waarmee je een villa verhuurt. Op de website staat dat er bij het zwembad ook nog een apart zwembad zit dat is omgeven door een hek en dat slechts 50 centimeter diep is. Als een persoon dit leest, begrijpt hij meteen dat dit een peutervriendelijk zwembad is, zonder dat dit daadwerkelijk wordt benoemd. Google is momenteel nog niet slim genoeg om deze logica toe te passen, maar met de komst van AI gaat dit veranderen.
Wat heeft dit voor gevolgen voor jouw website? Vooropgesteld moet deze goed opgebouwd zijn. Communiceer zo duidelijk en alomvattend mogelijk op de website, werk met duidelijke silo’s en denk ook goed na over filters op pagina’s van bijvoorbeeld productcategorieën. Hier staat tegenover dat het belang van structured data steeds verder af zal nemen, aangezien Google dit niet meer nodig heeft om de website te begrijpen.
Op het gebied van de zoekmachine zelf lijkt Google niet het pad van Bing te volgen, die AI via een chatfunctie heeft geïntegreerd in de zoekmachine. Google heeft specifiek aangegeven dat het AI in de huidige zoekmachine gaat toepassen, waarbij de tests rondom de ‘Search Generative Experience’ (SGE) een goed voorbeeld zijn.
De verwachting is dan ook dat Google op basis van AI de zoekopdracht steeds specifieker zal maken. Hiervan zijn ook al voorbeelden zichtbaar. Wanneer je een zoekopdracht invoert, stelt Google zelf ideeën voor om je zoekopdracht uit te breiden. Voor online marketeers betekent dit dus dat de longtail zoekwoorden verveelvoudigd gaan worden.
Artifical intelligence zet dit jaar de werkzaamheden van online marketeers aardig op z’n kop. Er is ontzettend veel mogelijk. Toch is AI zeker niet op alles het magische antwoord. Het helpt je echt niet zomaar sneller gevonden te worden online. Je moet goed weten waar je AI wel en niet goed voor kunt gebruiken, iets wat de Amerikaanse Lily Ray duidelijk wist te maken tijdens haar presentatie op SMX.
Het is belangrijk om te weten dat AI wordt gevormd door Large Language Models. Dit zijn algoritmes die content kunnen begrijpen (ook in verschillende talen), van content kunnen leren en die deze informatie kunnen toepassen in bijvoorbeeld zelfgeschreven content of analyses.
Alle kennis waar een AI-systeem dus over beschikt, is gebaseerd op informatie die het systeem op verschillende plekken op het internet heeft gevonden. Een goed controlesysteem voor of de gevonden informatie ook daadwerkelijk klopt is er niet. Daarom kan het goed voorkomen dat je, als je zou vragen wat de uitkomst is van een simpele som als 1+1, 3 als antwoord krijgt. Dit is dan bijvoorbeeld het gevolg van dat 1+1=3 op verschillende plekken op het internet staat.
Een ander probleem met AI is dat AI altijd antwoord wil geven. Vraag je bijvoorbeeld iets waar het AI-systeem geen antwoord op weet, zoals recente ontwikkelingen waar het systeem nog geen kennis over heeft, zal deze proberen op basis van de bestaande kennis een antwoord geven. Vaak zal het antwoord niet kloppen met de werkelijkheid, terwijl het AI-systeem niet aangeeft dat het aannames heeft gedaan of informatie geeft die niet gebaseerd is op bestaande kennis.
Om deze reden kan AI wel goed teksten schrijven, maar voor kwalitatief goede teksten zal er altijd een mens met de benodigde expertise nodig zijn om de opgestelde content te controleren.
Een ander probleem betreft de regelgeving rondom AI. Dit is nu nog iets dat in de kinderschoenen staat. Alles lijkt mogelijk te zijn door het gebrek aan regelgeving, maar is dat ook echt zo? AI-systemen gebruiken content van andere websites om bijvoorbeeld nieuwe content te creëren, zonder dat er ook maar een vermelding wordt geplaatst naar de bron van de informatie. Er wordt met name in de EU dan ook hard gewerkt aan regelgeving voor AI die copyrights moet beschermen.
Tegenwoordig kun je AI ook voorzien van eigen input, bijvoorbeeld bestanden met gegevens die je wilt analyseren of modificeren. Hierbij is het niet ongebruikelijk dat er volledige klantbestanden met persoonsgegevens worden geüpload naar een systeem, waar helemaal geen verwerkersovereenkomst mee is. Wat wordt er nog meer met deze bestanden gedaan dan alleen het uitvoeren van de gewenste analyses? Een datalek is op deze wijze eenvoudig veroorzaakt, door niemand minder dan een onwetende medewerker uit je eigen organisatie!
Als laatste zijn de AI-systemen vaak slechts getraind tot een bepaald moment. Zowel ChatGPT als Claude (een AI-systeem dat nog niet in Nederland beschikbaar is) gebruikt kennis die minimaal een halfjaar oud is. Daarom kunnen deze systemen op basis van actuele informatie geen kennis geven, maar als je hierom vraagt geven ze dus niet aan dat ze deze kennis niet hebben! Bing en Bard (van Google) beschikken wel over actuele kennis.
Als je kijkt naar de genoemde problemen, is het ook niet vreemd dat AI-content in veel gevallen minder goed in Google zal ranken dan je aanvankelijk zou verwachten. Als je niet goed met de AI-content omspringt, kan het zeker de kwaliteit van je website verslechteren. Terwijl je het tegenovergestelde juist verwacht!
Als er dan zoveel problemen met AI zijn, waar kun je het dan wel goed voor inzetten? Een aantal voorbeelden:
Duurzaamheid is voor veel bedrijven één van de thema’s waarmee ze zichzelf positief in de markt proberen te zetten. Er wordt dan onder andere gekeken naar verpakkingen van levensmiddelen, schoner woon-werkverkeer en een duurzame werkomgeving voor werknemers. Hierbij wordt echter vaak één ding over het hoofd gezien: het internet stoot veel meer schadelijks uit dan dat je zou denken.
Op SMX Advanced gaf Joost de Valk, oprichter van de welbekende Yoast plugin, een vurig betoog over een duurzamere manier van denken bij het optimaliseren van websites. Als we namelijk doorgaan op de manier hoe we nu bezig zijn, zal naar verwachting 20% van alle geproduceerde elektriciteit op de wereld gebruikt worden voor het internet in 2025.
Veel online marketeers realiseren niet hoeveel verkeer er daadwerkelijk op een website komt. Wat je in Google Analytics ziet is slechts een fractie van het daadwerkelijke verkeer op een site. Het grootste gedeelte van het websiteverkeer wordt namelijk door bots gevormd. Als voorbeeld gaf hij een website die uit vier bestanden bestond en in een maand 160 pageviews kreeg. Hij kreeg dus ongeveer 640 ‘hits’ van echte bezoekers. Het werkelijke aantal hits op basis van de serverlogs? 608.000!
Waar bestaat dit ‘spookverkeer’ dan uit? Voor een deel uit crawlers van zoekmachines, AI-systemen en tools zoals Ahrefs en Majestic, maar voor het grootste deel uit crawlers van hackers die het internet afspeuren voor data die ze kunnen misbruiken of die speuren naar kwetsbaarheden bij websites.
Vaak wordt er gedacht dat het goed is als een zoekmachine je website meer bezoekt. Een crawler loopt redelijk willekeurig door de website heen, dus als deze vaker langskomt is de kans dus groter dat je gewijzigde of nieuwe content wordt gevonden.
Dit scenario is echter inmiddels achterhaald. Als we naar Google kijken, kun je in je XML-sitemap een lastmod-veld toevoegen waarin je aangeeft wanneer een pagina voor het laatste aangepast is. Zo kan Google heel gericht indexeren. Bing heeft zelfs al ondersteuning voor IndexNow, waarbij je website letterlijk een seintje aan de zoekmachine geeft dat er een pagina aangepast is. Het gevolg is dat zoekmachines niet per se grote hoeveelheden pagina’s hoeven te bezoeken. Zolang je je website goed ingericht hebt.
Via de robots.txt kun je zoekmachines instructies geven om alle pagina’s die niet bijdragen aan je vindbaarheid uit te sluiten. Kijk hierbij goed naar URL’s die met name sitebuilders als WordPress automatisch aanmaken, zoals allerlei feeds, categoriepagina’s en tag-pagina’s. Crawlers van betrouwbare bedrijven zouden altijd de robots.txt moeten respecteren, dus hiermee kun je al veel bereiken als het gaat om duurzaamheid.
Je kunt ook kritisch kijken naar welke zoekmachines je website mogen crawlen. Heb je een website die zich volledig op Nederland focust, is het dan wel nodig dat het Chinese Baidu of het Russische Yandex je website crawlen?
Waar crawlers van betrouwbare bedrijven zich keurig aan de robots.txt houden, geldt dit uiteraard niet voor crawlers van hackers. De belangrijkste acties die je hiertegen kunt ondernemen is het verminderen van het aantal pagina’s binnen de website tot wat je echt nodig hebt. Waar je voor bijvoorbeeld zoekmachines nog feeds, categoriepagina’s en tag-pagina’s via de robots.txt kunt uitsluiten, kun je deze pagina’s voor hackers beter volledig verwijderen.
Op serverniveau kun je uiteraard ook actie ondernemen om het verkeer van hackers te voorkomen. Werk bijvoorbeeld met een whitelist en een blacklist van crawlers, waarbij niet bekende crawlers automatisch op een blacklist worden geplaatst indien deze te actief zijn op de website.
Naast acties om de bots te beperken in hun bewegingsvrijheid, kun je ook goed kijken naar hoe je website laadt. Een website die sneller en efficiënter laadt is duurzamer dan een website die trager laadt. Dit wordt vaak veroorzaakt door er het inladen van veel onnodige data.
Hier wordt het vervolgens wel complex: vanuit duurzaamheid wil je dat een website uit zo min mogelijk bestanden bestaat, terwijl moderne browsers zijn ingericht om te kunnen multitasken en om bijvoorbeeld sneller 10 kleine bestandjes in te laden dan één groot bestand. Je zult dus een compromis moeten vinden, waarbij je bijvoorbeeld kleine bestandjes van enkele kB’s bundelt in één groter – maar niet te groot – bestand van 20 kB.
Te grote bestanden wil je niet hebben, want dat gaat ten koste van de snelheid van je website en dat zal met name problematisch zijn voor de nieuwe Interaction to Next Paint core web vital.
Naast dat duurzaamheid voor bedrijven marketingtechnisch aantrekkelijk is, zullen ze zich er ook vanuit de wetgeving bewuster mee bezig moeten houden. Bedrijven vanaf 100 medewerkers zullen vanaf 1 januari 2024 zelf hun volledige uitstoot in kaart moeten brengen, wat dus ook de uitstoot van hun website zal betreffen. Er zal voor veel bedrijven dus een onaangename verrassing te wachten staan.
Voor een aantrekkelijk zoekresultaat in Google heb je de page title en meta description optimaal ingestoken en structured data toegevoegd, dus nu ben je klaar om zoveel mogelijk organisch verkeer naar je website te trekken. Tot recent was dit zeker zo, maar die tijd is voorbij.
Google probeert de zoekresultaten steeds meer aan te laten sluiten bij de pagina, wat voor een belangrijk deel gebeurt door het gebruik van afbeeldingen. Markus Hövener gaf hier op SMX interessante inzichten voor.
Meer visuele elementen in de zoekresultaten bieden SEO-specialisten nieuwe middelen om hun zoekresultaten meer op te doen vallen. Het nadeel is echter dat ze niet direct grip hebben op welke afbeelding(en) van een pagina gekozen wordt om te tonen in de zoekresultaten. Het kan zelfs voorkomen dat Google voor dezelfde pagina verschillende afbeeldingen toont, afhankelijk van het gebruikte zoekwoord. Ook geeft Google geen informatie over welke afbeelding geselecteerd is, waardoor het verzamelen van data voor een onderzoek erg lastig wordt.
Toch is het niet zo dat je hier als SEO-specialist helemaal niets mee kunt doen. Vaak wordt de eerste grote afbeelding boven de vouw gepakt, bijvoorbeeld de hero-afbeelding. Door een specifieke afbeelding verder te optimaliseren voor het zoekresultaat, kun je Google sturen naar de afbeelding die je wilt tonen. Hiervoor kun je de volgende richtlijnen gebruiken:
Echter zijn dit alleen richtlijnen voor afbeeldingen die bij zoekresultaten getoond worden. Google heeft meer diensten, waarbij weer totaal andere regels gelden. Zo wordt voor Google Discover zelfs minimale afbeeldingbreedtes van 1200 pixels aangeraden, terwijl de carrousel-functie van Google weer liggende afbeeldingen gebruikt. En ook sociale media zoals Facebook en Twitter hebben weer andere afbeeldingresoluties.
Het advies is dan ook: ga voor een compromis tussen al deze vereisten. Dit doe je door je hoofdboodschap in het centrum van je afbeelding te plaatsen, terwijl de randen ongebruikt blijven. Zo verminder je het risico dat er een platform is waarbij je geselecteerde afbeelding niet zijn doel mist.