Right SEO Redirects

Alle SEO takeaways van SMX Advanced!

Jaaa: hier is de samenvatting

Wat de Biënnale van Venetië voor kunst is, of de CES in Vegas voor consumentenelektronica en gadgets, is SMX Advanced in Berlijn voor SEO en PPC: het summum in nieuw, innovatief en bepalend.

Daar wil je naartoe. Of je bespaart jezelf de reis en geniet van de samenvatting van Christel. Let op: alleen voor gevorderde SEO’ers.


Data-driven Technical SEO

Merging Crawl, analytics & logfile data

Bastian Grimm begon de dag goed met volop aandacht voor een schandalig vaak genegeerde bron van data: (server)logfiles.

Waarom logfile-analyse? Om meerdere redenen met als misschien wel de voornaamste reden: het is de énige mogelijkheid om te zien hoe een crawler zich gedraagt op jouw website.

In logfiles zie je precies welke van je sitepagina’s veel gecrawld worden en welke pagina’s slecht of helemaal niet. Anders gezegd, hier zie je pas echt waar je kansen misloopt.

Bastian stelt dan ook dat logfile-analyses een vast onderdeel móeten zijn van je always-on SEO-strategie. Google Search Console geeft simpelweg te weinig specifieke data, het is tweedehands data en te basic.

Met logfile-analyses:

  • heb je inzicht in de prioriteit die Google geeft aan bepaalde pagina’s;
  • los je errors op, zodat deze de crawler niet meer in de weg staan;
  • zorg je ervoor dat Google alles kan crawlen;
  • kun je links en redirects beter optimaliseren.

Tools voor logfile-analyse

Logfiles kun je op verschillende manier uitlezen. Direct bijvoorbeeld, maar om nou te zeggen dat dat lekker wegleest, neuh. Dus is het goed om te weten dat er tools zijn. En je hebt ruime keuze:

Screamingfrog, heb je waarschijnlijk al, maar is voor dit doel net wat beperkt. Voor het serieuze werk is er Splunk, Sumo Logic, The Elestic Stack, Elesticsearch, Kibana, Logrunner.io, Logz.io, Loggly en CrawlOPTIMIZER.

Moeite met kiezen? The Elestic Stack, Elesticsearch & Kibana zijn open source en gratis. Logrunner.io is met name SEO-based.

logfiles seo

Aan de slag met logfile-analyse:

  1. Filter op user-agents (zoals Google). Bestudeer het crawlgedrag van de user-agent. Is het ongeveer elke week hetzelfde of zijn er onregelmatigheden? Kun je hier iets aan doen?
  2. Spot pieken of dalen. Dit zou je wekelijks moeten doen.
  3. Begrijp gemiddelde crawlrates. Hoe lang heeft Googlebot daadwerkelijk nodig om nieuwe content te crawlen en ranken?
  4. Gebruik logfiles om te zien of er spambots of scrapers op je site komen. Pas in reactie eventueel je robots.txt aan of block bepaalde IPs.
  5. Ontdek je meest gecrawlde pagina’s en haal hier meer uit door hier meer interne links naar andere pagina’s toe te voegen.
  6. Welke categorieën of PDP’s worden het meeste gecrawld? Deze kun je als belangrijk ervaren.
  7. Je kunt ook zien welke soorten content in de belangstelling van de crawler staan. Wordt Javascript meer gecrawld dan HTML? Log in & find out.

Log File Analyzer Pro-tip

Maak je dashboard(s) compleet met logfile-analyse. Verzamel alle logfiles, koppel een GA en GSC-api, haal alle IP-adressen weg voordat je de logfiles ergens heen stuurt (privacy), maak gebruik van Google Cloud Dataprep en sla de data op in BigQuery.

Maak vervolgens GAP- en andersoortige analyses (met deepcrawl) en breng ze tot leven in Data Studio. Zo werk je er voortaan makkelijk mee, als onderdeel van je integrale SEO-workflow.


Tags, sitemaps & API indexing

Hacks voor betere crawlbaarheid

Hoe makkelijk is het om je site te crawlen? Dat is de vraag die je jezelf volgens Jes Scholz moet stellen. Want hoe beter je site te crawlen is, des te beter Google je weet te ranken.

Vraag twee is dan: hoe zorg je ervoor dat je site makkelijker gecrawld wordt? Hoe optimaliseer je je crawl-budget? Jes heeft een paar handige hacks:

  • Zorg ervoor dat je site responsive is en snel laadt.
  • Server errors komen ten nadele van je crawlbudget. Nu denk je natuurlijk: ‘zo opgelost met 301’. Bijna goed, niet altijd. Je betaalt namelijk 2 keer voor een redirect. De eerste crawl voor de originele pagina en de tweede voor de bestemmingspagina. Een betere oplossing is vaak een 410, daarmee laat je Google weten dat de pagina bewust deleted is en snel(ler) uit de index mag.

 
Right SEO Redirects

  • Pas op voor redirect chains! Na de 5e redirect stopt Google met crawlen.
  • Zet geen redirects in XML sitemaps. Alleen in bestemmingspagina’s.
  • Vermijd verwijzingen naar pagina’s die niet bestaan. Denk aan paginatie. Als je bij Google aangeeft dat p=20, of p=200, dan blijft ie ‘m crawlen. Ook al is er geen pagina na p=10 meer.
  • Geef parameters aan in GSC, anders blijft hij op zoek en crawlen.
  • AMP: bij AMP worden er effectief twee URL’s geïndexeerd. En dat is risicovol. Het is beter om je eigen site op orde te krijgen qua laadsnelheid dan blind op AMP te vertrouwen.
  • Als je Googlebot uitsluit in robots.txt betekent het niet dat andere bots je content niet kunnen crawlen (en alsnog openbaren). Bekijk dus goed in je logfiles welke bots je crawlen en welke je kunt uitsluiten.
  • No-brainer tussendoor: link niet naar pagina’s die je niet geïndexeerd wilt hebben.
  • Als je een noindex-tag hebt op je pagina, maar je zet hem in de robots.txt op een disavow, dan kan de pagina nog geïndexeerd worden. Let goed op je robots.txt-restricties.
  • Zet goede onpage SEO niet in JS.
  • Render je content serverside.
  • En, last but not least, zet alleen voor SEO relevante pagina’s in de XML sitemap en gebruik de last modified-tag (changefreq en de prio is niet belangrijk voor Google).

 
Welkom robots!


Waar wacht je nog op?

Drie tips voor mobile-friendly SEO

De drie take-aways van ‘The definition of Mobile-friendly SEO’-talk? Here you go:

1) Maak custom reports in Google Analytics om het belang van snelheid meer naar voren te brengen. Zet ‘Speed’ tegenover ‘Conversions’. Of ‘Speed’ tegenover ‘Bouncerate’. Dit geeft waardevolle inzichten om het belang van snelheid aan te tonen, en om te zien of snelheidsoptimalisaties vruchten afwerpen.

2) Hidden content is mobielvriendelijk. Denk aan tabs, accordeons of tekstvelden die je kunt openklappen na klik. Let wel, controleer vanaf een mobiel apparaat om te kijken of je er goed door kan navigeren. Lukt dat niet? Pas het dan aan.

3) Er is vandaag veel aandacht voor Signed Exchange, zo ook in deze presentatie. De grootste ergernis bij publishers wanneer ze AMP gebruiken, is dat de gebruiker een andere URL te zien krijgt. Google kondigde Signed Exchange in de eerste helft van 2019 aan en dit zou dé oplossing moeten zijn.

Signed Exchange is een technisch framework dat ervoor zorgt dat browsers de aangegeven URL laten zien op gecachete AMP-resultaten. Dit is alleen beschikbaar op Chrome 73 of hoger. Het voordeel:

  • Het wordt simpeler voor websites om de AMP-bezoekers direct door te sturen naar de echte website.
  • Bookmarks en het doorsturen van links doen meer recht aan de ‘echte’ plek van de content.
  • Analytics is makkelijker. Alle bezoekers, gewone of AMP, komen op hetzelfde domein binnen.
  • De bouncerate zal waarschijnlijk omlaag gaan, omdat je direct op het juiste adres bent.

 
Op dit moment werkt alleen Cloudflare (CDN-software) nog met AMP Signed Exchanges en het gebruik ervan is gratis. Waar wachten we nog op?

 


Browsers in 2020

Googlebot, broken cookies & portals

Nog een talk samenvatten in drie hapklare brokken? Vooruit:

1) De Google Chrome 72 update. De wat… Klinkt ingewikkelder dan het is; hier de recap. Iedereen kent HTTPS. De veiligheid van je requests wordt ondersteund door de technologie genaamd TLS. TLS 1.0 en 1.1 zijn al verouderd en laten scheurtjes zien. Een serieus probleem. TLS 1.2 is een update van Google Chrome 72 die ervoor zorgt dat het weer veilig is.

Snel updaten naar 1.2 dus! Check je developers of hostingpartij.

TLS!

2) ITP 2.1. Ook dit heeft gevolgen voor SEO. Neem attributie. Als je op een organisch resultaat klikt, je bookmarkt het en je wilt er even over nadenken, of je gaat op vakantie, en je komt later terug en je doet een sale… dan gaat de attributie in Analytics naar direct (want GA herkent je niet meer).

Hetzelfde geldt als je een link doorstuurt via Facebook over kaartjes. En de link wordt een week later gebruikt om de tickets daadwerkelijk te kopen, dan gaat de attributie naar direct. Terwijl referral of social of, etc. misschien passender is.

Daarom is het belangrijk om deze metric in de gaten te houden. Kijk in analytics bijvoorbeeld naar first-click-sale en last-click-sale. Houd deze data naast elkaar. Grote kans dat je bij last-click-sale minder attributies naar SEO ziet. Door dit soort inzichten kun je een eventuele dip beter verklaren.

Aanrader: dit artikel over ITP2 en analytics!

AttributionEO

3) Portals. Een soort nieuwe versie van iFrames? Dit zou het navigeren tussen verschillende pagina’s gebruikersvriendelijker moeten maken, is ook wat een web.dev (https://web.dev/hands-on-portals) zegt < bekijk het filmpje met de tutorial. Voor sites waar je snel switcht tussen pagina’s, denk aan een receptensite, kunnen portals een uitkomst zijn.

 


Level up your reporting

Mooie inzicht met Google Data Studio

Google Data Studio (GDS) moet je zien als een tool die inzichten geeft, geen data. De data komt uit iedere omgeving met een koppelbare API. GDS brengt die data vervolgens overzichtelijk bijeen in begrijpelijke dashboards en ontsluit de data weer naar andere omgevingen.

Blenden maar! Met nog een paar tips ter inspiratie:

  • Makeovermonday.co.uk/gallery/ verschillende Data Studio-designs, om je dashboard mooi te maken.
  • Volg #helpfullee om te zien wat er verandert. GDS verandert namelijk continu!
  • Maak gebruik van Calculated fields. Hierin kun je veel boeiende informatie uit halen.
  • Implementeer meerdere API’s. Werk je bijvoorbeeld bij een bedrijf dat weersafhankelijk is? Of is je klant er daar een van? Implementeer dan de API van Weather. Hierin kun je dan gemakkelijk afleiden of het weer invloed heeft gehad op het aantal bezoekers of het aantal bestelde tickets op die dag.
  • Blend data van GSC, GA en andere tools om tot inzichten en kansen te komen.
  • Gebruik grafieken en geen tabellen. Die spreken namelijk veel meer tot de verbeelding. Een beetje spelen met de verdeling op de assen doet ook wonderen; vergelijk hieronder hetzelfde resultaat, maar ziet de linker er niet imposanter uit?

 
perception

 


Strategie voor BIG sites

Ben je groot? Denk dan ook groot!

Deze presentatie zoomt voornamelijk in op extreem grote sites, met meer dan een miljoen pagina’s. En hoe je deze op een juiste manier kunt laten crawlen, indexeren en ranken.

Deze websites zijn meestal scrape websites of platforms, zoals een trivago, skyscanner, amazon, craigslist, etcetera. Na de Panda-update ondervonden dit soort sites flinke drops in traffic.

De betreffende update ging grotendeels over UX. Let’s cut the crap redeneerde Google. En eerlijk: als jij zoekt op een rode broek, en je landt op een pagina die een rode broek zou moeten hebben maar hij is out of stock? Yep; slechte ervaring. Dat wil je niet.

De presentator, Philipp Klöckner, heeft meer dan 90% van de inhoud van door Panda getroffen websites op noindex gezet en de resultaten schoten omhoog. De belangrijkste pagina’s werden vanaf nu namelijk wel goed geïndexeerd en gerankt, en niet-boeiende pagina’s werden buiten beschouwing gelaten.

Doen dus! Wat zijn easy noindex-targets?

  • No results page
  • Few results pages
  • Single review pages, en andere laagkwalitatieve user generated content
  • Bulk product pages
  • Duplicate content pages
  • Facetted search w/o search demand
  • Out of stock pages
  • Expired/offered ads
  • Paginering pagina’s

 
Het was een een feest van herkenning. Bij Searchresult passen we deze tactiek ook toe wanneer het kan.

Tot besluit had Philipp Klöckner ook nog wat extra tips:

  • Zet het searchvenster centraal boven aan de pagina. Verstop hem niet onder een vergrootglas.
  • Heb je een out of stock-pagina? Zet een 301 naar de meest relevante pagina of plaats een 410 code als er geen alternatief is. Komt er binnenkort weer nieuwe voorraad? Bied dan een voorraad-alert aan op de pagina, heb je ook meteen een lead.
  • Check welke pagina’s het meeste opleveren. Geef deze pagina’s een plek in het menu als ‘meest populair’. Hierdoor worden ze vaker gecrawled. Check (en rouleer) maandelijks.

 


Optimizing for accessibility + SEO

Met andere ogen naar SEO kijken

Dat er een sterke relatie is tussen de toegankelijkheid van en de waardering voor je site, hoeft hier geen betoog. We optimaliseren voor laadsnelheid, mobile devices en zo nog een handvol onderwerpen. Maar nog lang niet iedereen houdt rekening met visueel beperkten.

Deze presentatie wil daar wat aan doen, en breekt een lans voor toegankelijkheid voor mensen met een (visuele) beperking. Eén miljard mensen in de wereld zijn visueel beperkt. Hoe kun je hier rekening mee houden als publisher of website?

Door te kijken door de ogen van de doelgroep, zet je een krachtige eerste stap. Browse eens met Chromevox of Colororacle. Hiermee hoor en zie je hoe mensen met een visuele beperking je site ervaren.

Naast kleur en (voor)leesbaarheid verdienen tekstgrootte en contrast aandacht. W3.org heeft goede aanbevelingen op dit front.

Verder kun je nog het volgende doen:

  • Geef elke afbeelding een alt tekst mee. De screen readers lezen namelijk de afbeeldingen voor aan de hand van de alt tekst.
  • Volg TommyEdison: youtube.com/user/tommyedisonxp
  • Volg A11y leaders.
  • Zorg ervoor dat je toegankelijkheid als onderdeel van je functioneel ontwerp al op orde hebt vóór development eraan begint.
  • Ga naar webaim.org. Hier vind je een schat aan tools & info om pagina’s toegankelijk te maken.

 


Wrap up?

Er is nog veel meer wat ik graag met je deel. Hou net, als 1100+ andere marketeers, onze LinkedIn in de gaten daarvoor. Maar met bovenstaand kun je alvast even vooruit, toch?

Wat ik meeneem van dit event:

Crawlbaarheid

  • Zorg voor minder crawl-requests. Optimaliseer je crawlbudget.
  • Zorg voor een site waarop mensen alleen landen op relevante pagina’s. Gooi de crap eruit of zet het op noindex.
  • Werk met logfiles. Er zijn extreem veel inzichten uit te halen.


Gebruikersvriendelijkheid

  • Gebruikerssignalen zijn ranking factors, tenminste alles wijst daarop. Optimaliseer dus UX.
  • Denk aan de navigeerbaarheid van hidden content voor de mobiele gebruikers.
  • Ontdek of AMP nu wél goed is voor je, met de komst van Signed Exchange.
  • Optimaliseer voor visueel beperkten zodat elke bezoeker zijn weg kan vinden op je website.


Techniek

  • Begin 2020 moet TLS geüpdate zijn naar 1.2
  • Maak gebruik van GDS en maak toffe dingen, krijg inzicht en los SEO-vraagstukken sneller op


Zo, genoeg tekst. Werk aan de winkel! Succes 😉

En als je hulp kunt gebruiken: laten weten!

Christel Van Grinsven

SEO Specialist

c.vangrinsven@searchresult.nl