Hvis jeg kun måtte vælge ét SEO-tool
Hvis jeg kun måtte vælge ét SEO-tool, ville jeg ikke vælge det mest populære. Jeg ville ikke vælge det tool, der lover at kunne lidt af det hele. Jeg ville vælge det tool, der viser mig, hvad der faktisk sker.
Mit valg er Screaming Frog SEO Log File Analyser.
Det er ikke det pæneste værktøj. Det er heller ikke det mest “show-off”-venlige svar. Men det gør noget, som mange andre SEO-tools kun prøver at gætte sig frem til: det viser, hvordan bots faktisk bevæger sig på sitet. Hvilke URL’er de besøger. Hvor ofte de kommer. Hvad de bruger tid på. Og hvad de i praksis ignorerer.
Det er den forskel, der betyder noget for mig.
Hvorfor lige det værktøj?
Mange SEO-værktøjer er gode til at vise muligheder. De kan finde fejl, estimere potentiale og pege på ting, du bør kigge på. Det er nyttigt.
Men loganalyse gør noget andet.
Den viser ikke bare, hvad der kan være et problem. Den viser, hvad der er et problem i virkeligheden.
Det lyder måske som en lille forskel, men det er det ikke. For i praksis er der stor forskel på:
en side, som ser vigtig ud i et audit-tool
og en side, som Google faktisk bruger tid på
Når jeg ser logdata, får jeg ikke bare en teori. Jeg får et billede af, hvad søgemaskinerne reelt gør på sitet.
Det er her, det bliver brugbart
Lad os tage et konkret eksempel.
Forestil dig en webshop med 250.000 URL’er, hvor en stor del af dem kommer fra filtre, sortering og interne søgeparametre.
I et almindeligt crawl kan det hele godt se nogenlunde fint ud. Ja, der er mange URL’er. Ja, der er lidt rod. Men først når du ser logfilerne, opdager du måske, at Googlebot bruger en stor del af sin tid på ting som:
/sko?farve=sort/sko?sort=pris/jakker?size=xl&brand=nike/search?q=vinterjakke
Det er der, billedet ændrer sig.
Pludselig er problemet ikke bare, at de URL’er findes. Problemet er, at bots faktisk bruger tid på dem. Det betyder, at crawl-ressourcer bliver brugt på sider, der sjældent er dem, du helst vil have prioriteret.
Det er sådan noget, loganalyse gør tydeligt.
Ikke i teorien. I praksis.
Hvad jeg konkret bruger det til
Hvis jeg kun måtte beholde ét værktøj, skulle det kunne hjælpe mig med at prioritere. Ikke bare rapportere. Og det er præcis det, loganalyse gør.
Jeg bruger det især til at se:
- om de vigtigste sider faktisk bliver crawlet
- om crawl-budgettet bliver brugt skævt
- om der er URL-typer, der sluger for meget opmærksomhed
- om gamle, irrelevante eller fejlramte URL’er stadig bliver ramt igen og igen
- og om der er sider, som burde være vigtige, men som næsten ikke får besøg
Screaming Frog-værktøjet er bygget netop til at vise, hvilke URL’er bots crawler, hvornår og hvor ofte, og det kan også matches med importerede URL-data fra for eksempel et crawl.
Eksempel 1: De vigtige sider er ikke så vigtige, som du troede
Lad os sige, at et B2B-site har 500 produktsider og 40 guides, som virksomheden selv ser som deres vigtigste SEO-landingssider.
På papiret ser det godt ud. Siderne er optimerede. Intern linking er okay. Titler og overskrifter er på plads.
Men når du åbner logfilerne, ser du noget andet:
- Google rammer forsiden og nogle få kategorier hele tiden
- en stor del af produktsiderne bliver crawlet sjældent
- flere af guiderne er næsten usynlige i logdata
- til gengæld bliver gamle kampagnesider og irrelevante parameter-URL’er ved med at få besøg
Det ændrer prioriteringen.
Så handler arbejdet ikke længere kun om “mere content” eller “bedre metadata”. Så handler det om at få de rigtige sider tydeligere frem i strukturen, rydde op i støj og gøre sitet lettere at crawle rigtigt.
Eksempel 2: Redirect-kæder ser små ud — indtil man ser, hvor tit de bliver ramt
Et andet klassisk eksempel er redirects.
Et site kan godt have nogle gamle redirects liggende, som teknisk set “virker”. Og i mange rapporter ser de ikke så dramatiske ud.
Men hvis logdata viser, at bots stadig rammer de gamle URL’er tusindvis af gange, så er det ikke bare et lille oprydningspunkt længere. Så er det noget, der faktisk koster crawl-tid og skaber unødige omveje.
Her er det ikke antallet af redirects i sig selv, der er det vigtigste.
Det vigtige er, hvor meget de faktisk bliver brugt.
Eksempel 3: 404-sider er først interessante, når de bliver ramt igen og igen
Der findes næsten altid 404-sider på større sites. Det er ikke i sig selv en nyhed.
Men forskellen ligger i, om det bare er gamle rester uden aktivitet — eller om bots bliver ved med at banke på de samme døde URL’er.
Hvis du ser, at Google fortsat crawler gamle produkt-URL’er, gamle blogstier eller udgåede filtrerede sider, så er det ikke bare “teknisk gæld”. Så er det noget, søgemaskinen aktivt bruger tid på.
Og så bliver spørgsmålet mere konkret:
- Skal siden returnere noget andet?
- Skal der ryddes op i interne links?
- Skal sitemap ændres?
- Er der eksterne signaler, der holder de gamle URL’er i live?
Det er den type spørgsmål, der er værd at bruge tid på.
Eksempel 4: Orphan pages er mere alvorlige, når bots kender dem bedre end du gør
Noget af det mest nyttige er, når loganalyse bliver holdt op mod et crawl eller andre URL-data.
For så kan du finde sider, som bots kender, men som ikke længere er ordentligt forbundet internt.
Det kan være gamle guides, paginerede URL’er, gamle landingssider eller mærkelige rester fra tidligere versioner af sitet.
Det er især interessant, fordi du her får øje på sider, der stadig lever i Googles verden, selv om de næsten er gledet ud af din egen struktur. Screaming Frog Log File Analyser har netop mulighed for at matche logdata med importerede URL-data, så man kan se den slags overlap tydeligere.
Hvorfor jeg ville vælge det over noget mere oplagt
Hvis jeg skulle vælge et tool til præsentationer, dashboards eller hurtige statusmøder, kunne jeg sagtens vælge noget andet.
Men hvis jeg kun måtte have ét, ville jeg vælge det tool, der hjælper mig med at skære igennem.
For det er det, loganalyse gør.
Det fjerner lidt af illusionen.
Det viser mig ikke bare, hvordan sitet ser ud i teorien. Det viser mig, hvordan det bliver mødt i virkeligheden.
Og det betyder, at jeg kan prioritere bedre:
- hvad der faktisk får opmærksomhed
- hvad der bliver overset
- hvor crawl-arbejdet går skævt
- og hvor oprydning vil gøre en reel forskel
Det ærlige forbehold
Det her er ikke det rigtige første tool for alle.
Hvis du ikke kan få adgang til logfiler, er værdien selvfølgelig mindre. Og hvis du sidder meget tidligt i dit SEO-arbejde, er der andre værktøjer, der er lettere at komme i gang med.
Men når man arbejder seriøst med teknisk SEO, store sites eller prioritering på tværs af mange URL’er, er loganalyse svært at undvære.
Særligt fordi værktøjet er lavet til SEO-brugere og ikke kun til folk, der vil sidde og rode i rå logfiler manuelt. Screaming Frog beskriver selv værktøjet som bygget til at gøre loganalyse mindre tung for SEO’er og i stand til at håndtere meget store mængder logdata.
Hvis jeg kun måtte vælge ét SEO-tool, ville jeg vælge det, der viser mig virkeligheden.
Ikke det tool med flest grafer. Ikke det tool med flest funktioner. Ikke det tool, der ser smartest ud i en demo.
Jeg ville vælge det tool, der fortæller mig, hvad søgemaskinerne faktisk gør på sitet.
Derfor er mit valg Screaming Frog SEO Log File Analyser.
For når du kan se, hvad der konkret sker, bliver SEO også lettere at prioritere rigtigt.