Råd og tips til raske rutiner for teknisk feilsøking av nettsteder med crawleren Screaming Frog

Screaming Frog tips og råd

Jeg har en tendens til å gi folk litt for mange tips og råd i andre forsamlinger enn på mitt eget nettsted. Det er jo litt dumt.

Især fordi alle SEO rådgiveres tips nummer en er, at man skal ta eierskap tli sitt eget innhold, og ikke bare andre innholdstjenester få nytte av det.

Jeg har svart på litt av hvert på Eposter, på LinkedIn, på Facebook og andre nettsteder i sene nattetimer og ved andre anledninger. Så nå er det på tide å finne frem svarene og gi litt raske tips. Først ut er spørsmål om Screaming Frog som jeg bruker jevnlig (nesten hver dag) til flere typer oppgaver.

Seneste i går hadde jeg en kunde som ville ha fjernet alle lenker til et nedlagt nettsted fra bloggen sin og en enkel crawl lot meg finne lenkene på 5 minutter – og jobben var gjort på under en time.

En kollega i SEO bransjen stilte spørsmålet:
Har noen råd/tips/linker til en grei og ikke altfor tidkrevende rutine med Screaming Frog (SF)? Jeg ser SF så varmt anbefalt av så mange og har selv aldri klart å integrere det i arbeidsflyten min, så jeg lurer kanskje mest på hva jeg går glipp av? Har gjort et par stunt for å få oversikt tidligere, men ikke funnet ut hvordan SF kan brukes til å spore nyttige måltall over tid. Nå hører det med at jeg håndterer relativt små nettsteder med lite tekniske problemer og minimalt med skreddersydd utvikling.

Mitt svar:
Vel, for min del så har jeg aldri brukt SF til å følge nyttige måltall over tid, men for å lage raske tekniske vurderinger som skal kartlegge umiddelbare problemstillinger og evt. eksportere to do lister i regneark.

For sporing over tid så finnes det flere SaaS (Software as a Service) baserte crawlere (Oncrawl og DeepCrawl er to typiske eksempler), som man kan ta i bruk og som kan vise forskjell mellom crawls. Men mange av disse gir ikke på samme måte som Screaming Frog, mulighet for et raskt øyeblikksbilde av et nettsted (periodebasert evt.), med både GA (Google Analytics) , GSC(Google Search Console) og Link data samlet.

Det tar under 5 min å skanne et mindre nettsted med alle data, såfremt man har alle tilganger, og det er vel verdt, hvis man skal lete etter sider som har mange feilkode responser, mixed content (både http og https interne lenker) eller man raskt skal vurdere tilstanden til nettstedets html tagger, canonical tags og viderendinger.

De fleste SaaS baserte løsninger har en kø som slike jobber skal vente i. Dette tar litt mer tid og vil typiske kreve at man setter opp en crawl på et tidspunkt og venter til dagen etterpå med å vurdere data, medmindre man har premium løsning, som ofte koster litt mer.

Da spørs det litt også om man jobber alene med data eller trenger en plattform der data fra crawl kan deles. SC er for meg et solo verktøy som jeg bruker til å finne og fikse problemer rask.

Det som også er litt greit, er at det ikke er begrensning i antall URLer som man crawler i en viss periode, noe som mange SaaS løsninger har grenser på. Det betyr at man kan crawle 25 nettsteder med 50.000 URLer hver på en uke, uten at dette koster ekstra eller at du må vente til neste måned før du får tildelt mer crawl budsjett.

For de som vil følge utviklingene av data og forandringer over tid, så går det an å hente ut lister og legge dem i en type datastudio, slik at det kan vises diagrammer og kurver, men det kjenner jeg ikke noen som har brukt SF til. Kjenner du til noen som har metoder for å følge data fra Screaming Frog over tid?

Interessert i å teste ut Screaming Frog? Last ned gratis versjon her: https://www.screamingfrog.co.uk

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *