missing link - Digitalstrategie & SEO aus Hamburg » Digital Insights » SEO-Audits mit dem Screaming Frog: OnPage-Optimierungsbedarf auf Websites erkennen

SEO-Audits mit dem Screaming Frog

OnPage-Optimierungsbedarf auf Websites erkennen

Karsten Buth, 14. April 2022

Sie möchten die Sichtbarkeit Ihrer Website in den organischen Suchergebnissen bei Google steigern? Ihre Wettbewerber auch. Der Kampf um die besten Platzierungen zu relevanten Keywords treibt die Optimierung von Websites immer weiter voran. Dabei wird die OnPage-Analyse mitunter Tools überlassen, die nicht nur die Datenerhebung sondern auch eine – oftmals pauschalierte – Interpretation dieser Daten anbieten. Einen anderen Weg geht der Screaming Frog SEO Spider, mit dem SEO-Verantwortliche das Crawling einer Website eigenständig durchführen, um dann aus den Primärdaten eigene Empfehlungen abzuleiten.

Inhalt dieses Beitrags

1. Optimale Daten durch eigenes Crawling

2. Dafür eigenet sich der Screaming Frog SEO Spider

3. Andere Dienste mit Sceaming Frog verbinden

4. Das Wichtigste in Kürze

5. missing link erstellt SEO-Audits

Optimale Daten durch eigenes Crawling

Auf Nichts ist Verlass. Schon gar nicht auf Programme, die versprechen, den SEO-Zustand Ihrer Website automatisiert zu erfassen und Ihnen allgemeine Handlungsempfehlungen geben. Thematisiert wurde das bereits im Beitrag zu OnPage-Analysen.

Eine Alternative bietet der Quasi-Standard für technische SEO-Audits: Der Screaming Frog SEO Spider. Es handelt sich dabei um eine dedizierte Software für Mac, Windows oder Ubuntu-Linux, die auf dem eigenen Rechner installiert wird und von dort aus den Crawl einer Website startet.

Das Ergebnis sind verlässliche Live-Daten zum Zeitpunkt des Crawlings. Kategorisiert und filterbar nach vielen unterschiedlichen SEO-Gesichtspunkten wie Technik, Content und Performance.

In der kostenpflichtigen Version (ca. 180 Euro pro Jahr) gibt es dabei kein Crawl-Limit. Und so kann das Programm auch wiederholt dafür eingesetzt werden, um technische Optimierungen nach deren Umsetzung direkt zu prüfen.

Dafür eignet sich der Screaming Frog SEO Spider

Der Screaming Frog SEO Spider ist eine Software zum Crawling von Webseiten. Was bedeutet das? Es benötigt die Angabe einer Website-Adresse (URL) als Ausgangspunkt, erfasst Daten zu dieser Seite und folgt dann den Links, um auch diese wiederum zu durchsuchen und zu erfassen.

So kann das Programm eine Website ganz oder teilweise durchlaufen und dabei umfangreiche Informationen zu sehr unterschiedlichen Aspekten sammeln. Dazu gehören unter anderem: Webserver-Statuscodes, Dateigrößen, Meta-Angaben, Canonicals, hreflang, Rich Snippets und eingehende sowie ausgehende Links.

Damit eignet sich das Programm beispielsweise, um interne und externe Verlinkungsfehler (Broken Links) zu erkennen.

Weil das Programm für eine Domain allen erkennbaren Links folgen kann, kennt es auch die für den Google-Bot erreichbaren Seiten. Es ist dabei direkt möglich, eine XML-Sitemap für den Gebrauch auf dem Webserver zu exportieren.

Es lassen sich außerdem Aussagen über Semantik und Seiteninhalte treffen. Fehlt es Seiten an einer H1? Werden individuelle Seitentitel, Überschriften und Meta-Texte verwendet? Liegt gar Duplicate Content vor?

Und dies ist nur eine kleine Auswahl der Möglichkeiten. Gerade hier liegt für manchen Nutzer das Problem: Die Komplexität des Programms kann anfangs überfordern.

Andere Dienste mit dem Screaming Frog verbinden

Auch ohne die Verbindung zu externen Diensten ist der Screaming Frog SEO Spider bereits ein mächtiges Werkzeug zur Evaluierung von Websites. Noch spannender wird es allerdings, wenn Datenplattformen Von Drittanbietern eingebunden werden.

Wird beispielsweise ein bestehendes Google Analytics-Konto für eine Website verknüpft, kann Screaming Frog direkt beim Crawling Informationen zu Nutzern, Sessions, Absprungraten oder Conversion-Rates ergänzen.

Wer für seine Website bereits Auswertungen in der Google Search Console erhält, kann auch diesen Account in Screaming Frog hinterlegen. Damit werden dann ergänzende Parameter zur Performance einzelner Seiten in der Google-Suche sichtbar: Unter anderem Klicks, Impressions, die Click-Through-Rate (CTR) und die Position in den Suchergebnissen (SERP-Position).

Über einen API-Key können auch die Ergebnisse der Google Page Speed Insights genutzt werden. Dann werden eine ganze Reihe Performance-Parameter, unter anderem zu den Core Web Vitals, sichtbar.

Nutzer kostenpflichtiger Majestics-, Ahrefs- oder Moz-Accounts können auch diese mit dem Screaming Frog SEO Spider über APIs verbinden. Möglich werden dann unter anderem konkretere Aussagen zur Qualität und Quantität der Backlinks einer Seite.

Eine weitere hilfreiche Option, ist die Verbindung des Screaming Frogs mit dem Google Data Studio. Damit wird es dann möglich, die Audit-Daten auch anderen Nutzern zu visualisieren und verständlicher zu machen. Dazu stellen die Entwickler sogar ein eigenes Template für das Google Data Studio zur Verfügung.

Das Wichtigste in Kürze

Was ist der Screaming Frog SEO Spider?

Der Screaming Frog SEO Spider ist eine in der SEO-Welt äußerst beliebte Software für das Crawling von Websites. Mit ihm werden relevante Daten zu Technik, Inhalt und Perfomance erhoben, deren Analyse den Weg für Handlungsempfehlungen an Marketing-Manager, UX-Designer und Webentwickler bereitet.

Welche Website-Probleme erkennt der Screaming Frog SEO Spider?

Durch einen Crawl mit dem Screaming Froh SEO Spider können unter anderem Probleme mit Sitemaps, robots-Anweisungen, Canonicals, Hreflang, URL-Weiterleitungen, Meta-Angaben, Verlinkungen, Duplicate Content und Orphan Pages aufgedeckt werden.

Welche Dienste können mit dem Screaming Frog SEO Spider verbunden werden?

Der Screaming Frog SEO Spider kann mit Google-Diensten wie der Search Console, Page Speed Insights, Analytics und dem Data Studio verbunden werden. Darüber hinaus gibt es Schnittstellen für die Datenübernahme aus SEO-Tools wie Majestic, Ahrefs und Moz.

Für wen eignet sich der Screaming Frog SEO Spider?

Das Programm richtet sich an technisch versierte SEO-Verantwortliche, die OnPage-Parameter einer Website verbessern und dazu den Ist-Zustand durch ein eigenes Crawling festhalten möchten.