alex@aussermayr.com+43 664 783 30 07
KONTAKT
KONTAKT
September 12, 2022 BY ALEX

SEOPRESSO #72: Screaming Frog [TRANSKRIPT]

Screaming Frog SEO Spider

Im März 2022 durfte ich im SEOPRESSO Podcast von Björn Darko über mein liebstes SEO Tool sprechen: Screaming Frog SEO Spider. In diesem Artikel findet ihr Links zur Podcastfolge und ein vollständiges Transkript.

SEOPRESSO Podcast Episode 72 mit Alexander Außermayr zum Thema Screaming Frog
SEOPRESSO Podcast #72 zu Screaming Frog (Bildquelle: Searchmetrics Blog)

Ihr wollt reinhören?

Nice! Ihr findet die Audioversion der SEOPRESSO Episode 72 zum Thema Screaming Frog auf den gängigen Podcast Plattformen:

Spotify | Apple Podcasts | Google Podcasts | Amazon Music | Instagram Video | Player FM | Soundcloud | Deezer | Ivoox | Podcast365 | Podtail

Ihr wollt reinlesen?

Man mag es kaum glauben, aber manche bevorzugen auch heute noch das gelesene Wort. Daher findet ihr weiter unten 👇 ein vollständiges Transkript der Podcastfolge. Es wurden lediglich kleinere Anpassungen zwecks Lesefluss vorgenommen.

Viel Spaß beim Lesen!

Inhaltsverzeichnis

Einleitung & Begrüßung

Björn: [00:00:07] Megidi Moin und Servus nach Österreich. Willkommen zu einer neuen Folge SEOPRESSO. Mein Name ist Björn Darko (Twitter & LinkedIn) und heute spreche ich mit Alexander Außermayr über Screaming Frog. Alexander, Selbstständiger Consultant für SEO, Conversion Rate Optimierung & Web Analytics, Lektor für Internationales SEO, Local SEO und Mobile SEO an der Fachhochschule Salzburg und war zuvor Head of SEO & Web Analytics bei der Elements.at New Media Solutions GmbH. SEOPRESSO wird wie immer präsentiert von Searchmetrics, und Searchmetrics hat das Core Web Vitals Branchen Dashboard gelauncht. Kein anderes Thema beherrscht die SEO Welt in den letzten Monaten so sehr wie die Core Web Vitals. Mit dem Rollout sowohl für Mobile als auch für Desktop rückt Google die User Experience auf einer Webseite weiter in den Fokus seiner Aufmerksamkeit. Die Metriken Largest Contentful Paint, First Input Delay und Cumulative Layout Shifts werden so zur maßgeblichen Bewertungsgrundlage der organischen Website Rankings. Im völlig neuen Core Web Vitals Branchen Dashboard zeigt dir Searchmetrics nun jeden Monat die durchschnittliche Core Web Vitals Performance der 100 wichtigsten Desktop und mobile Domains verschiedener Branchen auf und gibt gleichzeitig praktische Optimierungstipps an die Hand. Schaut vorbei! Ihr findet das Core Web Vitals Branchen Dashboard unter src.hm/cwvdashboard. Und nicht vergessen den SEOPRESSO Podcast zu abonnieren auf Spotify und überall wo es gute Podcasts gibt.

Björn: [00:01:35] Moin, Alex. Schön, dass du da bist.

Alex: [00:01:40] Moin. Hallo und vielen Dank für die Einladung, Björn.

Lokale vs. Cloud-basierte Crawler

Björn: [00:01:44] Ja, schön. Ich folge dir auf LinkedIn und sehe immer, wie du kräftig Posts zu Screaming Frog teilst, neue Features, neue Möglichkeiten, die es da gibt. Es inspiriert mich total und hat mich auch dazu inspiriert, dich mal anzuschreiben, damit wir mal uns über Screaming Frog unterhalten können. Und ich habe auch gleich die erste Frage für dich, weil, was ich immer so... Ich bin auch großer Screaming Frog Fan, aber es gibt natürlich einen riesen Drang gerade auf die Cloud und es gibt ja sehr viel Cloud-basierte Software-as-a-Service Lösungen, wie zum Beispiel Botify, Oncrawl, Deepcrawl und wie sie nicht alle heißen. Und Screaming Frog ist ja nach wie vor noch ein, sozusagen, musst du dir installieren auf dem Rechner, nicht in der Cloud. Wieso ist dann der Screaming Frog so viel beliebter als die Cloud Lösungen, die ja sehr viel schneller sind und sehr viel mehr "reliable" sozusagen sind.

Alex: [00:02:29] Ja, also, absolut berechtigte Frage. Also ich ich persönlich benutze beides. Also ich habe Cloud Tools im Einsatz, aber auch einige lokale Tools. Und eines davon, oder mein liebstes davon, ist einfach der Screaming Frog. Wahrscheinlich der Hauptgrund, warum ich Screaming Frog so gerne nutze, sind die überschaubaren Kosten. Also, das sage ich jetzt ganz ehrlich, dass im Vergleich zu diversen Cloud Tools die Kosten bei Screaming Frog einfach unschlagbar sind und vor allem, wenn man betrachtet, welchen Nutzen man aus diesem Tool ziehen kann. Das heißt, das Feature Set bei Screaming Frog ist extrem umfangreich. Auch die Einstellmöglichkeiten sind extrem umfangreich und stehen natürlich denen von Cloud Tools in nichts nach. Aber, ich hab mir das im Vergleich angeschaut, Oncrawl beispielsweise beginnt bei 49€ monatlich. Da hat man genau eine Domain, die man monatlich crawlen kann, und das war's. Bei Screaming Frog zahle ich umgerechnet 170€ im Jahr und kann unendlich viele Domains crawlen mit unendlich vielen URLs. So viel wie ich möchte. Theoretisch.

Björn: [00:03:34] Und je nach deinem eingestellten Arbeitsspeicher auch schnell.

Alex: [00:03:37] *Gelächter* Ja, genau. Sofern der Arbeitsspeicher ausreichend ist. Bei mir ist er gelegentlich etwas zu gering. Also, gehört definitiv mal nachgerüstet auf meinem Gerät.

Typische Anwendungsfälle

Björn: [00:03:47] Was sind denn für dich so typische Use Cases für Screaming Frog oder fürs Crawling allgemein?

Alex: [00:03:52] Also, der typische Use Case für Screaming Frog ist vor allem im Bereich technisches SEO zu sehen. Das heißt, eigentlich alle Dinge, die irgendwo in den Pool von technischem SEO reinpassen, können mit dem Screaming Frog gemacht werden. Sei es, ich mach einen Crawl einer Website vor dem Relaunch, um eine Übersicht der alten URLs zu haben, um Redirect aufzubereiten für den Relaunch. Und wie wir wissen, sind die Redirects ein äußerst wichtiger Teil eines Website Relaunchs. Darüber hinaus kann ich dann nach dem Relaunch auch die alten URLs recrawlen und die Redirects auf korrekte Funktion überprüfen. Same ist für die XML Sitemap, für die neue XML Sitemap. Ist diese korrekt? Gibt's auf einer Website Broken links? Wenn ja, wo sind die? Gibt es interne Redirects, die ich korrigieren kann? Gibt es beim hreflang Fehler? Und so weiter und so fort. Also, alles was mit Links zu tun hat, kann mit dem Screaming Frog Crawler abgewickelt werden. Und das ist einfach ein großer und sehr wichtiger Teil der Suchmaschinenoptimierung.

Die Grenzen von Screaming Frog

Björn: [00:04:53] Wenn wir auf die erste Frage noch mal zurückblicken: Das mit der Cloud bedingt ja auch, dass sozusagen Screaming Frog keine Anbindung über eine API zum Beispiel hat, ne? Und, ich meine, das kannst du natürlich über so eine Cloud Lösung kannst du ja einen Weekly Crawl, sozusagen, laufen lassen und dir die Information dann zum Beispiel in Dashboards reinspielen oder in irgendwelchen Alerting Systems. Siehst du das als Limitation bei Screaming Frog an oder gibt es da auch Use Cases, die du kennst, die man vielleicht so nutzen kann?

Alex: [00:05:19] Nein, sehe ich eigentlich nicht als Nachteil, weil man genau das mit dem Screaming Frog mittlerweile auch machen kann. Also in den vergangenen Jahren sind genau diese Features implementiert worden, dass man einerseits Crawls schedulen kann, ich kann Crawls einplanen und mir mein monatliches Crawling nachbauen im Screaming Frog. Darüber hinaus könnte ich es auch irgendwo in der Cloud installieren. Das ist so auf der Art, wie ein Cloud Crawler läuft, und ich kann diese Daten dann auch in Google Spreadsheets und Google Data Studios schicken und dort weiterverarbeiten. Das heißt, eigentlich kann ich genau die Features, die das Pro Argument für die Cloud Tools sind, nachbauen. Aber natürlich ist der Aufwand etwas größer, wie die bereits fertigen Lösungen der Cloud Tools. Aber mit den bestehenden Features kann ich das schon nachbauen.

Reporting mit Screaming Frog

Björn: [00:06:06] Reporting ist ja auch so eine große Geschichte. Bei so Deepcrawl und so hast du natürlich all die Daten, die gecrawled werden, sind schon wunderbar aufgearbeitet in den Chart zugänglich gemacht. Die brauchst du dir dann im Prinzip einfach nur copy pasten. Und wenn du damit schnell auch ans Management was berichten willst oder, was weiß ich, das sehe ich zumindest als Limitation. Fangen sie auch schon an, einige Charts zum Beispiel in dem Log File Analyzer [einzufügen]. Da sieht man ja schon sehr stark Charts. Aber meistens muss man sich dann irgendwie die Sachen runterladen in einem Excel und dann selber noch mal zusammenstellen.

Alex: [00:06:37] Richtig. Genau. Das ist halt einerseits der Vorteil, aber auch andererseits, aus meiner Sicht, auch der Nachteil von Screaming Frog. Es wird einem fürs Reporting sehr wenig standardmäßig bereitgestellt in Form von Charts, Bars, Tortendiagrammen und so weiter und so fort. Aber wie du schon erwähnt hast, es gibt sehr umfangreiche Exportmöglichkeiten. Ich kann wirklich jede Zeile, jede Spalte, alles exportieren und weiterverarbeiten. Und das bietet mir dann trotzdem die Möglichkeit, mir Reports zusammenzubauen. Aber, muss ich dir zustimmen, das ist sicherlich ein Punkt, wo Screaming Frog etwas hinterherhinkt. Hängt aber auch damit zusammen, dass ich ja im Screaming Frog immer nur einen Crawl einer Domain durchführe und die historischen Daten zu dieser Domain zwar im Screaming Frog in Form anderer Crawls habe, aber die werden nicht aneinandergereiht, sodass ich einen historischen Verlauf sehe, wie es bei Cloud Tools ist. Dennoch gibt es seit Kurzem oder auch schon länger das Compare Feature. Das heißt ich kann zwei Crawls miteinander vergleichen und mir dann anschauen, Vorher und Nachher, und sie dann abgleichen zwischen, keine Ahnung: Wie viel URLs wurden in der Sitemap gefunden? Wie hat der Title einer bestimmten URL vorher und jetzt nachher ausgesehen? Also, das kann man, seinen Vorher-Nachher-Vergleich zwischen zwei Datenpunkten kann man innerhalb des Screaming Frog auch schön abbilden.

Top-3 Features in Screaming Frog

Björn: [00:07:57] Was sind denn für dich so spezielle Top-3 Funktionen, sage ich mal, die du nutzt, die vielleicht nicht Allgemein bekannt sind, [aber] vielleicht so richtig schöne Use Cases darstellen?

Alex: [00:08:06] Ja, sehr schöner Use Case, den ich erst zuletzt hatte, sind die Features rund um Rendering innerhalb des Screaming Frogs. Das heißt, ich hatte eine sehr JavaScript-lastige Website und hatte hier die Vermutung, dass es bezüglich der Canonical Links Probleme gibt zwischen dem originalen und dem gerenderten HTML. Mittels Screaming Frog konnte ich das sehr gut bestätigen. Da gibt es die Funktion, also im Konfiguration Tab "Extraktion" gibt es eine Funktion, wo man einstellen kann, dass das originale HTML und auch das geänderte HTML abgespeichert wird. Das setzt voraus, dass ich den Render Modus auch aktiviere und hier den Google Mobile User-Agent einstelle. Und dann kann man sich unten im Tab "View Source" - unten die Tabs sind überhaupt ein Geheimtipp, weil nur sehr wenige Leute, meiner Ansicht nach, überhaupt runtersehen, was es da alles gibt - aber im "View Source", genau in dem "View Source" Tab kann man sich dann direkt gegenübergestellt anzeigen lassen das geänderte HTML und das originale HTML. Und dann gibt es eine Checkbox, wo man sich die Unterschiede zwischen original und gerendert anzeigen lassen kann. Das heißt zur Analyse "Wie sieht eine Seite oder wie sieht der Code original und gerendert aus?", das ist schon mal cool. Und hier konnte ich dann aber auch sehen, dass sich der Canonical Link in der gerenderten Variante dann, dass der dann anders ausgesehen hat wie im originalen HTML. Und das kann dann natürlich unterschiedliche Signale an den Googlebot senden, was wiederum für Crawling und Indexierung problematisch ist.

Björn: [00:09:37] Die sind sehr versteckt.

Alex: [00:09:39] Ich meine, das ist jetzt kein Geheimtipp, aber ich glaube das wird im Zusammenhang mit Screaming Frog immer noch zu wenig genutzt: Die Möglichkeit, APIs einzuklinken in den Crawl. Sei es nun die Search Console Performance API oder die neue URL Inspection API oder auch die PageSpeed Insights API oder Ahrefs und so weiter und so fort. Man hat sehr viele Möglichkeiten, mit APIs noch weitere Daten in die Crawls hinein zu ziehen, die einem dann ermöglichen, noch ausführlichere Analysen und so weiter und so fort zu machen.

[Anmerkung: Einen konkreten Anwendungsfall der Ahrefs API findet ihr in meinem Blogpost zu TIPR Lite im Bereich Screaming Frog & Ahrefs verknüpfen]

Björn: [00:10:11] Das ist geil, weil du das natürlich dann auf der Skalierbarkeit deiner ganzen Seite siehst. Es gibt einen der Browser Plugins, die ich regelmäßig nutze, um genau das gegenüberzustellen. Das ist das Browser Plugin "View Rendered Source". Es macht genau das gleiche, ne. Einmal das rohe HTML sehen, einmal das wie es gerendert ist und zeigt dir dann über einen Colour Coding rot oder grün an, was gleich beziehungsweise unterschiedlich ist. Also auf jeden Fall super cool. Siehst du das auch - Wär auch sowieso noch eine meiner Fragen gewesen - weil, ich habe ja als VP Product mal bei Searchmetrics gearbeitet und du hast auf der einen Seite diese ganzen Search Daten, diese ganzen Analyse Daten, die du über, sozusagen, dein Keyword bekommst, ne. Und auf der anderen Seite hast du heute einen Crawl, so einen existierenden Überblick deiner Webseite. Und für mich war es immer ein no brainer, sozusagen, Crawl Daten und auch Search Daten miteinander zu kombinieren. Und, du hast es ja gerade gesagt, dass es auch bei Screaming Frog, auch bei den ganzen SaaS Lösungen, sozusagen, die Möglichkeit gibt, über APIs Dinge miteinander zu verknüpfen. Was wäre, wenn du dir das mal so ausmalen könntest? Was wäre so für dich so die geilste Kombination von bestimmten Daten? Was würde, sozusagen, das größte Insight mitbringen?

Crawling Daten mit APIs erweitern

Alex: [00:11:25] Puh, ja, da gibt es jetzt eigentlich sehr viele Möglichkeiten, aber ich habe mir da jetzt nur eines notiert vorab, und zwar: Also, meiner Ansicht nach ist das Einklinken der APIs deswegen sinnvoll, weil es mir hilft noch bessere Entscheidungen zu treffen. Also, nehmen wir an ich crawle eine Website um Thin Content herauszufinden. Das heißt, einfach Seiten herauszufinden, die über nur sehr wenige Wörter verfügen. Da gibt es eine eigene Spalte im Screaming Frog, wo dann die Anzahl der einzelnen URLs drinnen steht. Ich kann da auch definieren, wo mein Main Content innerhalb einer Seite ist und dass Screaming Frog nur diesen crawlt. Und das kann ich jetzt wiederum kombinieren mit Search Console Daten, um herauszufinden, wie die URLs derzeit in der organischen Suche performen. Und wenn ich mir jetzt nur die URLs anhand der Wort Anzahl anschauen würde und sag, "Ja, diese Seite hat vielleicht nur 30 Seiten (Anmerkung: gemeint war "Wörter"), das ist Thin Content, das schmeiß ich raus aus meiner Sitemap, weil die Seite einfach dünn ist", dann könnte das ein Fehler sein. Weil eventuell trifft diese URL trotz der wenigen Wörter dennoch die Suchintention und sorgt für wichtigen organischen Traffic. Und das würde ich dann eben, wenn ich das gegenüber stelle mit den Search Console Daten, mir anschauen können. Und würde ich das nicht machen, würde ich vielleicht eine dennoch wichtige Seite aus Versehen raus löschen, nur weil ich glaube sie ist Thin, aber bringt mir eigentlich trotzdem was.

Björn: [00:12:46] Ich denke da macht es auch total Sinn irgendwie Analytics Daten mit rein zu nehmen, zum Beispiel auf die Conversion zu gucken oder den Umsatz, den diese Seite generiert. Weil es kann ja sein, dass zum Beispiel ein transnationaler Intent da ist, wo du denn eh mit wenig Text auf einer Seite arbeitest. Und wenn es dann nur so angucken würdest mit anhand der Wort Anzahl; killst diese Seite, killst damit vielleicht sogar einen großen Conversion Bringer.

Alex: [00:13:08] Genau. Das wäre dann nachteilig: Und das kann man damit vermeiden.

"Laserschwert": Spider Konfiguration

Björn: [00:13:12] Was ist denn für dich sozusagen das absolute Laserschwert Feature bei Screaming Frog?

Alex: [00:13:19] Ich hab vorab sehr lange über genau diese Frage nachgedacht. Für mich persönlich gibt es nicht dieses eine Laserschwert Feature, sondern Screaming Frog ist für mich als Gesamtpaket das Laserschwert, weil ich diese extrem granularen Einstellmöglichkeiten habe für das Crawling. Das habe ich zwar bei diversen Cloud Crawlern auch. Aber vom Gefühl her bietet mir Screaming Frog mit der Spider Konfiguration und all den Include und Exclude Filtern, mit User Agent anpassen und so weiter und so fort, so viele spezielle Einstellmöglichkeiten, die mir sehr spezifisch Crawlings ermöglichen. Das heißt, ich kann dann eigentlich sehr schnell und effizient crawlen, und zwar nur die Informationen, die ich für meine jeweilige Fragestellung gerade benötige. Wohingegen die Cloud Crawler, die werden aktiviert, wahrscheinlich oder üblicherweise, dass sie einmal wöchentlich und Sonntagnacht oder so die Webseite durchcrawlen und ich mir am Montag anschauen kann: Welche Broken Links korrigiere ich wieder die kommende Woche? Und beim Screaming Frog wiederum kann ich das alles sehr viel, viel spezifischer einstellen auf meinen konkreten Use Case. Und das ist für mich persönlich auch das Laserschwert an Screaming Frog.

Björn: [00:14:36] Ja. Wie so ein Schweizer Taschenmesser eigentlich.

Alex: [00:14:38] Ja, korrekt. Da klapp ich auch nur das raus was ich grad brauch.

Screaming Frog für nicht-SEOs

Björn: [00:14:42] Ich fahre ja so ein bisschen den Ansatz, dass man gerade im Inhouse SEO, sozusagen, ja eigentlich alle anderen Departments dazu bringen sollte, für sich SEO zu machen. Dann hat man als Inhouse SEO mit dieser politischen Rolle, die man hat, echt einen guten Job gemacht. Und das ganze Thema Crawling, Indexing, Core Web Vitals jetzt neu, ist ja eigentlich ein Thema, was eigentlich wichtig ist, Product und Engineering beizubringen. Weil die sollen ja eigentlich genau auf solche Dinge mit achten. Hast du eine Idee, wie man so Crawling Tools wie Screaming Frog auch solchen Teams näher bringen kann, damit die eigentlich täglich oder wöchentlich damit arbeiten und um das zu reviewen?

Alex: [00:15:20] Ja, in einer perfekten Welt würde das vermutlich einfach so passieren, weil es absolut Sinn macht, wie du schon erwähnt hast. Ich befürchte aber, dass man genau bei diesem Punkt nochmal einen Schritt weiter vorne ansetzen muss, dass man für erstmal ein generelles SEO-Verständnis innerhalb dieser Departments sorgen muss und vor allem daran scheitert es ja in vielen Unternehmen. Also als Inhouse SEO oder auch bei mir war es während der Agentur Zeit, es war eine große Full Service Agentur mit allen möglichen Departments, auch hier musste erst die SEO Denke einmal an die einzelnen wichtigen Stellen getragen werden. Und das ist nicht einfach ein Meeting, in dem man die SEO Basics erklärt, sondern es ist eigentlich ein laufender Prozess, in dem man alle Beteiligten immer wieder einbinden muss. Und wenn man dieses generelle SEO Verständnis einmal geschaffen hat und auch, dass die Leute wissen - Okay, es gibt SEO. Es ist wichtig für unsere Kundenprojekte. Es ist auch für mein eigenes Department wichtig, dass SEO ordentlich gemacht wird - dann hat man die einzelnen Departments im Boot und die kommen dann hoffentlich auch regelmäßig her und stellen Fragen. Also zumindest war das, wie es bei mir früher war. Das heißt, ich bin eigentlich immer wieder meine Runden gelaufen in der Agentur und hab die Leute einfach angequatscht, hab mich hingesetzt, wenn wir ein Problem hatten. Hab immer mit den Leute mit den Leuten gesprochen und ihnen versucht zu erklären, was meine Sicht der Dinge ist. Hab mir ihre Sicht der Dinge angehört und hab dann versucht herauszufinden, wo ist unser Schnittpunkt. Und vor allem mit den Programmierern, mit der DEV Abteilung, habe ich es dann doch geschafft, dass immer wieder mal nachgefragt wurde, wie wir auf diverse Fehler draufgekommen sind. Und dann wurde als Quelle des gefundenen Fehlers der Screaming Frog genannt. Und der ein oder andere hat sich dann die kostenlose Version auf seinem Rechner installiert, mit der er zumindest 500 URLs crawlen kann und hat es immer wieder zum Bugfixen und so weiter und so fort auch verwendet. Und es ist dann, soweit ich mich richtig erinnere, auch so weit gekommen, dass wir für Programmierer einzelne Screaming Frog Schulungen gemacht haben oder Interessierte, für Interessierte haben wir dann Screaming Frog Schulungen durchgeführt. Und das war schon cool, weil dann einfach vor einem Relaunch oder während eines Relaunch Prozesses immer öfters auch nachgefragt wurde, ob denn dieses oder jenes passt. Das heißt, für SEOs ist es natürlich cool, dass man nicht erst am Tag nach dem Relaunch erfährt, dass ein Relaunch stattgefunden hat oder am Tag davor, sondern ein paar Tage vorher oder Wochen oder Monate idealerweise. Und so konnten dann unterm Strich sehr viel bessere Projekte im Laufe der Zeit online gestellt werden, wie noch zu Beginn - aus SEO Sicht. Und das war eigentlich recht cool.

PageSpeed Optimierungen

Björn: [00:18:11] Noch mal ein Use Case. Vielleicht hast du da eine gute Idee zu. Also ich denke gerade heutzutage im Mobile Zeitalter, insbesondere im E-Commerce natürlich Speed oder, nennen wir es mal Page Experience, weil das umfasst dann sozusagen Speed und auch die Core Web Vitals insbesondere. Und auch hier, klar kann man mit den Tools gehen, die Google einem gibt und Google gibt ja auch Recommendations, was man vielleicht verbessern sollte oder so. Aber siehst du einen Use Case für Screaming Frog, sozusagen Bottlenecks zu identifizieren auf einzelnen URLs, die sozusagen eine schlechte Page Performance generieren und wie man das dann nutzbar machen kann?

Alex: [00:18:50] Screaming Frog eignet sich aus meiner Sicht sehr gut dafür, denn ich kann einfach den Screaming Frog so einstellen, dass er mir alle Bilder crawlt und mir darstellt, wie viele Megabyte haben. Und der größte Bottleneck hinsichtlich Performance sind oftmals die Bilder, die nicht ordentlich komprimiert oder geresized sind. Und wenn ich alleine nur das mache habe ich oftmals schon einen extremen Performance Boost, optimierte Bilder online zu stellen.

Blick in die Glaskugel: Künftige Features

Björn: [00:19:14] Sehr geil. Letzte Frage, die ich ja dich hab, Alex: Welche Funktion siehst du denn in Zukunft sinnvoll für Crawler, wie zum Beispiel Screaming Frog, um auch wettbewerbsfähig zu sein, in Zukunft SEOs zu unterstützen? Also, was muss da noch kommen, was es vielleicht gar nicht gibt momentan?

Alex: [00:19:29] Da habe ich auch lange nachgedacht. Grundsätzlich ist es gut, wenn Screaming Frog immer wieder schnell Neuheiten in ihren Crawler integriert. Aber da ist Screaming Frog wirklich mit Abstand einer der schnellsten am Markt. Wie beispielsweise die URL Inspection API rausgekommen ist, haben die, glaub ich, am nächsten Tag ein Update des Crawlers rausgehauen und das hat funktioniert. Was generell sinnvoll wäre, wo ich mir aber nicht sicher bin, ob das generell in die langfristige Vision der Ersteller von Screaming Frog reinpasst, wäre das Anzeigen von Hints, also von Hinweisen, welche Probleme existieren innerhalb des Crawls [Hinweis: Dieses Feature wurde inzwischen implementiert, siehe "Issues".] Also, das ist auch sehr üblich heutzutage, nicht nur bei Cloud Crawlern, sondern auch bei Screaming Frogs direktem Konkurrenten, dem Crawler Sitebulb. Wenn ich dort einen Crawl durchführe bekomme ich eine priorisiere Liste mit ausführlichen Erklärungen, welche Probleme der Crawler gefunden hat, auf welchen URLs und warum ich das lösen muss und auch wie ich es lösen kann. All diese Dinge enthält der Screaming Frog nicht. Das heißt, ich kann einfach nur einen Crawl durchführen, hab unfassbar viele Daten, aber die Verwertung dieser Daten liegt bei mir selbst. Das ist auch der Grund, warum Screaming Front für absolute SEO Neulinge schwierig ist, weil die beim Fehler suchen sich noch etwas schwerer tun wie wir etwas fortgeschrittenere SEOs. Cloud Crawler oder auch Sitbulb nehmen einem die Interpretation der Daten zu einem gewissen Teil, in dem sie Optimierungempfehlungen in priorisierter Reihenfolge darstellen. Ich glaube aber, dass das nicht die Vorstellung von Screaming Frog und deren Erstellern ist, so ein Feature zu implementieren. Sinnvoll wäre es dennoch, um vielleicht auch die die Nutzbarkeit oder die Einstiegsbarriere, Screaming Frog zu nutzen, für Neulinge noch ein Stück weit zu reduzieren.

Björn: [00:21:23] Ich finde es total cool, was du sagst, weil ich glaube auch nicht, dass Screaming Frog das machen würde, weil deren Kundengruppe sind Nerds, nerdige Technical SEOs und die brauchen halt das, um auch sich nerdig zu fühlen. Und das soll auch so sein, weil Fähigkeiten, die sozusagen Screaming Frog gibt, um selber Dinge zu analysieren und oft ins Detail genau runter zu crawlen, sind halt wichtig für die Zielgruppe. Eine andere Sache: Du hattest am Anfang gesagt man braucht sozusagen diese Hints, damit auch Neulinge damit zurecht kommen. Und ich finde Screaming Frog, als ich das erste Mal einen Screaming Frog Crawl gemacht hat, hat das für mich Welten geöffnet, weil ich verstanden habe, wie auch Google mit einer Webseite umgeht. Wenn du so einen Crawl, so einen Raw Crawl, einfach mal machst, verstehst du ja, was die einzelnen Elemente sind und das kriegst du ja in Screaming Frog auch wunderbar vor die Füße geschmissen. Klar kannst du das dann über Drag and Drop einzeln rausfiltern, aber über diese Hints zum Beispiel, klar würdest du vielleicht schneller, sozusagen, auf die Möglichkeiten kommen, aber du kriegst das sozusagen nur auf der Oberfläche angezeigt und verstehst gar nicht, wie der Crawl an sich, auf welche Elemente das schaut, was wichtig ist, was für Bottlenecks es gibt. Und ich glaube, dass es gerade für Anfänger gut ist, mit Screaming Frog ins kalte Wasser geschmissen zu werden und einen eigenen Crawl zu machen und zu verstehen, was du da eigentlich bekommst. Schönes Schlusswort. Ich danke dir, Alex, für die Insights. War ein schönes Gespräch. Vielen Dank euch fürs Einschalten. Wir hören und sehen uns nächste Woche wieder bei SEOPRESSO. Ciao!

Weitere Blogposts

Alexander Außermayr
Womit kann ich dir helfen?
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram