Tobias Schwarz über technisches SEO und große Onpage Crawls #SEODRIVEN #079

By | August 26, 2019


So Freunde, wir sind am Ende der Woche angekommen und ich will nochmal zusammen mit dem Tobias zusammenfassen was wir diese Woche alles gerockt haben. Es war richtig richtig viel, wenn du also dich mit dem Thema Onpage-SEO und technisches SEO beschäftigst, dann bleib unbedingt jetzt dran. Ja Tobias, vielen Dank erstmal, dass du diese Woche hier mit mir gesessen hast und durchgehalten hast. Wir haben ein volles Programm abgeliefert und ich würde mal die Themen durchgehen. Wir haben gestartet mit diesen Anfängerfehlern, die eigentlich jeder macht, vor allen Dingen natürlich 404 Fehler, komische Weiterleitungsketten, Markup Fehler, Performance-Themen. Also da gab es eine ganze Menge. Vielleicht kannst du nochmal ganz kurz was zu den verschiedenen http Codes sagen und wie wichtig die Unterscheidung da zwischen 301, 302 usw. ist? Macht es noch einen Unterschied? Macht es kein Unterschied mehr? Der größte Unterschied ist immer noch Cashing. Es gibt beim Browser natürlich von der Implimentierung massive Unterschiede. Für die Suchmaschine dürften das nicht der riesen Impact mehr sein. Google hat ja auch Aussagen dazu, dass sie dich versuchen gleich zu behandeln. Ich glaube man sollte es einfach sauber machen, wir haben da einen sehr ausführlichen Artikel bei uns online. Den kannst Du vielleicht auch verlinken, für die Leute. Wo wir die ganzen Unterschiede erklären zwischen den einzelnen Redirects und wann man sie sinnvoll verwenden sollte. Also das ist gar nicht unbedingt so die reine SEO-Sicht, sondern dann für den Nutzer. Wann wird es gecasht und wann nicht? Wann soll er wirklich neues Ergebnis bekommen und wann ist es nicht so wichtig? Dann sind wir voll eingestiegen in die inhaltliche Optimierung, da jetzt haben wir nicht über Keyworddichte oder so gesprochen Das sind eigentlich eher meine Themen wenn es um Content Marketing geht. Auch wenn wir nicht über Keyworddichte sprechen, sondern auch mehr über die technische
Geschichte. Also überhaupt erstmal die Inhalte crawlbar machen. Das ist ja auch nicht gerade so leicht, gerade bei Content Management Systemen, gerade bei großen Seiten. Und da war auf jeden Fall auch nochmal das eine oder andere interessante dabei. Du hattest da eine ganz nette Anekdote von einem Kunden, kannst dich noch erinnern? Nein. Kein Problem. Zu den href-langs kannst du uns aber noch was sagen. Bei den href-langs ist es extrem wichtig, dass man das konsistent aufbaut. Also jede einzelne Seite muss auf sich selbst verlinken und muss auf alle anderen Varianten verlinken. Die Seitensprache muss immer zur Auszeichnung des href-lang passen. Die Auszeichnung zwischen
den einzelnen Stellen, also html , http Header und Sitemaps muss konsistent sein, wenn sie denn mehrfach durchgeführt wird. Es reicht durchaus es an einer Stelle zu machen. Und man sollte drauf achten auch von außen verlinkende Seiten? Genau. Href-lang Gruppen können kaputt gemacht werden, indem weitere Seiten da reinlinken. Ich glaube für Google ist es nicht so ein großes Problem, weil href-lang bei der Ausgabe der Seite reichen sollte. D.h. selbst bei kaputten Gruppen kann ich immer noch die Information heranziehen, um das vernünftig zu ranken. Trotzdem halten sie einem das in der Search Console als Fehler vor. Wenn man die beseitigen möchte, dann muss man eben alle diese Dinge beachten. Wie findet ihr so duplicate Content, was sind da die Klassiker? Wir machen Crawls und erfassen die Titel, die Metadiscriptions und den kompletten Pagebody. Dann bilden wir da Prüfsummen drüber und letztendlich gucken wir ob wir da Duplikate finden. Die fassen wir dann alle in Gruppen zusammen, d.h. wir können später im Crawl alle Seiten zeigen, wo der Titel identisch ist, die Metadiscription oder auch der komplette Inhalt. Ganz interessant ist da ja auch, wohin man linkt? Also externe Links sollte man sich auch immer mal anschauen. Vor allem wenn man selber nicht als unsichere Seite identifiziert werden will. Wenn man mal 10 Jahre eine Seite betrieben hat, dann hat sich da einiges an Zeugs angesammelt und man weiß ja garnicht mehr ob die Domains heute noch ihrem ursprünglichen Besitzer gehören oder noch den Inhalt zeigen. Eine Möglichkeit ist, dass man mit einem Crawl all diese externen Links findet und die dann einfach mal gegen Google Safe Browsing API prüft und schaut, ob da irgendwelche bösen Inhalte dahinter liegen. Ja, das macht auf jeden Fall Sinn. Letzten Endes…es wird immer viel über externe Links auf die Seite geschaffen, aber die externen Links auf die falschen Seiten könnten genauso ins Controir schießen. Genau. Wenn wir schon bei Links sind, das ist ja auch ein Strukturthema. Interne Verlinkung ist ein riesiger Hebel und da hattest du auf jeden Fall eine Case Study, wo ein Kunde irgendwie seien Umsatz verdoppeln konnte. Ohne weitere Links von außen.
Genau. Einfach dafür sorgen, dass man intern die Seiten,
die ein guten Hebel zeigen, also Position 3-5 haben oder 2-5 haben, da ist ja durchaus mehr drin indem man einfach eine Position gut macht. Wenn man feststellt, dass intern schwach verlinkt sind, dann da mehr Power drauf geben. Umgekehrt natürlich dafür sorgen, dass Seiten die überproportional stark verlinkt sind und dann vielleicht auf der 1 fest hängen, also klar ganz oben. Da ist ja die Frage: Wie viel kann ich
da wegnehmen ohne, dass mir das um die Ohren fliegt. Wenn ich hier eine schöne Umverteilung
mache, kann ich mitunter einen riesigen SEO-Hebel ziehen. Erklär dich nochmal was der Unterschied ist zwischen PageRank und Chai Rank? PageRank ist eine Autoritätsmetrik und gibt an, wie gut ein Benutzer auf eine Seite kommen kann … intern. Kann auch Domain übergreifend sein. Wenn du ein ganzes Cluster von Domains hast, z. B. ein Shop der in 10 Sprachen online ist, kannst du auch innerhalb dieses Seitenkonstrukts natürlich solche Berechnungen machen. Google macht es ja im ganzen Netz. Das sind in der Regel deine Hauptnavigationsseiten sowas wie deine Startseite und die Sachen die im Header und im Footer, und in der Hauptnavigation zu finden sind. Dem gegenüber gibt es ChaiRank, das ist eine Hubmetrik. Ein Hub ist eine Seite, die andere Seiten gut erreichbar macht. Da möchte man natürlich im Idealfall auch seine Startseite
und Hauptkategorien usw. sehen. Oft ist es aber so, dass das nicht ganz die Wirklichkeit wieder spiegelt, weil man da zwischen den Seiten eine Paginierung hat, die gute Hubs sind und man von dort auch zu beiden Seiten kommt. Oder das sind nicht nutzbare Sitemap-Konstrukte, die nur im Footer verlinkt sind, gute Hubs sind, weil man da optimal überall hinkommt. Wann immer ich sowas sehe, hat es akuten Handlungsbedarf. Eine gut strukturierte Seite, da ist die Starseite die Seite mit dem höchsten PageRank und dem höchsten ChaiRank. Dann hast du ja auch noch gesagt, dass man gucken muss, auf die Level schauen muss, und dass es auch Unterschiede gibt zwischen Nutzer und Bot. Vielleicht kannst du
nochmal kurz…. Level ist der kürzeste Pfad, den ein Nutzer oder ein Bot von einer Startseite aus zu einer anderen Seite nehmen
kann. Beim Crawling machen wir das so, dass wir Ebene für Ebene crawlen und wann immer wir ein Redirect haben, dann sind es beim Bot zusätzliche Ebenen, weil zusätzliche Requests. Beim Nutzer entstehen auch Requests, aber er muss hier keine zusätzliche Interaktion machen, der muss nicht klicken. Deshalb würde es beim Bot als Level dazu zählen, beim Nutzer nicht. Diese Unterscheidung ist also wichtig. Umgekehrt gibt es auch Dinge, wo der Bot besser hinkommt als der Nutzer weil der Pfad kleiner ist. Im Header verlinkte Sachen, Canonical, href-lang Auszeichnung, Alternates, Rel-next-prev. All solche Geschichten sind für den Nutzer nicht sichtbar, weil es keine weitere Verlinkung innerhalb der Seite gibt. Für den Bot ist es eine Möglichkeit diese Seiten zu erschließen, für den Nutzer nicht. Das allergravierendste ist wenn man Seiten findet, wo nur der Bot hinkommt und der Nutzer nicht. Das ist nicht so gut und das mag auch Google nicht so gerne. Dann hattest du uns noch ein paar best Practices genannt. Worauf man eigentlich achten sollte und alles fängt wieder beim Crawl an. Genau. Man sollte alles crawlen, nur wenn man seine Seite vollständig gecrawlt hat wird man auf den richtigen Daten vernünftige Entscheidung treffen. Wenn man nur einen Bruchteil crawlt hat man ein ganz anderes Bild vor Augen und trifft einfach Fehlentscheidung. Man sollte versuchen seine Seite an den Punkt zu kriegen wo man sie komplett erfassen kann. Wenn man das nicht kann, hat man in der Regel eh schon ein strukturelles Problem.
Dann sollte man seine Entscheidung so treffen, dass man sich große SEO- Hebel raussucht, also letztendlich wann immer ich viele Seiten auf einmal ändere, das ist in der Regel ein großer Hebel, vor allem bei größeren Seiten. Es macht im Bereich der Strukturoptimierung einfach wenig Sinn sich mit einer Hand voll Unterseiten auseinander zu setzen. Selbst wenn es offensichtlich falsch ist. Nochmal zu dem Crawl: wie findet man denn jetzt eigentlich die Zahl die man crawlen sollte, man weiß es vorher ja nicht? Es ist ein herantasten. Häufig ist es so, man macht eine Siteabfrage und ein Logfile und guckt was ist denn da innerhalb eines
Monats im Logfile an unterschiedlichen URL´s aufgelaufen. Das ist ein guter Indikator.
Meistens findet man noch deutlich mehr Seiten, aber man kann das aber einfach hochstufen. Also, rantasten und dann… Teilweise ist es dann auch so, dass man mit einem kleinen Crawl schon so offensichtliche Fehler findet. Also wenn man irgendwie Session ID´s in der URL findet das ist unendlich, das ist klar, dass ich das nie komplett crawlen kann. Dann muss ich das mitunter simulieren. Wie sieht es aus, wenn ich den Fehler schon behoben habe. Ich muss eben erst diesen Fehler beseitigen, bevor ich dann vernünftigen Crawl bekommen kann. Die Simulation war ja tatsächlich auch ein ganz spannendes Thema, gerade wenn man jetzt konstant an der Webseite arbeitet oder noch schlimmer, einen Relaunch plant, dass man vorher guckt bevor man so zusagen in diese Änderung investiert und was die eigentlich für Auswirkung für SEO haben dann am Ende. Das kann man mit eurer Software auch. Dann sollte man natürlich auch gucken, wenn man die Sachen umgesetzt hat sind
sie dann wirklich in der Auswirkung so wie man es erwartet hat. Auf Staging testen letzten Endes. Vielleicht kannst du nochmal sagen, wenn ich die ganzen Daten habe und Entscheidung treffen will,
worauf sollte ich da achten? Große Hebel drehen, also wirklich mit den Dingen anfangen die eben viele Seiten betreffen. Dafür sorgen, dass man den aktuellen Stand erhält, also
dass sich da nicht irgendwelche Dinge verschlechtern. Das sehen wir häufig, dass sich die Sachen über eine Zeit von mehreren Monaten so einschleichen. Man sollte da wirklich sehr im Monitoring drauf
achten, dass man alles immer nur in eine positive Richtung drückt und auch Abnahmeprozesse etablieren, wo SEO das letzte Wort hat und sagen kann: Geht jetzt nicht online, weil es schlecht. Das wäre der Traum. Wenn der SEO das letzte Wort hätte. Gibt es in einigen Firmen durchaus. Ist aber eine Frage, wie man so zusagen die wirtschaftliche Relevanz einschätzt. Ja Tobias, das war extrem spannend, also ich bin ja auch ein alter Hase, aber hab jetzt nicht in der Tiefe mit so großen Websites zutun gehabt wie du. Insofern bist du auch für uns immer ein guter Ansprechpartner, wenn es da Fragen gibt. Ihr könnt euch auch immer gerne an den Tobias wenden. Wenn ihr Fragen habt, schickt sie mir zu. Wir werden noch ein paar Links reinpacken, sozusagen in die Beschreibung, zu euren Guides und allen möglichen Themen. Also da kann man zu href-lang usw. sich nochmal in der Tiefe informieren. Vielen Dank, dass du da warst und wir sehn uns nächste Woche mit dem nächsten Thema wieder. Bis dahin. Euer Christian. Ciao, Ciao. … Ciao.

Leave a Reply

Your email address will not be published. Required fields are marked *