Einleitung: Podcasting und das Gefühl des Sprechens ins Leere
00:00:00
Speaker
Weißt du was? Podcasten hat irgendwie was von Altsein. Und ich meine so richtig alt. Jetzt nicht so Ende 50, Anfang 60, sondern richtig alt. So die Momente, wo man irgendwann anfängt, mit sich alleine zu sprechen. So fühlt sich das an, hier den 404 Podcast zu machen, zu dem ich dich heute herzlich willkommen heiße.
Einführung in die URL-Reduzierung
00:00:23
Speaker
Und wir haben heute ein spannendes Thema. Wir sprechen nämlich heute
00:00:27
Speaker
Zum ist das wenn die folie nicht funktionieren wir sprechen heute über url reduzierung wie man die plant und wie man sie auch im anschluss umsetzen kann und wenn dich das thema interessiert und warum ich das gefühl aber all zu sein dann bleibt einfach dran.
Herausforderungen des Podcastings ohne Feedback
00:00:55
Speaker
Ja, wenn ich einen komischen Einstieg mit so einem Satz zu beginnen, Podcasten ist wie alt zu sein. Aber so fühlt es sich tatsächlich für mich an. Ich sitze hier in meinem Büro zu Hause heute zumindest mal und spreche in meinem Telefon und ich kriege keinen Feedback. Das ist tatsächlich, also ich hätte das gar nicht gedacht, aber Podcasten ist
00:01:16
Speaker
Auf der einen Seite mega interessant und macht total viel Spaß. Auf der anderen Seite, vor allem in dem Format, in dem ich hier eben im Moment fahren muss, mega schwierig, weil du kriegst keinen Feedback. Du redest die ganze Zeit mit dir selbst und kriegst größtenteils überhaupt keine Rückinformation, sei es zu den Inhalten, sei es eben auch auf dem gesprochenen Satz, auf den ich mal aufbauen kann, sondern ich muss immer davon ausgehen, dass ihr das
00:01:43
Speaker
genauso versteht, wie ich das eben auch meine und hoffe, dass zumindest bei dem einen oder anderen was hängen bleibt und dass du damit was anfangen kannst, was ich dir hier
Notwendigkeit der URL-Reduzierung für SEO
00:01:53
Speaker
erzähle. Das ist jedenfalls das, was ich mir wünschen würde, was du mit dem Podcast machst. Einfach, dass er dein Horizont zumindest im Bereich von Website-Fehlern und von der Optimierung von Websites einfach erweitert und dass du auf Ideen kommst, wie du dein Produkt, deine Website besser machen kannst.
00:02:11
Speaker
Das heutige Thema ist teilweise oder wahrscheinlich zu einem großen Teil sehr SEO-lastig. Das heißt, wenn dich das Thema SEO nicht so stark interessiert, könnte es durchaus sein, dass heute der Podcast dich ein bisschen vielleicht auch überfordert, weil dir ja vielleicht gewisse Vorkenntnisse fehlen, aber vielleicht auf der anderen Seite auch viel Neues bringt, weil du dich damit noch nicht so stark beschäftigt hast.
00:02:38
Speaker
Wer muss jetzt eigentlich URL-Reduzierung machen und warum? Das ist eigentlich erstmal die erste Frage, die man sich stellen muss. In meinen Augen muss ich damit jeder beschäftigen, der eine Website hat, die einfach in Relation zum normalen Maß innerhalb eines Themas überproportional groß ist.
00:03:02
Speaker
Das muss man jetzt nicht verstehen auf Anheb. Das war jetzt schon ein bisschen schwierig ausgedrückt, aber packen wir das mal aus und verlegen das mal in die Einzelteile. Was meine ich innerhalb des Marktes, wenn ich eine Webseite neu bauen möchte?
00:03:18
Speaker
Da muss ich mich in der Regel erstmal nicht mit dem Thema URL-Reduzierung beschäftigen. Aber wenn ich eine neue Seite baue zu einem ganz speziellen Thema, das ich mir ausgesucht habe oder das ein Kunde von mir möchte, weil er eben eine Idee hat, dann muss ich erstmal schauen, zumindest wenn ich jetzt die SEO-Brille ausschließlich aufhabe,
SEO und Inhaltsplanung für neue Websites
00:03:39
Speaker
Mit wem habe ich mich da eigentlich angelegt, wenn ich davor habe zu ranken? Was sind das für Websites? Was sind das für Website-Typen? Was haben die für Content-Formate? Was muss ich planen? Welche Anzahl an Content müsste ich eventuell planen, also an Unterseiten?
00:03:55
Speaker
Nicht, dass diese Anzahl an Unterseiten jetzt zwingend eine Kennzahl ist, wie gut die Seite ist, aber man hat schon mal eine leichte Tendenz, wenn man zum Beispiel im Kreditbereich sieht, dass so der Durchschnitt, das ist jetzt eine fiktive Zahl, zwischen 150, 180 und 200 Unterseiten hat je Website, dann kann ich ziemlich sicher sein, selbst wenn ich eine mega holistische Landingpage habe, dass ich es wahrscheinlich
00:04:24
Speaker
nicht ohne weiteres, wenn nicht einige andere Faktoren noch wirklich gut sind, unter die Top 5 schaffen werde. Man muss einfach gewisse Themen, die so komplex sind, einfach auf mehreren Seiten eben auch besprechen. Es macht nicht immer nur Sinn, alles holistisch zu betrachten. Ich weiß, dass viele gerade das Thema mega spannend finden und ich finde das auch sehr spannend, aber
00:04:46
Speaker
Es ist so eben, dass man gewisse Inhalte nicht auf einer Verkaufsseite präsentieren möchte, so was wie eine FAQ zum Beispiel. Das muss sich eben gerade im Bereich Kredit, muss sich eben über viele Dinge aufklären, muss eben transparent sein und da gehört eben nicht alles auf so eine Verkaufsseite von so einem Kredit oder eben auf so eine Liedseite. So und
00:05:09
Speaker
Kommen wir mal ganz kurz wieder zu dem Ursprungsthema. Wenn ich jetzt weiß, ich brauche in etwa 200 Seiten, oder das wäre mal so die Zahl, die ich ermittelt habe, dass ich sage, okay, wenn ich alle meine Inhalte zusammengetragen habe, dann bin ich bei 200 und liege damit so im Durchschnittsmaß an typischen URLs, die so eine Website hat in dem Themenkomplex, dann ist es ja gut, dann passt das.
Verwaltung großer Nutzerinhalte und Reduzierung von dünnem Inhalt
00:05:33
Speaker
Bin ich jetzt aber in dem Markt bereits aktiv und ich habe vielleicht ein sehr, sehr großes Portal und habe das Problem, dass ich, weil mein Portal eben, sag ich mal, organisch gewachsen ist und vielleicht auch eine Historie hat, die 10, 15 Jahre, sag ich mal, Bestand hat, dann passiert es eben ganz natürlich, dass ich eine deutlich höhere Anzahl an URLs wahrscheinlich habe, weil ich vielleicht mal angefangen habe,
00:06:03
Speaker
über nutzergenerierte inhalte über einen forum beispielsweise eben die menge an seiten bei mir drastisch in die höhe zu treiben und so ein forum natürlich
00:06:15
Speaker
Wenn man da auch wirklich viel Moderationsaufwand betrieben hat in der Vergangenheit, das ist schwierig, das mal von heute auf morgen einfach abzuschalten. Vor allem eben einfach so sollte man das auf keinen Fall machen, sondern man muss eben gewisse Sachen dabei beachten. Und wenn man sich darüber am Klaren ist, dass man viele nutzergenerierte Inhalte hat und man weiß damit eigentlich fast automatisch, dass man zum einem nicht kleinen Teil, also eher zu einem wirklich großen Teil,
Bedeutung der URL-Reduzierung für Suchmaschinen
00:06:43
Speaker
eher dünne Inhalte hat, wo einfach wenig wirklich gute Informationen drauf sind. Im schlimmsten Fall sogar nicht richtige Informationen, weil vielleicht die Antworten nicht alle von Fachkräften verfasst wurden, sondern eben auch von Leinen innerhalb des Bereichs. Da muss ich eben auch zusehen, dass ich
00:07:01
Speaker
irgendwann mal die Anzahl an URLs reduziere. Ich habe zum Beispiel so ein nutzergeneriertes Forum und ich merke, dass die Website in sich dadurch zu zwei Dritteln aus wirklich dünnen Inhalten besteht.
00:07:19
Speaker
dann sollte ich dieses Forum zumindest mal zu den Teilen einstampfen, die wirklich schlecht sind. Klassischer Off-Topic-Bereich, Kaffeeklatsch gibt es ja gerne mal in so einem Forum, so ein Thread. Das sind so Sachen, die sollte man auf jeden Fall einfach auch mal kontrollieren, ob man die weiterhin benötigt und das sollte man dann, wenn man herausgefunden hat, was man reduzieren sollte, auch entsprechend umsetzen.
00:07:48
Speaker
Jetzt ist aber die große Frage, erstmal nochmal, warum sollte ich eigentlich die URLs reduzieren? Ich bitte immer auch SEO sich jetzt mal antritts betrachten, weil das ist so der Grund, warum ich dieses Thema auch aufgegriffen habe. Wir versetzen uns mal zurück in die Situation von demjenigen, für dem wir das irgendwie doch irgendwie auch machen, nämlich Google. Natürlich machen wir das alle für Nutzer.
00:08:15
Speaker
wissen wir alle, haben wir tausendmal gelesen und wissen auch, dass alles, was wir machen, natürlich vorrangig für den Nutzer ist. So soll das ja auch sein. Aber am Ende hat man eben doch einen nicht ganz unbeträchtlichen Teil an Organic Traffic und den möchte man auch gerne behalten bzw. man möchte, dass der mehr wird und da muss man eben auch zusehen, dass man Google das ganze schön und sauber verkauft.
00:08:39
Speaker
Stellt euch mal vor, ihr müsstet eine Serverfarm, wie Google sie mehrfach hat, bezahlen. Ihr müsstet für jede URL, die ihr in den Index schießt, an Google einen Euro, einen symbolischen Euro bezahlen. Jedes Mal, wenn Google kommt und diese URL crawlt.
00:09:01
Speaker
Ich bin mir ziemlich sicher, ihr würdet alle ganz genau überlegen, ob ihr diese jeweilige URL, die Google jetzt scrollen soll, tatsächlich an Google übermitteln würdet.
Googles Sichtweise auf das Crawlen übermäßiger URLs
00:09:13
Speaker
Gerade bei so einem Forum, stellt euch vor, jede URL, ihr müsstet ein Euro bezahlen, jedes Mal, wenn Google kommt, wie so ein Software-Service.
00:09:20
Speaker
Ich bin mir 1000% sicher, ihr würdet das ganze Thema viel, viel ernster nehmen. Und drehen wir den Spieß jetzt mal um. Google bezahlt eine Menge Geld dafür, um eure dünnen Inhalte zu crawlen. Und ich finde, das ist eigentlich viel, viel interessanter, sich das mal aus dieser Perspektive anzusehen. Weil wenn ich weiß, dass jemand Geld dafür bezahlt,
00:09:45
Speaker
meine Inhalte zu crawlen. Und dieserjenige ist irgendwann enttäuscht, weil er eben sehr, sehr viele dünne Inhalte findet ohne Mehrwert für seine eigene Zielgruppe. Weil Google will ja nur Seiten auch gelistet haben, die einen echten Mehrwert für die Nutzer von Google darstellen.
00:10:02
Speaker
So und wenn ich eben viele von solchen Inhalten habe, die Google eigentlich gar nicht crawlen müsste, dann ist es eine ganz natürliche Reaktion, dass Google das nicht gut findet und dass Google in Zukunft die betreffenden URLs mit einer sehr hohen Wahrscheinlichkeit weniger crawlen wird. Jetzt könnte man natürlich sagen, ok, Google pendelt sich da schon ein, wenn die schlechten URLs weniger crawlen oder machen sie das eben, das betrifft mich ja dann gar nicht.
00:10:31
Speaker
Ja, kurz gedacht ist das schon richtig. Guckt man sich das mal aus einer etwas größeren Perspektive an, mit ein bisschen Abstand, ist es aber so, dass Google natürlich weiß, wie viele URLs mein ganzes Produkt, meine ganze Website hat. Und wenn ich jetzt beispielsweise eine Website habe von 14.000 URLs und Google kommt und crawlt eigentlich nur, wie man mal,
00:11:02
Speaker
1400. 1400 URLs werden alle zwei, drei Monate durchgecrawled. Dann sind das gerade mal zehn Prozent von meiner ganzen Website. Google weiß ja, dass die anderen 90 Prozent gar nicht mehr groß an Wichtigkeit
Identifizierung unwichtiger URLs
00:11:17
Speaker
haben. Dann weiß Google natürlich auch, dass
00:11:21
Speaker
wir als Webmaster wahrscheinlich wenig in Qualität investieren, wenig uns um unsere Website kümmern und auch gar nicht so viel Wert darauf legen, wirklich eine gepflegte Website zu haben. Natürlich ist das jetzt sehr eindimensional betrachtet, aber denk da einfach mal drüber nach, was das für eine Außenwirkung ist. Das ist so, als wenn du dir morgens, bevor du ins Büro gehst, lediglich die Haare kämmst und ansonsten stinkend ins Büro kommst, weil du ja sagst, okay, Hauptsache man sieht, dass ich mir die Haare gekämmt habe, duschen brauche ich nicht.
00:11:50
Speaker
Ja, bei 90% vom Körper sieht man eh nicht. So in Entschwache. Dafür hinkt vielleicht etwas der Vergleich, aber vielleicht, wenn du das mal aus der Perspektive betrachtest, dann machst du dir vielleicht schon viel eher Gedanken darüber, ob dieses Crawl-Budget oder dieses ganze Thema Crawl-Verhalten auch für deine Website nicht so unwichtig ist. Jetzt haben wir das warum geklärt. Was man reduzieren sollte, war zur Hälfte. Ich würde nämlich sagen, da fehlt noch ein Teil.
00:12:20
Speaker
Was sollte man reduzieren? Es ist jetzt schwierig, das ohne ganz konkretes Beispiel zu sagen, weil du jetzt ja nicht die Seiten vorne Augen hast. Du hörst mir ja zu. Vielleicht überlegst du dir einfach selber mal anhand deiner Logfiles und schaust dir mal an, welche Seiten nicht gecrawled werden. Und dann weißt du zumindest mal, welche Inhalte für Google in der Regel eher uninteressant sind.
00:12:45
Speaker
Weil eben, vielleicht Qualität nicht stimmt, weil eben selten sich was aktualisiert, weil du einfach die Seiten so ein bisschen stiefmütterlich behandelt und rumliegen lässt. Schau dir einfach mal die Seiten an, die wenig gecrawled werden und dann hast du zumindest mal einen Anhaltspunkt.
00:13:03
Speaker
was du vielleicht reduzieren könntest oder wo du vielleicht für bessere Qualität sorgen solltest. Ja, auf der anderen Seite natürlich kannst du noch die Search Console Daten ranziehen und eben auch die ganz normalen Web-Analyse-Daten, beispielsweise aus Google Analytics.
Fallstudie: URL-Reduzierung bei Nageldesigngalerie.de
00:13:19
Speaker
Auch da kriegst du Informationen darüber, was eigentlich tatsächlich bei dir Organic Traffic bekommt.
00:13:25
Speaker
Und diese Inhalte, die quasi da aus dem Raster rausfallen, nämlich die, die keinen Traffic kriegen, die, die keine Sichtbarkeit haben, das sind mit einer ziemlich hohen Wahrscheinlichkeit eben auch die URLs, die du wahrscheinlich reduzieren könntest oder aber dir Gedanken machen musst, was da fehlt, was du besser machen kannst, um die Inhalte einfach auch zum Ranken zu bringen, damit sie wieder für Google Bedeutung haben und vor allem eben auch für deine Nutzer.
00:13:51
Speaker
Damit haben wir auch die letzte Frage geklärt, was benötigt man für Informationen, um eine Bewertung machen zu können, was man da reduzieren kann. Nimm dir Google Analytics, nimm dir die Search Console, schau auch in eines deiner Link-Tools, wo hast du Backlinks, wo sind vielleicht auch Backlinks, die ins Leere laufen.
00:14:10
Speaker
pack dir das alles in eine Excel-Liste oder in eine Datenbank und schau dir das Ganze dann einfach mal aus technischer Sicht an, was du da für Werte bekommst, wo du quasi irgendwie mal einen Strich ziehen kannst und alles, was darunter fällt, musst du dir einfach eben anschauen. Das heißt nicht, dass du den Rest auch nicht anschauen solltest. Ich hatte heute Nachmittag ein sehr schönes Gespräch mit Marco Jank, genau zu diesem Thema nämlich, und wir haben da zwei komplett unterschiedliche Rangehensweisen, was nicht heißt, dass ich die eine gar nicht mache, aber
00:14:42
Speaker
Vom ersten Blick habe ich eine sehr technische Sicht und einen sehr technischen Ansatz. Marco geht an einen ganz anderen Ansatz. Der guckt sich vorrangig, wenn ich ihn richtig verstanden habe. Wenn nicht, ergänze mich bitte. Oder wir machen gemeinsam einen Podcast zu dem Thema aus Content-Sicht ran. Er schaut, was fehlt an Informationen auf Seiten, die nicht gut konvertieren, die nicht zufriedene Werte haben.
00:15:07
Speaker
Und schaut sich da eben auch an, dass er das alles verbessern kann. Ist jetzt vielleicht etwas kurz gefasst, aber wir haben knapp eine Stunde telefoniert. Das passt jetzt nicht in den Podcast und gehört dir auch nicht alles hin. Ja, und dann geht es aber auch irgendwann, wenn ich das Ganze in so einer Datenbank habe.
00:15:24
Speaker
Auch irgendwann mal an die Umsetzung. Ich würde das Ganze jetzt mal an einem Beispiel bringen, was ich auch auf der SEO Campics erzählt habe. Da habe ich nämlich das, was ich jetzt hier am Podcast erzähle, zum Teil eben auch als Session gehabt. Da ging es eben um Crawlability, also wie ich quasi die Inhalte zur Verfügung stellen kann, die wirklich gut sind und wie ich das Crawler-Verhalten verbessere.
00:15:47
Speaker
Ich habe mir aber selber die Aufgabe gesetzt, dass ich meine Nageldesigngalerie.de reduzieren möchte in der Anzahl an URLs. Warum habe ich das gemacht? Ich habe mir einfach mal den Webbewerb angeschaut und dort mal angeguckt, wie viele Unterseiten da eigentlich vorhanden sind und wie viele dünne Seiten da aus dem Crawl Budget quasi ferngehalten werden.
00:16:09
Speaker
und habe dann für mich einfach den Entschluss getroffen, dass ich viele, viele von meinen über 8000 Bildern gar nicht mehr im Index haben möchte.
00:16:19
Speaker
Das ist für mich eine ganz logische Sache, weil ich eben sehe, wenn man sich das in Sistrix mal anschaut, dass eben auch die Bilder bei mir fast keine Rankings haben. Also das ist wirklich ein kleiner Bruchteil von Seiten, die da tatsächlich ein Ranking haben. Das müssten in etwa, ich hab's jetzt nicht genau im Kopf, hab's in der Datenbank zwar drin, aber es müssten um die 10 bis 20 Uralt sein von 8000, die überhaupt nur irgendwelche Rankings haben. Und das ist viel zu wenig.
Datengetriebene Entscheidungen für URL-Beibehaltung
00:16:48
Speaker
um länger den Crawler auf solche schlechten Seiten auch raufzuschicken. Deswegen habe ich mich dazu entschlossen, einfach diese Seiten komplett aus dem Crawl-Vorgang rauszuschieben. Also nicht nur aus dem Index rauszunehmen, sondern auch wirklich aus dem Crawl-Budget rauszuziehen, damit ich wirklich nur noch Seiten habe, die sich Google anschauen muss, die wirklich einen Mehrwert haben, wo auch ab und zu sich mal was verändert.
00:17:12
Speaker
möchte damit einfach die Qualität komprimieren und verdichten, statt das Ganze zu verwässern, indem ich immer mehr neue Bilder draufsetze. Bei mir kommt noch ein etwas unschöner Faktor dazu, der wahrscheinlich bei dir ziemlich sicher anders sein wird. Bei mir sind die ganzen Inhalte nutzergeneriert, das heißt, es ist nicht einfach so, dass ich
00:17:37
Speaker
dass ich bestimmen kann und ich habe auch eine Community dahinter, die auch da eben neue Bilder regelmäßig einflegt. Das heißt, ich kann nicht mal eben sagen, ich lösche was, weil die Nutzer, die da Bilder hochladen, die laden ja regelmäßig Bilder hoch zum Teil. Und wenn ich mich jetzt dazu entscheide, einfach mal einen Großteil der Bilder zu löschen, das fänden die definitiv nicht lustig und das kann ich auch auf keinen Fall machen.
00:18:00
Speaker
Das heißt, ich muss ein bisschen anders vorgehen als du vielleicht. Ich muss mich eben um eine De-Indexierung kümmern, wo du vielleicht überlegen kannst, es komplett zu löschen, muss ich eben nur mit No-Index arbeiten. Aber gehen wir mal der Reihe nach. Ich habe jetzt mal eine Liste, die ich mir in meiner Planung, am Ende ist einfach eine Datenbank oder eine ganz normale Excel-Liste dabei rausgekommen, in der ich in der ersten Spalte die URLs habe. In der zweiten Spalte stehen dann solche Sachen wie Anzahl an Backlinks,
00:18:31
Speaker
Besucher in den letzten drei Monaten, Bounce-Rate und Conversion-Rate in Bezug auf meine Ziele, die ich eben habe etc. pp. Also alle die ganzen Sachen, die für mich wichtig sind, an denen ich bemesse auf URL-Basis, ob diese Seiten länger im Index drin sein sollen oder eben nicht.
00:18:49
Speaker
Ich werde, weil das Thema sehr, sehr schwierig ist, es zu verstehen, dazu auch nochmal ein kleines Video machen, wie ich da vorgehe, weil eine Excel-Liste jetzt in so einem Podcast zu beschreiben, ist ziemlich mühsam. Auch das Vorgehen jetzt ganz konkret, wie ich mir die Daten hole, das ist jetzt nicht für ein Podcast, das werde ich dann einfach nochmal an einer anderen Stelle aufziehen. Wenn dich das interessiert, dann schreib mir bitte eine Mail, dann lasse ich dir da auch entsprechende Informationen zu kommen, wenn das Ganze dann online ist.
00:19:17
Speaker
Wenn ich diese Liste habe, habe ich irgendwann einfach ein riesiges Daten-Set und kann mit diesen Daten eben arbeiten.
Technischer Prozess der URL-Entfernung
00:19:26
Speaker
Und jetzt könnte man ja mal, stellen wir einfach mal so eine Hypothese auf, ich würde alle Seiten, die ein, die Minimum im letzten Vierteljahr zehn Besucher über Organic bekommen haben,
00:19:42
Speaker
Und ja, die Links sind mir da eigentlich egal. Hauptsache, sie haben jetzt erstmal Organic Traffic bekommen. Zehn Besucher im letzten... im letzten Monat ist besser. Zehn Besucher im letzten Monat. Alle Seiten, die das erfüllt haben, die bleiben auch im Index. Erstmal bestehen oder von denen gehe ich erstmal aus, dass sie auch Organic Traffic bekommen und das wahrscheinlich auch in der nächsten Zeit. Und alle Seiten, die da drunter fallen,
00:20:06
Speaker
schaue ich mir dann auch in Bezug auf Backlinks nochmal genauer an. Aber diese, die eben 10 organisch bekommen, die behalte ich definitiv im Index. So und alle weiteren, wie gesagt, da gucke ich, sind da Backlinks vorhanden. Wenn ja, dann muss ich entsprechend die wahrscheinlich auch im Index lassen, kommt immer auf den Fall drauf an. Aber gehen wir mal davon aus, dass alle die, die keinen Traffic haben und nicht wirklich interessante Backlinks haben, dass ich die auch nicht mehr im Index haben möchte. Dann könnte ich jetzt
00:20:36
Speaker
In meinem Fall halt leider nicht sagen, dass ich einfach mal so auf eine andere Landing-Page weiterleite, sondern ich muss die ja behalten, weil wie gesagt, das sind ja die von den Nutzern.
Umgang mit großen URL-Volumen
00:20:48
Speaker
In meinem Fall würde ich folgendes machen, ich würde diese Bilder erstmalig auf No-Index setzen.
00:20:54
Speaker
damit der Crawler diese neue Veränderung in den Metatech Robots auch herausfinden kann. Also es macht jetzt wenig Sinn hier direkt über die Robots TXT den Crawler auszuschließen, weil der Crawler dann ja gar nicht mitbekommen kann, dass ich eben die Seite auf New Index gestellt habe und sie gar nicht mehr im Index haben möchte.
00:21:14
Speaker
Es könnte durchaus sein, dass Google selbstständig die dann irgendwann entfernt. Ich gehe aber den sauberen Weg und schließe mich erstmal dazu, eben diesen No-Index wirken zu lassen, damit die Seiten auch wirklich aus dem Index verschwinden. Das braucht natürlich eine Weile, das ist logisch. Das liegt eben daran, dass diese Seiten eben auch gar nicht mehr gecrawled werden. Das heißt, ich muss mich jetzt darum kümmern, dass diese Seiten wieder gecrawled werden.
00:21:40
Speaker
Das mache ich folgendermaßen, ich schaue mir die ganzen URLs eben an, die ich eben aus dem Index raushaben möchte, pack mir die in eine ganz klassische statische HTML-Seite, auf der eigentlich nur Links drauf sind, nämlich genau die Links von den Seiten, die ich aus dem Index raushaben möchte.
00:21:57
Speaker
Mache das mit für jeweils 100 Stück, lege ich ein HTML Dokument an. Ganz simpel, wirklich ganz statisches HTML, da lässt sich ein Link drauf, der genau auf diese URLs drauf geht, also jeweils 100 Links zu genau diesen 100 URLs.
00:22:12
Speaker
Bis ich dann irgendwann mal alle URLs, die ich aus dem Index raushaben möchte, in einzelne HTML-Dokumente gepackt habe. Das kann also durchaus sein, dass das so 10, 20 sind, je nachdem wie viel dann eben auch wirklich deindexiert werden sollen. Und dann gehe ich in die Search-Console rein.
00:22:29
Speaker
und submitte diese statischen HTML-Dokumente ganz normal über den Abruf wie durch Google-Befehl. Weil ich nämlich dadurch sicherstellen kann, dass Google sich, es gibt da die Option, dass ich nämlich auch sagen kann, schau dir bitte auch die alle direkten verlinkten
00:22:45
Speaker
URLs an, dass ich den Googlebot mal wieder auf diese Seiten bringe, obwohl das eigentlich in der Regel gar nicht mehr von sich aus tut. So kann ich eben sicherstellen, dass Google sich diese Seiten auch mal wieder anschaut, zumindest kann ich das zu einer hohen Wahrscheinlichkeit, und kann dann im Anschluss eben nach einigen Wochen relativ sicher auch feststellen, dass diese Seiten aus dem Index entfernt werden. Das dauert eine Weile, aber so kann ich das Ganze beschleunigen.
00:23:12
Speaker
Ich schaue mir das Ganze dann an, welche bereits nicht mehr im Index sind, die nehme ich auch aus den HTML-Listen raus und irgendwann wird diese Liste immer kleiner aus diesen einzelnen HTML-Seiten. Und ich pushe das so lange bis zu Google hin, bis Google dann irgendwann mal wirklich alles draußen hat. Das mache ich jetzt nicht jeden Tag, aber
00:23:29
Speaker
Wenn ich dann einfach sehe, dass noch mal ein paar URLs neu gecrawled werden müssten oder einfach, dass das noch nicht aus dem Index rausgenommen wurde, dann lade ich eben dieses aktualisierte HTML-Dokument noch mal hoch, auf den eben die noch fehlenden, noch im Index befindlichen URLs drin sind. Und dann sollte es relativ zügig auch klappen, dass dann diese Seiten irgendwann aus dem Index raus sind. Ja, und wenn ich das dann gemacht habe,
00:23:55
Speaker
Dann kommt der, in meinem Fall eben, sehr speziellen Fall, habe ich ein Verzeichnis. Das macht es eben bei mir sehr schwierig. Ich habe eben nur ein Verzeichnis, in dem meine ganzen Detailseiten drinstecken. Das heißt, ich kann nicht einfach global sagen,
00:24:12
Speaker
Robots, TXT, Dissolaw, alles was in das Verzeichnis geht oder alles was in dem Verzeichnis drin liegt. Nee, dann würde ich ja auch die guten Seiten quasi davon betroffen sein. Ich habe mir dann ein neues Verzeichnis aufgemacht, das nenne ich dann Archiv. Und dort lege ich all die rein, die ich zwar noch benötige, weil die Community die einfach erwartet, dass sie auch vorhanden sind und nicht gelöscht werden.
00:24:42
Speaker
macht dann eine Weiterleitung quasi von der alten URL auf die neue in dem Archiv. Und dieses Archiv, das schließe ich quasi aus dem Crawl-Vorgang über die robots.txt aus. Das heißt, im ersten Schritt kümmere ich mich um die De-Indexierung und sobald die stattgefunden hat, verschiebe ich dieses Dokument in ein anderes Verzeichnis, welches über die robots.txt gesperrt ist. Und so kann ich eben Stück für Stück
00:25:10
Speaker
erstmal denexieren und dann aber auch wirklich die URLs aus dem Crawl-Vorgang herausnehmen.
Richtige Nutzung von HTTP-Statuscodes
00:25:17
Speaker
Das ist natürlich ein sehr spezieller Fall, weil ich eben auch ein spezielles Problem habe mit diesen Nutzer generierten Inhalten, die ich nicht einfach löschen kann. Ich möchte das Ganze jetzt nochmal ähnlich aufdröseln für dich, der wahrscheinlich eine normale Website hat, wo das nicht ganz so kompliziert sein muss wie bei mir jetzt hier. Ich würde, fangen wir jetzt nochmal ganz vorne an bei dieser
00:25:39
Speaker
Bei dieser Excel-Liste, ich würde an deiner Stelle folgendes machen. Ich würde einfach gucken, die, die in dieses Raster oder aus dem Raster rausfallen, also all die, die du einfach aus dem Crawl-Vorgang raushaben möchtest, die du löschen möchtest oder eben nicht mehr möchtest, dass Google darauf zugreift.
00:25:55
Speaker
Ich würde im ersten Hinsicht immer gucken, ob ich den Inhalt nicht vielleicht verbessern kann. Das ist erst mal Punkt eins. Also wenn ich wirklich sehe, dass da Inhalte sind, die eigentlich gar nicht so schlecht sind, dann würde ich erst mal probieren, die Inhalte vielleicht zu verändern und zu aktualisieren oder eben auch zusammenzuführen. Wenn ich vielleicht sehe, dass ich zu einem Keyboard mit fünf URLs im Google-Index
00:26:17
Speaker
irgendwo renke, dann würde ich vielleicht gucken, dass ich das Ganze auf eine URL reduziere und die dann aber wirklich pushe und das so ein bisschen holistisch mache. Ja, das kannst du natürlich machen, weil du hast ja irgendwann mal Content erstellt dafür, der vielleicht auch gar nicht so schlecht ist. Du musst ihn einfach nur verbessern. Wenn du dich aber entscheidest, das definitiv zu löschen, oder du sagst, ich brauch das nicht mehr, oder das Produkt gibt's gar nicht mehr,
00:26:40
Speaker
Dann würde ich zwei Sachen machen. In erster Instanz würde ich den Redirect setzen, das heißt ich würde gucken, dass ich entweder auf ein ähnliches Produkt verweise oder eben auf die darüber liegende Kategorie. Natürlich ist der 301 dazu eigentlich gar nicht gedacht, weil der 301 eben sagt, dass ein Inhalt, der hier nicht mehr war, jetzt hier auf der neuen URL vorhanden ist.
00:27:01
Speaker
Das ist ja in deinem Fall nicht so, wenn du auf eine Kategorie darüber verweist oder auf ein ähnliches Produkt, dann ist es ja nicht das gleiche Produkt. Am Ende ist es aber so, dass man hier vielleicht jetzt mal ein Stück weit mehr an den Nutzer denken sollte und sich wirklich überlegen muss, okay, ein Nutzer, der sich das vielleicht mal irgendwo abgespeichert hat oder vielleicht aus einer alten E-Mail nochmal auf einen Link draufklickt oder ein Newsletter oder wo auch immer er diesen Link her hat,
00:27:25
Speaker
Den möchte ich doch nach Möglichkeit nicht einfach in so eine Fehler 404 oder richtigerweise auf eine Fehler 410 Seite verweisen, sondern eben zu einer Seite, die auch zumindest mal im Ansatz seinen Bedarf vielleicht decken kann und vielleicht sein Problem löst. Deswegen würde ich wahrscheinlich erstmal schauen, kann ich eine Weiterleitung einbauen? Wenn es passt, dann mache ich das. Wenn ich sage, okay, ich habe den Inhalt überhaupt nicht mehr auf meiner Website drauf oder ich habe auch nichts ähnliches,
00:27:54
Speaker
dann lösche ich es verdammt. Und dann habe ich eben nur eine Wahl, nämlich den Status Code 410. Warum nicht 404? Das ist jetzt so ein Thema, da fragst du 10 SEOs und du kriegst minimum mal zwei unterschiedliche Antworten. Der 404, wenn man es jetzt mal aus der komplett technischen Sicht betrachtet, ist ein Fehlercode und kein
00:28:18
Speaker
Code, der sagt, der Inhalt ist jetzt nicht mehr da. Ja, ein Fehlercode ist nämlich das, was der Ausdruck Fehler auch sagt, etwas Temporäres, was gerade nicht funktioniert. Wenn ich aber mich entscheide, etwas zu löschen, dann wird das nicht nur temporär passieren, sondern der ist dann weg. Und genau für diesen Fall gibt es eben auch einen Status Code und das ist der 410er, der ist genau dafür gemacht, wenn es etwas nicht mehr gibt und auch nicht mehr geben wird.
00:28:45
Speaker
dann sollte man eben diesen Status Code 410 ausgeben und nicht den 404er. Ich weiß, dass viele da ein bisschen unterschiedliche Meinungen haben. Viele sagen, dass der 404er so ein bisschen so eine Art
00:29:02
Speaker
Soft-Lösch-Methode ist, weil man sich vielleicht mal irgendwann überlegt, den Inhalt dann doch noch mal zu veröffentlichen, aber da sind wir halt nochmal ganz ehrlich, wer macht das schon? Ich persönlich nehme da Abstand von, also ich mache alles sauber per 410, so wie es eben auch der Standard definiert hat und gehe auch davon aus, dass Google das
00:29:21
Speaker
Schön, Philip. Dafür ist der Status Code gedacht und Google richtet sich eigentlich bei allen Dingen, die sie so machen, größtenteils schon an die Status Codes und deren jeweiligen Sinn und Zweck. Deswegen beim Löschen 410. Jedenfalls dann, wenn ihr mit mir zusammenarbeitet, dann geht davon aus, ich bau 410er ein und nicht 404er. So, bei 410ern ist es eben so oder auch bei 404ern, dass eben der Inhalt da nicht mehr ist, wo er mal war.
00:29:50
Speaker
Und ihr habt dann eben auch den Vorteil, dass ihr euch das ganze Thema No Index gar nicht mehr berühren müsst, weil beim 410er wird Google dieses Dokument ziemlich sicher bald aus dem Index entfernen, weil Google eben auch nicht auf Leichen verlinken möchte.
00:30:05
Speaker
sondern eben nur auf Inhalte, die auch da sind.
Strategien zur URL-Reduzierung je nach Website
00:30:08
Speaker
Und da ist der 410er doch etwas rigoroser als der 404er. Weil beim 404er ist es eben so, dass Google ja durchaus auch mal einen 404er finden kann, weil wenn der Inhalt gerade halt mal nicht da ist, warum auch immer, dann kann Google ja nicht gleich pauschal immer gleich die Seite aus dem Index rausnehmen und sie erst beim nächsten Mal wieder reinsetzen.
00:30:27
Speaker
Beim 410er guckt sich Google das in der Regel ein maximal zweimal an und dann ist der Inhalt auch tatsächlich weg aus dem Index. Beim 404er kann das durchaus länger dauern. Da kannst du das vier, fünf Mal unter Umständen, je nachdem wie wichtig das tatsächlich auch ist, man muss halt auch überlegen, wenn man jetzt eben in einem starken kämpften Bereich ist,
00:30:47
Speaker
Setzt euch da bitte mal in Google Position und jemand sucht zum Thema Kredit. Gehen wir mal wieder auf das Thema, da haben wir ein ziemlich hohes Suchvolumen und es ist auch so, dass da eben
00:30:58
Speaker
eine gewisse Form von Seriosität erwartet wird. Und wenn ihr sucht nach einem Kredit und die ersten zwei Ergebnisse sind ein 404, das würde man auf Dauer nicht tolerieren. Eure Nutzererfahrung mit dem Produkt Google würde dadurch leiden. Und das ist natürlich nichts, was Google haben möchte. Wenn ihr jetzt aber in einem ganz ungeheuren Teichpumpen beispielsweise, ihr habt irgendwas zum Thema Teichpumpen mal irgendwann gemacht,
00:31:26
Speaker
Man munkelt ja, ich hätte da ein Projekt. Dann ist es da so, dass Google da etwas, also jedenfalls sind das meine Erfahrungen, gerade in etwas weniger umkämpften Bereichen mit etwas niedrigem Suchvolumen, da sind so 404er doch durchaus mal noch toller, da sind sie etwas toleranter als eben bei den starken kämpften Suchbegriffen. Ja, ich
00:31:52
Speaker
Was soll ich sagen? Ich bin am Ende mit dem Thema, weil am Ende muss man klar sagen, wenn ich etwas redirecte, dann redirecte ich es eben und wenn ich etwas lösche, dann lösche ich es.
Komplexität des URL-Managements
00:32:04
Speaker
Mehr Möglichkeiten habt ihr nicht, wenn ihr eure URLs reduzieren möchtet.
00:32:11
Speaker
Es ist halt nicht ganz so einfach, wie man sich das vielleicht manchmal vorstellt. Es ist auch so die Erfahrung, die ich gemacht habe bei einem Projekt oder bei Kundenprojekten, bei denen ich mitgemacht habe, dass man wirklich das sich von Fall zu Fall anschauen muss und das auch nicht so pauschal nur jetzt über eine Excel-Liste entscheiden sollte.
00:32:32
Speaker
ob ich eine URL entferne oder eben auch nicht. Das sind manchmal eben auch ganz andere Faktoren, die da relevant sind. Also gerade dann, wenn ihr euch auch die Traffic-Zahlen von Google Analytics reinzieht und ihr macht das lediglich nach Organic Traffic, dann ist das nämlich zu kurz gedacht, weil es eventuell Seiten sind, die in eurer Conversion-Strecke wichtig sind, die zwar organisch keinen Traffic haben, aber intern eben doch genutzt werden.
00:32:56
Speaker
um eben gewisse conversions auszulösen und dann würden die in diesen berichten eben nicht mehr auffallen deswegen so ganz so einfach.
SEO-Dienstleistungen und Kontaktangebot
00:33:05
Speaker
Darf man es eben nicht betrachten. Wenn du dabei Hilfe brauchst, machen wir mal einen kleinen Werbeteil. Dann kannst du mich gerne anschreiben oder auch gerne mal anrufen. Dann können wir da gerne mal drüber reden, was ich dir da abnehmen kann, wie ich dir dabei helfen kann. Weil ich mache Technical SEO Audits. Der ein oder andere weiß das vielleicht. Ich erzähle nicht nur, sondern ich mache auch. Und wenn du da Hilfe brauchst, sprich mich einfach mal an. Ich freue mich und wünsche dir jetzt noch einen schönen Abend oder eine schöne Restwoche.
00:33:35
Speaker
je nachdem, wann du einen Podcast hörst und freue mich, wenn du auch nächste Woche wieder einschaltest zum 4 in 4 Podcast mit André Goldmann. Macht's gut, bis dann, ciao!