Einführung und Vorstellung von Johan von Hülsen
00:00:01
Speaker
Was Publisher aus dem Data Warehouse League lernen können, erfahren wir heute von Johan von Hülsen. Viel Spaß dabei!
00:00:23
Speaker
Einen schönen guten Morgen, Mittag, Abend, was auch immer du aus dem Data Warehousing lernen kannst. Darüber sprechen wir heute. Jetzt habe ich mal die Anmoderation so richtig versaut und das bleibt einfach mal drin.
Relevanz von SEO für Verlage und Johans Erfahrungen
00:00:35
Speaker
Ich begrüße die Jolle, die natürlich wieder dabei ist und unseren wunderbaren Gast, Johann von Hülsen.
00:00:44
Speaker
Ich habe das Gefühl, ich bin heute von Flügelmenschen umgeben. Das liegt daran, dass ihr beide bei Wingman seid. Das werden wahrscheinlich alle wissen da draußen. Aber wir haben heute ein spannendes Thema, was ich jetzt in unserer Vermischung aus Podcasts für gute Websites und dem Titel, sage ich jetzt mal, dieser Episode schon vermünzt habe. Wir möchten mal darüber sprechen, was Publisher aus den Data Warehouse-League lernen können und haben uns dazu, ja, mit Johann, glaube ich, jemanden
00:01:13
Speaker
ins Boot geholt. Ich sehe gerade seine Fototapete, da ist ein wunderschöner Strand zu sehen. Deswegen dachte ich mir passt das mit dem Boot ganz schön. Der dazu eine ganze Menge zu erzählen hat und sagt Hallo, Johann. Ja, hallo nochmal. Schön, dass ich da sein darf. Ja, Dito. So, Johann, du kennst dich mit Publishern aus, richtig?
00:01:39
Speaker
Ich versuch's immer wieder. Jeder ist anders. Aber ja, ich hab gelernt, mit Publishern umzugehen. Publisher waren mein Einstieg in SEO. Und von daher hab ich da nicht nur als Konsument und Demokrat, sondern auch als SEO irgendwie lange Beziehungen dazu zu verstehen, wie denn dieses ... dieses SEO für Publisher funktioniert. Und ganz spannend, und ich greif jetzt ganz weit vor zu einem Punkt, zu dem wir später vielleicht noch mal kommen,
00:02:09
Speaker
Aber ich habe angefangen, Reportings für Verlage zu schrubben als kleiner Praktikant und habe irgendwie CSV-Tabellen bekommen, wer denn wo in Google News in diesem Feed angezeigt wird.
00:02:22
Speaker
Ich bin die durchgegangen und habe dann festgestellt, das sind immer dieselben, die vorne stehen. Das hat nichts mit Publikationsfrequenz zu tun, das hat nichts mit bestimmten anderen Metriken zu tun.
Publisher SEO vs. Evergreen SEO: Herausforderungen und Anpassungen
00:02:34
Speaker
Und es muss irgendwie so einen Qualitätsscore geben. Und den habe ich jetzt im League gefunden, dass es ihn wirklich gibt. Und das ist sehr schön, wenn man dann 15 Jahre später einen Beleg findet für etwas, was man in den Daten irgendwie vermutet hat, dass es doch da sein muss.
00:02:51
Speaker
Ich wollte gerade fragen, wie lang das her ist, weil sowas ist ja dann immer ein schönes Gefühl, wenn man dann irgendwann mal Jahre später so eine Bestätigung kriegt für etwas, was man schon lange vorher sich gedacht hat oder manchmal sogar schon auch erzählt hat, aber nie belegen konnte. Ja. Lass uns doch einmal kurz klären. Publisher SEO oder Publishing SEO oder Verlag SEO oder News SEO auf der einen Seite.
00:03:16
Speaker
versus normales oder Evergreen-SEO? Ganz grob, warum machen wir diese Unterteilung überhaupt? Du unterstellst jetzt, dass Verlage kein Evergreen-SEO machen würden. Das ist anders. Es ist non-exclusive quasi.
00:03:37
Speaker
Ne, New SEO funktioniert tatsächlich komplett anders als SEO für E-Commerce, Video oder andere Geschichten. Daran muss man sich ein bisschen gewöhnen, wenn man damit zum ersten Mal Kontakt hat. Das hat zum einen damit zu tun, dass Journalisten ganz spezielle Menschen sind. Ich habe sie wahnsinnig gern und sie sind auch total wichtig. Ich wollte gerade sagen total wertfrei, aber dann hat er sie doch gern.
00:04:00
Speaker
Ja, doch, schon. Aber sie haben halt doch auch als Menschenschlag und Disziplin so eigene Wertvorstellungen und Ideen, wie Dinge zu laufen haben, wofür man Texte schreibt und dass man Texte doch am besten nicht für eine Maschine schreibt, sondern für Menschen. Wenn man dann sagt, okay, dann lass uns doch mal messen, wie gut der Artikel wirklich gelesen wird, dann sagen sie ja, aber
00:04:23
Speaker
Ob der jetzt wirklich zu Ende gelesen wird, sagt ja jetzt über die Qualität des Textes am Ende auch nichts aus. Die Menschen zählen dann doch nicht so viel.
00:04:35
Speaker
Genau, also da gibt es schon irgendwie so in diesem... Es ist nicht einfach wie in einem Shop, wo du sagst, wir bauen jetzt ein Magazin und dann haben wir drei Leute, die dafür schreiben und die sind irgendwie weisungsbesorger, sondern da gibt es ein ganz eigenes Selbstbewusstsein und auch ein politisch aufgeladenes Umfeld. Das macht es zum einen ganz spannend. Da muss man anders ran gehen, um die Leute zu motivieren. Es ist was anderes, ob du einen Redaktionsworkshop für irgendwie so eine Newsredaktion machst oder für irgendwie
00:05:05
Speaker
irgendein Redaktionsverbund, der jetzt nicht ganz so newsgetrieben ist. Und das andere ist die Geschwindigkeit. Also du hast gar nicht die Zeit, wenn jetzt irgendwo auf der Welt etwas passiert, zu sagen, ja, machen wir erst mal eine Keyboard-Recherche. Und dann schreiben wir ein Briefing, und dann wird das Briefing abgearbeitet, und dann kommt da ein toller Text raus. Du musst dich darauf verlassen können, dass die Leute, die diesen Content anfassen, und gerade schreiben, wo jetzt gerade was passiert,
00:05:35
Speaker
dass die dann auch wirklich ihr Zeug so machen, dass es seoseitig optimal ist, um sich dann durchsetzen zu können. Das ist ein ganz anhängendes Zeug. Ich hätte da mal gleich einen Einwand. Das sind so Beiträge, die mich immer extrem nerven, weil man weiß, sie sind nicht wirklich
00:05:54
Speaker
in die Tiefe recherchiert, weil man noch nicht genau wusste, wie die Sachlage eigentlich konkret ist, gerade bei so brandaktuellen Sachen. Deswegen ich zum Beispiel gerne Zeitung lese. Die ist in der Regel meistens dann etwas fundierter, weil man mehr weiß und nicht so viel auf... Wir nehmen jetzt hier die Headline mit, um den Traffic abzugrasen.
00:06:16
Speaker
Ja, gibt es auch und es gibt solche und solche Varianten das zu machen und das eine ist vielleicht langfristig erfolgreicher als das andere. Und es gibt auch unter den unter den Publishern ja welche die eher in dem Bereich Spam und schnell und hektisch.
00:06:34
Speaker
Und dann gibt es welche, die eher in dem qualitativ hochwertig langfristig durch Dacht-Top fallen. Also auch da gibt es ja ganz unterschiedliche Modelle, so wie wir es im Shop SEO oder Affiliate oder aus irgendwelchen anderen Bereichen entsprechend auch kennen.
Datenlecks, Google News und SEO-Implikationen
00:06:52
Speaker
Jetzt haben wir ja ein bisschen geguckt, warum ist das eigentlich relevant und was unterscheidet das so ein bisschen vom SEO, wie wir es normalerweise so kennen. Dann haben wir gesagt, Data Warehouse Leaks, aber es sind ja noch ein paar mehr Fundstücke, die wir über die letzten Jahre so hatten. Dann nimm uns doch da einmal mit, bevor wir jetzt wirklich inhaltlich einsteigen. Was hast du dir denn da angeguckt?
00:07:13
Speaker
Also im Kern gibt es drei ganz spannende Quellen. Die eine ist von 2019, also wenn jetzt alle rumrennen und sagen hier Seo Trends 2025. Ich finde es ganz cool, wenn man sich die alten Sachen nochmal anguckt. Da kann man eine ganze Menge daraus lernen. Der Leak von 2019, das war
00:07:35
Speaker
Ein verrückter, Zack Vorhies hieß der, der hat sich überlegt, dass er Trump total gut findet und hat festgestellt als Google-Mitarbeiter, dass Trump total niedergemacht wird von Google geradezu und hat dann mal 400 Megabyte interne Dokumente rausgeschmissen.
00:07:55
Speaker
und ins Netz gestellt und gesagt, die belegen jetzt, dass Google gegen Trump ist, tun die Dokumente nicht. Aber es sind zwei ganz spannende Dinge, drei ganz spannende Dinge da drin, aus SEO-Sicht. Das eine ist das Twiddler-Dokument, das in diesem Jahr dann häufiger die Runde gemacht hat. Das zweite... Ja, ganz kurz, ich wollte noch mal sagen, dazu hatten wir auch Hans
00:08:25
Speaker
zu Gastronberg, der uns das von chefkoch.de Seite mal ein bisschen näher gebracht hat. Genau. Genau. Das auch super spannend. Das Dokument habe ich mich mit Hans auch schon länger darüber ausgetauscht. Also das ist eine, was in dem liegt total spannend ist. Das zweite ist ein Dokument, wo das Google News Team sich mit Händen und Füßen dagegen wehrt, die Penalty Mechanismen des Google Organic Teams zu übernehmen.
00:08:51
Speaker
Das ist aus zwei Richtungen spannend. Aus der einen Richtung, wie funktionieren denn diese Penalty-Mechanismen? Die Arbeiten mit regulären Ausdrücken, mit URLs. Was kann dabei schon schiefgehen? Sind wir hier bei Yandex oder was?
00:09:07
Speaker
Quasi und dass das dritt und das ist deswegen spannend, wie diese Mechanismen funktionieren. Das andere, dass tatsächlich das Google News Team jede Menge Ausreden sucht, um nicht mit dem Organik Team zusammenarbeiten zu müssen. Das ist auch ganz putzig. Und das dritte Dokument oder der dritte Dokumentenkomplex geht darum, dass nach
00:09:30
Speaker
dem San Bernardino Shooting des Google News Team gesagt hat, das ist kein Zustand, dass wir, wenn in der realen Welt was passiert, erst 15 Minuten später das in unseren Suchergebnissen haben. Das muss alles viel schneller gehen. Und haben dann diskutiert, wie man das hinkriegen könnte, dass wenn in der realen Welt was passiert, dass man das innerhalb von 15 Minuten, innerhalb von einer Minute irgendwie hinbekommt und nicht innerhalb von 15 Minuten. Also das ist das eine, was ich mir angeguckt habe.
Google's Strategie für Echtzeitnachrichten und deren Herausforderungen
00:10:00
Speaker
Ja, ich wollte hier unterbrechen, sonst hätte ich eine Nachfrage gehabt, aber du bist ja auch gar nicht fertig. Das zweite, die Data Warehouse Leaks, mal geguckt, was man da irgendwie so drin findet über Google News, Discover und andere Publisher-Metriken. Und dann könnten wir noch mal kurz sprechen über das, was Mark Williams Cook veröffentlicht hat, der auch so ein, zwei, drei Aspekte dazu schon drin hatte und Zugriff hatte auf den Endpoint, den auch Hans genossen hat.
00:10:28
Speaker
Genossen, genau. Schöne Grüße in alle Richtungen. Das sind jede Menge Quellen. Wir haben jetzt den Fokus, wonach wollen wir schauen. Was hast du denn gefunden? Was sind denn die typischen Sachen? Ich kann mir vorstellen, gerade bei dieser Thematik, wir wollen besonders schnell eine Lage erkennen.
00:10:43
Speaker
Dass das jetzt vielleicht auch schwierig ist, dann wirklich immer für Qualität zu sorgen. Allerdings hast du vor 15 Jahren schon festgestellt, irgendwie eine gewisse Autorität muss man sicher erarbeiten. Findest du denn dazu irgendwas in all deinen Quellen?
00:10:58
Speaker
Naja, also wenn man mal auf Google Trends geht und sich mal anguckt, was jetzt gerade irgendwie trendet, dann findet man da häufiger mal Champions League heute. Und wenn man da mal draufklickt, dann findet man mehr verwandte Keywords, die da drunter stehen. Und manchmal wundert man sich, wie kommen denn die da hin und warum kommen denn die da hin? Und wieso denkt Google, dass jetzt Bayern gegen Paris
00:11:24
Speaker
zu Champions League heute gehört, aber irgendein anderes Spiel, das am gleichen Tag stattfindet, wie kommt denn das eigentlich zustande? Und da kann man tatsächlich in diesem League eine ganze Menge lernen, und zwar ist es dieses Real-Time-Boost-Thema, was tatsächlich insofern spannend ist, als Google gesagt hat, na ja, ich würde es euch einfach mal vorstellen, was Google da oder das News-Team da gemacht hat. Wie sieht es aus?
00:11:56
Speaker
Sie haben gesagt, das, was wir erreichen wollen, ist, dass wir schneller feststellen, was in der Welt passiert. Und eines der Kernprobleme, das wir haben, ist, dass Links und Clicks, also die NuffBoost-Geschichten, erst nach circa 30 Minuten in den Dogjoins auftauchen. Das sind jetzt mehrere Begriffe. Ich drösel das mal kurz auf. Ja. Ich wollte ... Man hört das natürlich nicht. Ich hab mich grad gemeldet. Was sind NuffBoins?
00:12:29
Speaker
Wir haben einmal die Links. Das ist relativ klar, was ein Link ist. Aber spannend, wenn ein Link in einem Dokument veröffentlicht wird und Google den gecrawlt hat, dann ist er innerhalb von 30 Minuten schon damals, also 2017, 2018,
00:12:47
Speaker
im Ranking aktiv gewesen oder hat zur Verfügung gestanden. Kurze Nachfrage, bezieht sich das jetzt nur auf Publisher oder generell? Nein, der Doc Index ist der Dokumenten Index, der insgesamt für das gesamte Ranking genutzt wird.
00:13:04
Speaker
Und der wird gepflegt quasi durch Docjoins. Also ein Docjoin ist, wenn Google sagt, oh, guck mal, was habe ich denn alles für URLs, unter denen dieses Dokument zur Verfügung steht, was haben die alle für Signale eingesammelt, die zusammenfasst, sagt, wie wird ein Canonical bestimmt, und dann sagt, okay, jetzt kann dieses Dokument gerankt werden, weil ich alle Informationen dafür beisammen habe. Was da zusätzlich noch hinzukommt, ist, okay, welche Links verweisen denn auf dieses Dokument?
00:13:34
Speaker
Und wie viele Leute haben dieses Dokument aufgerufen? Und zwar im Chrome Browser. Nicht über die Google Suche, sondern einfach im Chrome Browser diese URL aufgerufen. Da war Google. Bei 30 Minuten. Muss man sagen, finde ich jetzt erstmal beachtlich. Also für einmal Internet.
00:13:58
Speaker
30 Minuten bis irgendwie, oh guck mal, da rufen jetzt mehr Leute die Seite auf. Das stellen wir relativ schnell fest. Find ich spannend. Dann hat das News Team aber gesagt, nö, ist uns alles nicht schnell genug. Wir brauchen dafür irgendwie einen anderen Ansatz. Und haben gesagt, okay, sie arbeiten mit dem Freshness Team an der Stelle zusammen. Das ist ein Entwicklerteam aus Zürich.
00:14:25
Speaker
und arbeiten dabei dann am Reranking und quasi dieses Query-deserves-freshness-System nochmal zu erkennen und haben dann verschiedene Varianten entwickelt, wie man denn erkennen könnte,
00:14:39
Speaker
dass ein Thema piekt. Und die spannende Frage dabei ist, wie kriege ich denn raus, was gerade ein Thema ist? Also welche Nachrichten gehören denn eigentlich zusammen? Und wie bilde ich ein Thema ab? Und da kann, glaube ich, egal ob jetzt für News oder für die normalen Tenblue Links oder welche Systeme auch immer man arbeitet, eine ganze Menge draus lernen. Was sie gesagt haben, was sie an Faktoren haben,
00:15:06
Speaker
ist einmal Unigrams, also einzelne Worte oder Tokens, die da irgendwie vorkommen und zwar besonders gewichtet im Titel, im Linktext und alle Publisher einmal herhören, in den ersten 400 Buchstaben des Main Contents. Das heißt, wenn ich eine Entität, ein Wort in den ersten 400 Buchstaben erwähne, ist es wichtiger, als wenn es an anderer Stelle steht. Wenn ich ein Wort
00:15:36
Speaker
verlinke, also ich schreibe einen Artikel über Donald Trump und ich verlinke Donald Trump, das Vorkommen von Donald Trump auf die Themenseite Donald Trump, dann hilft es Google um festzustellen, in diesem Artikel geht es um Donald Trump.
00:15:51
Speaker
Spannend finde ich hier ja schon mal, dass es sich ganz gut matcht mit dem, was Journalisten ohnehin tun. Also, dass die einen Anreißer schreiben oder einen Teaser oder das Wichtigste zuerst und nicht sagen, nee, das wird jetzt hier so eine Art Detektivgeschichte und was wirklich los ist, erfährst du am Ende. Das passt ja eigentlich schon mal ganz gut zu dem, wie Journalisten auch arbeiten. Ich hatte noch eine Frage, aber du wolltest bestimmt jetzt noch was sagen, Johann.
00:16:19
Speaker
Können wir gerne auch die Frage jetzt machen? Ich würde sonst was über Correlated Salient Terms sagen. Ich hätte jetzt erstmal noch eine Frage, bevor ich das vergesse. Es gibt ja sei es jetzt Term Labs oder andere Analysetools, die ja den sogenannten Main Content auch gerne nutzen für ihre Analysen.
00:16:40
Speaker
Wie? Ich stelle jetzt mal die Frage für die Menschen, die hier zuhören, die sich vielleicht genau diese Frage stellen. Da gibt es ja den einen oder anderen, der Johann lacht. Der weiß bestimmt schon, worauf ich hinaus möchte.
Hauptinhaltsplatzierung und Entitätskennung in Google-Algorithmen
00:16:51
Speaker
Wie kriege ich denn raus, ob Google den DIV, in dem mein Main Content drin steht, auch wirklich als Main auch versteht? Gar nicht.
00:17:05
Speaker
Gut, danke. Ich verzweifle da auch jedes Mal dran.
00:17:16
Speaker
Also kriegst du nicht raus. Jolle kennt das Beispiel. Ich hab sehr schöne Screenshots von Seiten, bei denen Google in den Snippets wunderschöne Tabellen gebaut hat. Von Cookie-Bannern. Also aus den Cookie-Bannern. Und im Snippet dann dargestellt hat, hier auf dieser Seite wird Google Analytics verwendet und so weiter. Da ging's irgendwie um, was kann ich in Hamburg machen?
00:17:40
Speaker
Da funktioniert das dann offensichtlich mit der Main-Content-Erkennung mal so gar nicht und es gibt einen alten Spruch, der Google News Board ist noch dümmer als der Google Board und das ist auch weiterhin so. Also inzwischen ist das die gleiche Infrastruktur.
00:17:57
Speaker
Aber trotzdem hat man immer noch den Eindruck, da stimmt irgendwas nicht, wenn dann statt des Artikelanfangs der Name aus der Bildunterschrift gezogen wird oder so. Und dann sitzt man irgendwie da und sagt, was erlauben Google schon wieder? Dieses was ist Main Content ist tatsächlich kein einfaches Problem. Ist es vielleicht der Geschwindigkeit geschuldet, dass sie noch weniger intelligent sind, sozusagen?
00:18:23
Speaker
Ja, also das ist glaube ich ein wesentlicher Faktor, dass wenn man das System auf Geschwindigkeit optimiert, dann geht halt Qualität automatisch runter.
00:18:37
Speaker
Das ist sicherlich ein Punkt. Es ist auch tatsächlich wesentlich besser geworden in den letzten Jahren. Aber man findet immer noch Beispiele, wo dann, du hast ja häufig unter Artikeln so lustige Share-Pics, Teile diesen Artikel jetzt auf Facebook, also immer direkt unter der Hauptüberschrift, also Teile den Artikel, ohne ihn gelesen zu haben, bitte.
00:18:58
Speaker
Und diesen Sharetext findet man auch immer noch ganz häufig in irgendwelchen Descriptions von Google News. Das macht halt überhaupt keinen Sinn, aber ist immer noch so.
00:19:14
Speaker
Genau. Aber das eine, was Google halt macht, ist zu sagen, okay, wir identifizieren jetzt die Hauptwerte, Worte, dann 20 salient terms, also andere Begriffe, die irgendwie diesen Artikel auch noch in irgendeiner Form beschreiben könnten und irgendwie signifikant für diesen Artikel sind, gucken sich dann nochmal n-grams an, also zwei bis fünf Wortkombinationen, die in diesem Artikel vorkommen, um dann irgendwie daraus was zu machen.
00:19:45
Speaker
Und versuchen dann auch noch Entitäten zu erkennen. Entitäten kennen wir aus verschiedenen Geschichten. Schema Org im Wesentlichen kann man wunderbar pflegen. Gibt es für den News Publisher zwei Attribute, die ganz spannend sind. Gibt nämlich das About Attribut. Also da kann man sagen, dieser Artikel ist über Donald Trump. Und dann kann man sagen, Mentions.
00:20:10
Speaker
Republican Party, Democratic Party, White House, also in diesem Artikel wird auch erwähnt. Also so ein Keyboardfeld. Füllt man das mit Tags oder so was in der Art? Also mit Schlagworten? Also schlaue Publisher.
00:20:27
Speaker
schreiben in ihre Datenbank neben den Artikel Tags. Also alle Publisher schreiben Tags dahin. Schlaue Publisher gucken sich diese Tags dann nochmal an und versuchen, die mit Entitäten zu verknüpfen, um diese Entitäten dann tatsächlich genau im Artikel Knowledge Graph als Mentions wieder auszuspielen. Ich habe ja dann auch die Möglichkeit, wenn ich das jetzt im Redaktionssystem tag
00:20:51
Speaker
Nenne, dass ich dann aber gleich mehrere, also Vorname, Nachname oder nur der Nachname oder President of oder sowas, dass ich das alles zusammenbündeln und alles auszeichnen kann.
00:21:02
Speaker
Ja, aber das ist weiterhin ein Riesenschmerz für Publisher. Ich kenne auch keinen, der mit seinem Tagging-System glücklich wäre. Bei uns funktioniert das irgendwie total knorke. Zumindest wenn man dann mal so anfängt ein bisschen reinzustochen, dann werden die immer leiser. Und das weiß auch Google.
00:21:23
Speaker
Deswegen setzen Sie nicht nur auf die Entitäten, die im Schema Org übergeben werden, sondern auch auf Knowledge Graph Entitäten, die Sie mit Goldmine identifizieren. Also Goldmine ist so ein relativ zentraler Prozess aus dem Google League.
00:21:42
Speaker
in dem Google den Content reinschmeißt und versucht zu erkennen, was für Entitäten kommen denn in diesem Content tatsächlich vor. Also jetzt nicht irgendwie nur irgendwelche Worte, weil alles bis hierhin waren bedeutungslose Worte, sondern da geht es dann tatsächlich darum, wie können wir denn eigentlich diese Worte, die wir hier finden, mit real existierenden Personen verknüpfen und können dann wirklich sagen, Person Donald Trump haben wir schon mal gehört, da können wir jetzt irgendwie tatsächlich einen Link zu machen. Das ist jetzt nicht irgendein
00:22:11
Speaker
Mickey Mouse Donald, der hier erwähnt ist, sondern es handelt sich wirklich irgendwie, wenn hier Donald erwähnt ist, um diesen Donald Trump. Ist doch fast das Gleiche oder nicht? Das kommt auf die Qualität eines Knowledge Graphs an. Okay.
00:22:27
Speaker
Genau. Und dann gibt es noch weitere Geschichten, zum Beispiel Location. Also wo findet dieses Event denn jetzt statt? Also wir haben eine Nachricht, wir haben zu der Nachricht irgendwie die Worte, wir haben die Entitäten.
00:22:43
Speaker
Dann müssen wir noch wissen, wo findet es statt, und finden wir auch eventuell noch Zeitbezüge, dass man das noch mal mit aufnimmt. Für Location gibt es total, wer sich da für ein ganz kleines bisschen interessiert, guckt euch mal S2 Cells an. Das ist ein mega spannendes Konzept, weil du hast ja immer das Problem, wenn ich jetzt eine Nachricht habe, keine Ahnung, in Hamburg brennt irgendwie ein größeres Gebäude oder so.
00:23:11
Speaker
dann könnte das ja relevant sein nur für diesen kleinen, für den Straßenzug in Hamburg. Aber es könnte gleichzeitig irgendwie relevanter sein für den Stadtteil. Es könnte aber auch relevant sein für das gesamte Stadtgebiet oder Norddeutschland oder es könnte überregionale Bedeutung haben. Das heißt Gesamtdeutschland.
00:23:28
Speaker
Oder nur Norddeutschland oder bestimmte Zuschnitte davon, je nachdem politisch. Oder wenn uns Paris, wenn da die Kathedrale brennt, dann ist das ein Ereignis, das auf einmal weltweit relevant ist. Das heißt irgendwie, man muss nicht nur die Location, also das ist ja nur, für wen ist das in der Audience relevant? Und gleichzeitig gibt es ja aber, wenn in Berlin der Bundestag zusammentritt,
00:23:57
Speaker
und dem Kanzler seinen Misstrauen ausspricht, dann ist das ja ein Ereignis, das die gesamte Bundesrepublik betrifft und nicht nur
00:24:08
Speaker
in Berlin das spezifische Gebäude mit dem spezifischen Reichstags-Sitzungssaal, wo dann die Bundestags-Sitzung stattfindet, sondern das ist halt dann einmal, eigentlich findet das in ganz Deutschland statt, irgendwie dieses Ereignis. Und das rauszufinden ist tatsächlich sehr spannend, weil diese geografischen Zuschnitte sehr unterschiedlich sein können. Ganz kurz? Ja. Also könnte man sagen,
00:24:32
Speaker
Ich versuche hier die Fragen zu stellen, die sich vielleicht Menschen stellen, habe ich schon mal gesagt, dass bestimmte Locations eine andere Werthaltigkeit haben.
00:24:41
Speaker
für diese Berechnung, sag ich jetzt mal, weil du hast jetzt den Bundestag genommen, du hast Notre Dame genommen. Das sind ja alles Sachen, die kennt man weltweit. Und wahrscheinlich ist, wenn etwas mit diesen Gebäuden passiert, das relevanter, als wenn irgendwas mit dem Werk 2 passiert, was hier bei mir um die Ecke ist. Das heißt, die potentiellen Interessenten für eine bestimmte Location nehmen zu oder nehmen ab.
00:25:09
Speaker
Ich hoffe, man konnte verstehen, was ich meine. Könnte man das so verallgemeinern? Johann, bevor du antwortest, ich würde sagen, der Kontext spielt schon auch noch eine Rolle. Denn nicht immer ist Berlin für alles relevant oder Bundesrepublik. Manchmal ist es auch einfach nur ein Bezirk, eine Hood, wo irgendwo eine Mülltonne umgefallen ist. Und dann ist es eben doch nicht für die ganze Republik relevant. Ja, genau. Also das ist genau das spannende Problem, vor dem man steht.
00:25:37
Speaker
Wenn jetzt in Brüssel das EU-Parlament zusammentritt, dann betrifft das die gesamte EU und fast alle Menschen, die dort leben. Wenn jetzt dort irgendwie nur ein Fußballspiel stattfindet, dann ist das relativ irrelevant für den Rest der Welt. Häufig.
00:26:07
Speaker
Was ist denn eigentlich der thematische Scope? Total schwierig, insbesondere weil Journalisten es gewohnt sind. Sie sollen den Ort der Handlung
Google's Echtzeit-Boost und Kriterien
00:26:16
Speaker
reinschreiben. Also wenn der Bundestag zusammentritt, dann steht da immer Berlin. Aber ob das jetzt tatsächlich nur den Scope Berlin hat oder ganz Deutschland, das ist tatsächlich relativ schwierig zu ermitteln.
00:26:29
Speaker
Das sind so die Probleme, vor denen Google steht. Also ich finde, das hilft ja immer, sich auch nochmal da rein zu versetzen. Das ist relativ leicht zu sagen. Der Google Newsbot ist ziemlich doof und was der hier alles macht. Aber wir sind ja immer noch dabei, die Nuss zu knacken. Wie kriege ich das in weniger Zeit als eine halbe Stunde hin? Genau. Und das Spannende dabei ist, also sie nehmen jeden Artikel, sie crawlen den. Sie haben damals schon gesagt, 2017 in 18.
00:26:54
Speaker
Normaler 99 oder 95 Prozent aller News-Artikel, die veröffentlicht werden, haben wir innerhalb einer Minute gefunden und gecrawled. Das heißt nicht indexiert, aber gefunden und gecrawled. Ich glaube, dieser Zahl nicht so ganz, aber das ist das, was Google intern rausgefunden und dokumentiert hat. Sie glauben das zumindest. Das ist auch schon mal was. Und es ist Ihr Anspruch. Das kann man vielleicht schon sagen. Ob Sie es immer schaffen?
00:27:21
Speaker
Es ist auch definitiv besser geworden. Da gibt es natürlich, wenn man sehr viel Schrott macht, dann sinkt die Crawling-Frequenz. Wenn man sehr viel gutes Zeug macht, dann steigt die. Google ist tatsächlich schon sehr schnell da. Wenn man seinen Sidemaps-Ingriff hat
00:27:41
Speaker
die eigenen Prozesse und so. Wenn das Caching der Startseite fünf Minuten ist und du brauchst fünf Minuten, bis du die neu publizierte Meldung auf die Startseite gehoben hast und deine Sitemap funktioniert, auch nur alle Stunde aktualisiert, dann wird Google Schwierigkeiten haben, diesen Artikel zu finden. Da waren die Tipps für die Website-Betreibenden verklausuliert.
00:28:02
Speaker
Genau, aber das versucht Google relativ schnell zu finden, versucht diesen Artikel zusammenzubinden und dann die Informationen zu extrahieren und dann zu sagen, worum handelt es sich denn hier.
00:28:17
Speaker
eigentlich was für einen Scope hat diese Meldung, finde ich noch andere Meldungen, die dabei sind und versuche dann so eine thematische Gruppierung zu machen. In dem Dokument haben sie gesagt, wir wollen einen Real-Time-Boost auslösen, wenn wir mindestens zehn Dokumente haben von fünf oder mehr unterschiedlichen Domains. Das wäre irgendwie eines der Kriterien. Das zweite wäre, ja,
00:28:46
Speaker
Also wenn alle Redaktionen gleichzeitig hektisch werden und irgendwas rausfeuern und sich darin die Entitäten, also die Themen irgendwie überschneiden, dann scheint ja irgendwas los zu sein. Genau. Und die Dokumente müssten aber dann den kompletten Query enthalten, inklusive Synonyme. Dann haben sie gesagt, okay, wir brauchen
00:29:16
Speaker
Queries. Wir brauchen, also wenn eine bestimmte Anzahl von Queries auffällt, die über dem Normallevel liegt, dann scheint bei diesem Thema irgendwie was los zu sein und dann gucken wir noch mal aktiver nach. Und wenn wir viel Nachfrage haben, aber gar nicht so viele Artikel, dann macht das vielleicht auch Sinn, dass wir daraus ein Cluster bilden.
00:29:38
Speaker
Also du meinst sowas wie, ich weiß genau, wie häufig der HSV so im Schnitt gesucht wird am Tag und heute wird er aber irgendwie durchschnittlich 10, 15, 30 Prozent mehr gesucht. Da scheint ja irgendwas im Gange zu sein. Genau. Und dann ist, also üblicherweise wird beim HSV dann gerade der Trainer entlassen worden sein.
00:30:01
Speaker
Ich hab meinen Kommentar jetzt verkniffen. War nicht der Trainer, aber gewinnt. Aber das wird auch nicht aufgesucht. Eben. Was ist häufiger? Okay. Haben wir doch noch ein bisschen Häme reingegossen. Fahren Sie fort. Ähm, nee, jetzt hab ich keine Lust mehr. Ähm... Nee, aber...
00:30:26
Speaker
Das eine, also viele Queries, viele Klicks, also gibt es so Trampelfade, die User jetzt gerade gehen, das ist so, und auf der anderen Seite wird viel veröffentlicht. Moment, also Trampelfade noch mal kurz. Das heißt, wenn ein bestimmter Link auf einer bestimmten Seite häufig angeklickt wird, dann ist das doch eigentlich nur gut für diese Webseite oder nicht für das ganze Thema oder doch, oder was ist Trampelfade?
00:30:51
Speaker
Ja, das kann ein Indikator sein für hier, könnte ein spannendes Thema sein. Also wenn du jetzt zwei Nachrichten hast, eins bei Spiegel, eins bei Süddeutsche, die kommen gleichzeitig raus und da sind sehr viele die Leute, die gerade draufklicken, dann spricht das dafür, dass da auch ein Cluster sein könnte. Dann hast du ja aber schon zwei Publisher, die dazu veröffentlicht haben in relativ kurzer Zeit. Du hast wahrscheinlich darüber dann auch schon Newsnachfrage, also da passiert dann schon.
00:31:21
Speaker
Also da geht es eher um die Artikel. Werden die geklickt und tauchen die im Chrome Browser auf und nicht der Link innerhalb eines Textes, dass der besonders häufig ist. Richtig, richtig. Es geht nur um Seitenaufrufe. Wir wissen tatsächlich nicht, ob Google die Daten speichert, ob ein Link geklickt wurde oder nicht.
00:31:43
Speaker
Da gibt es keinen Anhaltspunkt, den ich gefunden habe. Weißt du, ob das handelt sich ausschließlich um einen Chrome-Browser oder um Chromium? Meiner Erkenntnis nach nur Chrome. Und es scheint auch einen Unterschied zu geben zwischen eingeloggten und nicht eingeloggten Usern und wie die behandelt werden.
00:32:04
Speaker
Und du musst in jedem Fall, das ist zumindest für die Crooks-Daten ja so, und meine Erwartungshaltung wäre, dass das die gleichen Daten sind, auf denen quasi die ganze Clicksammlung basiert, weil es eigentlich wenig sind. Es gibt zwei Datentöpfe aufzumachen, dass das auch Leute sein müssen, die der Datensammlung zugestimmt haben.
00:32:25
Speaker
In dem Kontext werden jetzt Core Web Vitals, wie schnell lädt deine Seite, habe ich irgendwelche Instabilitäten, wenn sich die Seite aufbaut und so weiter. Also diese Daten gibt uns ja Google über die Chrome-Nutzer.
00:32:41
Speaker
Und jetzt auch nochmal indirekt versteckbar, ja, da so ein kleiner Hint, das heißt jetzt irgendwelche Click-Automatiken, automatische jetzt tatsächlich Maschinenbots, die dir den Artikel anklicken, das wird dir als Publisher nicht so wahnsinnig viel helfen, weil Google höchstwahrscheinlich eben echte User, also es ist ein bisschen aufwendiger, das geht natürlich auch mit so Click-Farmen, aber es ist aufwendiger, tatsächliche Chrome-Browser mit echten Login-Daten mit natürlichem menschlichem Verhalten und Historie irgendwie zu stellen.
00:33:10
Speaker
die Artikel klicken. Das scheint ja schon für mehr Qualität zu sorgen, als wenn ich jetzt einfach nur sage, hier sind irgendwelche Hits über den Chrome Browser bei uns aufgelaufen. Ja, ist richtig, wobei in der Search Console der Schrott ja mit ausgegeben wird. Also da wird ja die Click-Manipulation, wird ja in der Search Console mit angezeigt und ist in den Search Console Traffic-Daten mit enthalten.
00:33:31
Speaker
Finde ich immer sehr schön, wenn man dann irgendwie eine Seite hat mit 20.000 Impressions in 90 Tagen auf Seite 6. Da war wieder ein Wettbewerber unterwegs und hat mal wieder geguckt, ob man die Seite nicht mit Click-Manipulation von Seite 6 auf Seite 1 bringen kann, wo man sich dann wieder nur an den Kopf hassen kann und sagen kann, wer Google für so dumm hält, dass das funktioniert, weiß ich auch nicht, was da jetzt los ist. Ein weißer Wingman hat ja mal gesagt,
00:34:01
Speaker
Suchmaschinen sind dümmer als man denkt.
00:34:04
Speaker
Es würde davon ausgehen, dass das richtig ist. Aber um das Thema mit den Themenclustern noch mal kurz abzubinden, es gibt tatsächlich inzwischen ein hierarchisches System. Und das gibt es eigentlich erst seit 2019 oder so, da haben sie damit angefangen zu experimentieren. Das heißt, wenn ihr jetzt HSV sucht, ihr habt damit angefangen, nicht ich. Ich suche da noch nicht. Ich war es.
00:34:36
Speaker
Dann könnt ihr, dann werdet ihr für bestimmte News Cluster finden, einmal so ein ganz allgemeines Neuigkeiten, dann gibt es irgendwie Gerüchte, bestimmte Spieler, nächstes Spiel, letztes Spiel, lauter solche Sachen. Und das tatsächlich sind immer so einzelne kleine
00:34:57
Speaker
Events, die werden dann zu so einer Story verpackt und dann gibt es unter Umständen Gruppen von Stories, die dann so eine Mega-Story ergeben, weil du das Problem hast, dass so ein Thema, wenn du es einmal identifiziert hast, ist nicht statisch. Also Donald Trump ist keine
00:35:12
Speaker
keine Story und auch HSV ist keine Story, sondern da passiert ja super viele unterschiedliche Dinge gleichzeitig, die du wieder voneinander trennen musst und auseinanderziehen musst. Und dann hast du auf der anderen Seite Stories, die wenn jetzt der HSV ein Spiel hat, dann gibt es
00:35:33
Speaker
ja nicht nur die Story quasi für den HSV, sondern auch für den Gegner, weil ja beide stattfinden. Und wenn irgendwie das Gerücht ist, welcher Trainer entlassen wird, dann gibt es ja nicht nur die Entität HSV, sondern dann gibt es ja auch den Trainer, der gerade entlassen wurde und das Gerücht für jeden Trainer, der eventuell dazu kommt. Das heißt, Stories entstehen immer da, wo du so Entitätensschnittpunkte hast. Und das ist tatsächlich total mächtig für Publisher, wenn man das einmal verstanden hat und verstanden hat, wie man das
00:36:03
Speaker
beibringen kann seinen Redakteuren, dass dieser Punkt, wo zwei Entitäten zusammenkommen, das muss man versuchen, in der Headline und in den ganzen Artikeldaten tatsächlich deutlich zu machen, um welche Entitäten geht es hier. Und da
00:36:23
Speaker
diese Beziehung zwischen den Entitäten deutlich zu machen, weil daraus quasi die Geschichte entsteht. Und wenn man sich anguckt, was gibt es denn gerade für unterschiedliche Stories, dann kann man daraus tatsächlich eine ganze Menge ableiten, an welchen Detail möchte ich denn eigentlich ansetzen. Und jetzt zu sagen, ich schreibe halt irgendwas über Donald Trump.
00:36:46
Speaker
Das wird halt nicht funktionieren. Aber wenn du jetzt sagst, okay, ich guck mir an, welche Cluster gibt es denn gerade für Donald Trump? Und auf welches dieser Cluster möchte ich denn was schreiben? Und wozu habe ich denn was Zusätzliches beizutragen? Dann kann das tatsächlich durchaus gut funktionieren. Ich finde, wir haben mit Trump und dem HSV hier richtig tolle Beispiele.
00:37:06
Speaker
Ja, die ich ungern in einen Topf werfen möchte aus Gründen. Wir finden auch gleich nochmal ein anderes für dich. Es gibt dann eine Sache, die tatsächlich total spannend war, weil wir gerade nochmal die
00:37:24
Speaker
Core Web Vitals hatten, es gibt ja diesen oder gab bis zu diesem Jahr lange den Streit, finden denn User-Signale statt für die Bewertung der Suchen Ja oder Nein und in welcher Form. Und ich fand das immer so ein bisschen putzig, wenn Leute gesagt haben Nein, User-Daten werden nicht genutzt und gleichzeitig gesagt haben, wir müssen die Core Web Vitals verbessern.
00:37:47
Speaker
wo Google ja das Abfallprodukt dieser User-Datensammlung uns zur Verfügung gestellt hat als Endpoint über wie funktioniert das Ganze. Aber wir hätten es tatsächlich, wenn wir uns diesen Leak 2018, 2019 irgendwie angeguckt hätten, dann hätten wir da tatsächlich auch die Belege gefunden, für die werden Chrome Visits entsprechend benutzt und Instant NuffBoost. Und NuffBoost ist quasi so ein Aggregat von unterschiedlichen
00:38:16
Speaker
User-Metriken insbesondere geht es da um die reale CTR und die erwartete CTR. Also wie stark wird denn das Ganze geklickt, diese Nachricht, wenn wir eine veröffentlichen und das tatsächlich auch nochmal spannend.
00:38:32
Speaker
Weil wir hatten eben, wir müssen, wenn wir eine Headline schreiben, deutlich machen, um welche Entitäten geht es und in welcher Beziehung stehen die zueinander. Aber gleichzeitig muss die Headline so knackig sein, dass ich Bock habe, als User drauf zu klicken und da wirklich CTR-Optimierung zu machen. Und das macht tatsächlich das Schreiben von Headlines.
00:38:55
Speaker
zu einer extrem anspruchsvollen Aufgabe. Und da gibt es dann immer manche Wortspielereien, die funktionieren dann trotzdem extrem gut. Also mein Highlight der letzten Wochen waren die Chrome-View wählen. Die was?
Strategien für Titeloptimierung und SEO-Erfolg bei Google Discover
00:39:18
Speaker
Bei Google geht es jetzt um die Chrome-Jewelen, in der Frage, ob denn der Chrome-Browser abgespalten werden muss oder nicht. Das fand ich schon ziemlich gut gemacht. Aber sehr oseitig war das natürlich, da hat man halt eher geguckt, wie arbeiten wir hin auf eine hohe CTR und weniger, wie kriegen wir Bonuspunkte für die Entitäten, weil
00:39:42
Speaker
das an der Stelle weniger stark gewichtet wurde. Das ist aber tatsächlich für jeden einzelnen Artikel eigentlich eine Aushandlung, die du vornehmen musst und gucken musst, wie wichtig sind mir jetzt Entitäten. Je kleiner die Entitäten sind, desto wichtiger ist, dass die Entitäten in der Headline vorkommen. Je größer die Entität ist, die du drin hast, desto eher ist es sinnvoll, hart auf die CTR zu gehen.
00:40:05
Speaker
Aber mal eine ganz praktische Frage. Ich habe jetzt auch einige Redakteurinnen in den letzten vielen Jahren kennengelernt. Hast du das im Kopf, wenn du einen Artikel schreibst, das alles abzuwägen? Hoffentlich.
00:40:23
Speaker
Ja, aber realistisch gesehen glaube ich, sind das nicht so viele, die das überlegen, ich schreibe jetzt über eine Politikerin oder ein Politiker, der bekannt ist, dann sollte ich vielleicht eher ZDR-lastig sein. Wenn das auf Lokalebene ist, dann sollte ich eher auf Entitäten achten.
00:40:45
Speaker
Das nicht, aber so ein Gespür für, kennt mein Publikum diese Person? Oder muss ich noch mal sagen, das ist die Abgeordnete aus dem Stadtrat, Angehörige der SPD. Dafür haben Journalistinnen glaube ich schon ein ganz gutes Gespür. Und seitdem in diesem damals noch Web 2.0 genanntes Clickbaiting,
00:41:06
Speaker
ist ja auch das Gespür für, was ist eine klickträchtige Überschrift gewachsen. Also bis zu einem verheerenden Ausmaß ja leider, aber trotzdem dieses, ich muss es ein bisschen knackiger gestalten, als nur zu sagen, welche Person hat wo was gesagt, zu welchem Thema. Aber die Mischung, also das ist ja schon eine hohe Kunst und ich würde sagen, SEO ja, schwieriges Verhältnis im Journalismus, aber ja auch Traffic-Bringer, irgendwie auch Notwendigkeit und
00:41:35
Speaker
näher an dem, was Journalisten eigentlich so tun, als das jetzt für E-Commerce-Webseitenbetreiber so ist. Also, dass man überhaupt ein Publikum, eine Leserschaft irgendwie hat und die auch befriedigen will, ist denen, glaube ich, näher. Manchen mehr, manchen weniger.
00:41:52
Speaker
Ja, ich glaube, es ist eine der vielen Entscheidungen, die man treffen muss, wenn man einen Artikel veröffentlicht. Also du musst zum Beispiel eigentlich auch die Frage beantworten, möchte ich diesen Artikel jetzt für Discover schreiben oder für Google News oder fürs organische Ranking? Weil je nachdem, was mein Target ist,
00:42:09
Speaker
muss ich ein bisschen anders da rangehen und habe andere Anforderungen daran, das zu machen. Und das ist ja eine Frage von, suchen jetzt gerade Menschen danach oder will ich denen das eher irgendwie aufdrücken? Ist das ein neues Thema, das ich setzen möchte? Dann brauche ich das Cover, dann führt da kein Weg dran vorbei. Wenn es was ist, was ein aktives Suchvolumen hat, regelmäßiges, wie jetzt beispielsweise der HSV, nachdem ja wirklich täglich viele, viele, viele Menschen suchen, völlig zu Recht.
00:42:40
Speaker
Dann brauche ich da weniger tatsächlich auf Discover zu suchen, weil ich mein Traffic halt auch schon über die Newsboxen kriegen kann. Und das ist tatsächlich jedes Mal eine entsprechende Abwägung. Gibt es da Tools, die einem da unterstützen? Ich frage jetzt wirklich, weil ich habe mit Publishing nichts, also mit Publisher-Scherne
00:43:03
Speaker
Publischenden Personen nicht viel am Hut bis jetzt gehabt, deswegen habe ich da keinerlei, ich habe keine Berührungspunkte, deswegen frage ich jetzt vielleicht ein bisschen eigenartig, aber sowas müsste man doch irgendwie, ich sage nicht automatisieren, aber zumindest mal irgendwie so eine Hilfe haben, so eine Leitplanke, die einen irgendwie
00:43:22
Speaker
Also, es experimentieren alle damit rum, wie man denn das Texten von Headlines verbessern kann und unterstützen kann für Reakteure. Es gibt Tools da draußen, die dir sagen, okay, gib die wichtigsten Keywords her. Und wir sagen dir, ob du gerade in der Newsbox bist, ob du einen Artikel schreiben solltest, oder dein Artikel, den du geschrieben hast, ob der aus der Newsbox rausfällt, sodass du den vielleicht noch mal anfassen solltest und neu publizieren solltest oder so. Also, da gibt es schon ein paar Tools. Aber tatsächlich ...
00:43:52
Speaker
Es wird ja die eine oder andere Show Note schon auch geben. Kannst ruhig mal ein paar Tools nennen. Ohne Gewehr. So viele gibt es gar nicht. Aber das News Dash und News Dashboard, das sind auf jeden Fall die beiden, die dieses Google News Monitoring am ehesten anbieten. Für das Cover gibt es dann noch so ein, zwei spezielle Tools oder Ideen,
00:44:18
Speaker
Ich denke jetzt gerade noch an Tri-Solute oder Tri-Solute? Genau, das News Dash Board von Tri-Solute. Und dann gibt es den amerikanischen Konkurrenten News Dash mit Z, die dann im Flavor unterschiedlich und in der Herangehensweise, aber die Aufgabe, die sie sich stellen, am Ende die gleiche ist. Genau.
00:44:47
Speaker
Wir haben dann noch ein ganz spannendes Problem. Also wenn wir jetzt festgestellt haben, wir haben irgendwie so ein Thema am Wickel und da passiert was und so, dann braucht es ja ein Ranking. Ach. Und die Frage... Ach so. Weiß ich nicht. Vielleicht geht es auch ohne. Wir bauen einen Slider, dann brauchen wir keine Prioritäten zu setzen. Das stimmt. Genau, aber...
00:45:16
Speaker
Wir müssen uns dann ja ein bisschen überlegen, wie bringen wir denn jetzt die Nachrichten in eine Reihenfolge? Wir haben schon verschiedene Sachen gefunden, um zu sagen, diese Nachricht gehört zu einem spezifischen Thema.
00:45:29
Speaker
Aber dann ist ja trotzdem noch die Frage, wie gut passt sie dazu? Das kann man irgendwie berechnen. Wie viele von diesen unterschiedlichen Metriken, die wir jetzt irgendwie hatten, wie oft hat es Klick gemacht? Und dann kann ich daraus einen Score errechnen. Das ist relativ easy. Wir haben dann qualitative Metriken, also CDR hatten wir schon besprochen, NuffBoost hatten wir besprochen, Klicks hatten wir besprochen. Damit
00:45:56
Speaker
kommst du aber nur ein kleines Stück weit, weil Google News sehr, sehr stark setzt auf das ganze Thema. Was macht denn die Nomänen sonst noch so? Also alle Menschen, die mit Discover arbeiten, sagen,
00:46:12
Speaker
Du musst, um zu einem Thema auf Discover wirklich erfolgreich zu werden, musst du zwei bis drei Monate zu einem Thema immer regelmäßig publizieren. Und regelmäßig heißt 1 bis 2, 3 Nachrichten mindestens pro Woche über mehrere Monate, die dann auch idealerweise gut laufen, wo du wirklich einen raushaust. Und zwar immer und immer und immer wieder, bis Google verstanden hat, aha, alles, was dieser Publisher veröffentlicht zum Thema HSV,
00:46:43
Speaker
funktioniert immer hervorragend und die Leute mögen das und es hat gute Klicksignale und so weiter und so fort. Und dann wird es aber irgendwann ein Selbstläufer. Also dann kannst du die Frequenz ein kleines bisschen runternehmen und dann wird quasi jeder Artikel, den du veröffentlichst, wesentlich erfolgreicher. Deine ersten, die du machst zu einem neuen Thema, wenn du dir ein neues Thema erschließen willst oder länger nicht dazu publiziert hast,
00:47:11
Speaker
Die funktionieren überhaupt nicht und für diese. Für diese Metrik gibt es quasi im Leak, den wir dieses Jahr hatten, also wo Google diese berüchtigten 2000 fast 3000
00:47:30
Speaker
Elemente abhanden gekommen sind mit den 14000 Attributen. Also diese AP Dokumentation. Da gibt es dann den den NSR Score, also wo Google sagt, wir gruppieren jetzt Artikel zusammen.
00:47:48
Speaker
Und aus den zusammengruppierten Artikeln versuchen wir, Signale an andere Artikel zu übergeben, für die wir gar nicht genügend Daten haben, weil sie eventuell zu frisch sind, weil sie noch gar nicht genügend User gehabt haben können, weil sie irgendwelche anderen Probleme hatten. Und sagen, okay, guck mal, hier ist ein Cluster an Artikeln, und die ziehen sich gegenseitig hoch.
00:48:14
Speaker
Das Problem ist, die können sich genauso gut gegenseitig runterziehen, wenn es halt Müll ist. Und ist das auf einer Domain oder ist das jetzt aufs Thema bezogen? Das ist auf einer Domain. Das heißt, ich hab mir einen Ruf erarbeitet und davon, also ich bin vor dem Türsteher und sag hier, meine Freunde kommen auch noch mit rein und dann sagt der Türsteher, die kenn ich, die gibt immer viel Geld am Tresen aus, die macht keinen Stress, die lass ich rein. Wenn das so funktioniert, ja.
00:48:45
Speaker
Aber realistisch gesehen haben die meisten Publisher ja unendlich viele Themen. Ja, also es gibt ja wenige Fach, also es gibt nicht wenige, aber guckt man mal so Google News an, entdeckt man selten mal irgendein Fach Publisher. Ja, aber wenn du die jetzt so ein
00:49:10
Speaker
Multi-Themen-Publisher anguckst, Spiegel, dann wirst du sehen, dass zu bestimmten Themen die Artikel wesentlich schneller und leichter erfolgreich sind als zu anderen Themen. Und du musst ja auch nur, in Anführungszeichen, also es ist harte Arbeit, aber diese Publishing-Frequenz aufrechterhalten. Wenn du das schaffst, dass auf multiplen Themen
00:49:36
Speaker
Regelmäßig mehrfach die Woche richtige Kracher kontinuierlich über zwei, drei Monate hinweg und darüber hinaus immer wieder, dann kannst du es ein bisschen drosseln. Wenn du das auf x Themen parallel schaffst, dann spricht ja nichts dagegen. Also du musst es halt pro Thema schaffen und wenn du mehr schaffst, schaffst du mehr.
Einfluss von Apps und Chrome-Nutzerdaten auf SEO
00:49:52
Speaker
Aber in der Regel scheitern ja Redaktionen häufig daran, dass sie dann eben alle Themen bearbeiten, aber nie eins in dieser Konsequenz, wie wir es jetzt gerade besprochen haben und dann eben diese typische zu alles und nichts was sagen, hilft dir halt gar nicht.
00:50:08
Speaker
Mir kommt da gerade ein Gedanke. Wenn ich jetzt mal unsere Tageszeitung hier vor Ort nehme in Leipzig, die haben eine App. Die sendet ja keine Signale.
00:50:24
Speaker
Das heißt, ich müsste eigentlich als Publisher, wenn mir SEO wichtig ist, sagen, ich will eigentlich weniger Menschen, die meine App benutzen. Zumindest die, die von Chrome auf meine Webseite kommen, die sollte ich nicht einladen, die App runterzuladen. Also, weißt du, was ich meine? Oder hab ich da jetzt grad einen Denkfehler? Nein, die sind Gedanken ... Du hast auch ein Problem, wenn du sagst, ich benutze das Spezialmagazin für Apple.
00:50:54
Speaker
Dann wirst du weniger. Da hast du Safari User haben. Genau. Ist ein Problem. Und dann fehlt dir tatsächlich dieses Chrome Besitz Kriterium, weswegen das alleine natürlich auch nicht taugt, sondern dann. Deswegen gibt es dann ja als Korrektur. Nafbos wurde dann CTR Geschichten irgendwie hast und sicherlich irgendwie eine ganze Menge schlaue schlaue Algorithmen. Was mir noch mal ganz wichtig.
00:51:17
Speaker
ist, ist dieses dieser NSR, wofür auch immer das steht. Ich habe inzwischen sieben unterschiedliche Theorien gelesen. Es gibt keinen wirklichen Beleg. Meiner Meinung nach steht es für New Side Rank, aber es gibt halt auch noch ganz viele andere Neural Side Ranking Score, whatever. Man weiß es nicht.
00:51:43
Speaker
Aber der gilt tatsächlich nicht nur für Publisher, sondern der gilt für alle, die Inhalte in dieses Internet zur Verfügung stehen, also jeden SEO. Und sich damit zu beschäftigen ist tatsächlich ganz, ganz spannend. Also das wäre dann Quality NSR, NSR Data wäre so der Einstiegspunkt, wo man dann sieht, okay, welche welche Signale nimmt Google denn da?
00:52:08
Speaker
zusammen und da gibt es dann wieder Begegnungen mit Goldmine zum Beispiel, wo wir dann sehen, ok, Google hat diesen Prozess, den wir eben besprochen hatten, dass man versucht aus dem Content selber Entitäten zu extrahieren und da hat Google ja tatsächlich auch
00:52:28
Speaker
Ich habe schon mehrfach gesagt, wofür benutzt ihr den Schema Org, außer für Rich Snippets? Na ja, um Entitäten zu extrahieren. Das ist die Kernaufgabe dieses ganzen Schema Org-Krams und reicht halt auch nicht, deswegen gibt es dann Goldmine.
00:52:40
Speaker
Und das findet quasi, da ist eine der Varianten, wie diese Seitenzusammenschlüsse gebaut werden und man guckt, okay, was ist denn das, was zusammengehört und gemeinsam bewertet werden sollte, wenn ich nicht genügend Werte zur Verfügung habe. Und dieses Verfahren kennen wir tatsächlich ja auch so ein bisschen von den Core Web Vitals. Also nicht, dass ich glaube, dass diese Core Web Vitals ein Einfalltor sind, um diese NSA-Chunk
00:53:08
Speaker
Geschichten, welche thematisch zusammengehören, welche Seiten zu analysieren. Aber wenn du dir das anguckst, dann siehst du, dass diese Themen nicht alleine nach der Performance gruppiert sind, sondern dass du ganz häufig irgendwie hast, okay, ich habe hier Werte, die bei CLS irgendwie 0,11 haben und so. Und dann sind da welche dazwischen, wo du siehst, CLS ist irgendwie grün. Warum ist das mit in dieser URL-Gruppe? Das macht überhaupt keinen Sinn.
00:53:35
Speaker
Und da haben wir auch dieses Vererben von unterschiedlichen Metriken auf URL-Gruppen. Damit arbeitet Google sehr viel und kennen wir jetzt nicht zuletzt von Helpful Content Update, Spam-Bekämpfung, all das funktioniert immer nach diesem Ich lerne von dem Umfeld einer URL über eine URL, für die ich selber nicht genügend Informationen zur Verfügung habe.
SEO-Strategien: Inhaltshäufigkeit, Qualität und Datenanalyse
00:54:01
Speaker
Jetzt habe ich eine Frage, die vielleicht etwas, ich weiß nicht, die kann jetzt dumm klingen oder auch nicht, aber du sprichst sehr viel davon, dann guckt man sich das an, dann guckt man sich das an, abseits jetzt mal von den Core Web Vitals, wo guckt man sich denn das an?
00:54:22
Speaker
Google guckt sich das an. Ja, ja. Google guckt sich das an. Aber wenn wir jetzt anhand dieser Daten, die uns ja jetzt, ich sage es nicht zur Verfügung stehen, aber eben aufgrund der Leaks einen Einblick haben,
00:54:35
Speaker
Wenn man jetzt versuchen würde, darauf das zu nutzen, dieses Wissen, dann sind wir Deutschen, glaube ich, ja sehr stark so in Richtung Analyse. Wie können wir das denn mal auswerten? Wie können wir denn sehen, ob wir uns in einem Bereich verbessert haben oder verschlechert haben? Wie geht man denn da praktisch mit diesen, also dieses, wir können das in der SEO gut benutzen, ist ja das eine. Aber wie? Gibt es da Ansätze bereits, wie da Publisher vorgehen könnten, sollten?
00:55:08
Speaker
Ich glaube, es sind dieselben wie vor 15 oder 20 Jahren. Also da wussten wir ja auch nicht, wie Google funktioniert, sondern haben Hypothesen und haben uns überlegt, wie wir die vertesten können.
00:55:20
Speaker
Ist manchmal ein bisschen anstrengend, einer Redaktion zu sagen, hey, hier ist ein Thema, zu dem ihr bisher nicht gearbeitet habt. Lass uns doch mal gucken, wenn wir das jetzt zwei Monate, drei Monate richtig intensiv beackern. Ob wir das dann schaffen, auf Discover irgendwie was zu machen, dann sagen die, was heißt richtig intensiv beackern? Ach ja, so ein Artikel am Tag wäre schon gut.
00:55:40
Speaker
Wie viel von uns? Was wollt ihr von mir? Am besten machen das zwei Personen zusammen, damit man Autoren hat, die dann auch so... Ist das denn wirklich wichtig, dass das Autoren dieselben Autoren sind?
00:55:56
Speaker
Oh, gut, dass du es ansprichst, wissen wir nicht. Lass uns zwei Themen raussuchen, zu denen wir täglich einen Artikel schreiben. Ein, da setzen wir zwei Autoren drauf, und ein, das machen sieben oder acht unterschiedliche. Und dann gucken wir mal, was das irgendwie macht. Und dann können wir das A-B testen. Und weil ein Thema alleine nicht aussagekräftig ist, brauchen wir vier. Und dann sagen sie, ja, Kollege, du verplantst dir jetzt gerade 25 Prozent unserer gesamten Produktionskapazitäten von Artikeln. Und auf was für Themen willst du die setzen?
00:56:24
Speaker
Ja, also am besten irgendwie so Ratgeber-Content. Lass uns mal irgendwas aus dem Garten machen. Was? Wir sind der Spiegel. Wir können jetzt nicht irgendwie... So, also das ist tatsächlich dann so ein bisschen das Problem.
00:56:37
Speaker
das du hast, wenn du solche Sachen auch über einen längeren Zeitraum entwickeln und testen willst. Und da ist ein bisschen Datentrüffelschwein gefragt, weswegen ich tatsächlich sehr großer Fan davon bin. Es gibt in dem Newsbereich relativ wenig Patente eigentlich, die eingereicht wurden, weil sich das News Team insgesamt sehr bedeckt hält und auch, glaube ich, relativ isoliert arbeitet im Vergleich zu dem, was Google sonst so macht.
00:57:06
Speaker
Aber deswegen finde ich zum Beispiel, dass aus dem Data Warehouse League gibt es ein Modul, das finde ich das allerallerspannendste. Ich weiß nicht, ob du das schon mal gesehen hast, Andre.
00:57:20
Speaker
Dog Joiner Data Version heißt das Modul. Das ist ein Riesenspaß, weil es überhaupt keine Meta-Informationen enthält, sondern einfach nur ein Verzeichnis ist aller Daten, die Google über im Dog Joiner, also zu einem Dokument abspeichert oder dem Dog Joiner zur Verfügung stellen, wenn er das Dokument nimmt und in den Dokumenten Index packt.
00:57:44
Speaker
Und über die meisten wissen wir nichts weiteres. Zum Beispiel gibt es da so Sachen wie Quality Authorship Author Annotations. Also, ist das ein Qualitätsautor, der dieses Stück geschrieben hat, ja oder nein? Oder Quality Authority Topic Embeddings. Also, die Themen, um die es hier geht, hat die Seite dafür irgendwie eine Autorität, ja oder nein?
00:58:13
Speaker
Und lauter solche Sachen stehen da drin. Und wenn man das sich anguckt, dann kann man tatsächlich so ein bisschen so Modelle entwickeln und sagen, okay, es gibt irgendwie etwas, da spielt Authorship eine Rolle, um die Qualität dieses Artikels zu bemessen. Das hat aber nichts damit zu tun, ob es eine Autorenseite gibt, ob diese Autorenseite verlinkt ist, oder ob wir eine Autoren-Bio unter den Artikel packen, sondern es geht darum, was schreibt denn dieser Autor?
00:58:42
Speaker
Wie gut ist denn das wirklich? Also mögen die Leute das zu lesen. Und das tatsächlich auszutesten und zu verbessern, das ist super schwierig, weil die Frage ist ja, was wollen Leute lesen, um darauf zu optimieren?
00:58:57
Speaker
Aber man findet ja schon anhand solcher Quellen, es ist ja überhaupt keine hundertprozentige Bestätigung, so wird es gemacht. Wir wissen auch nicht, welche davon benutzt werden und dann auch nicht in welcher Gewichtung. Aber allein, dass hier halt sowas wie Authorship mehrfach genannt wird und sie versuchen, das mit unterschiedlichen Attributen zueinander ins Verhältnis zu setzen, könnte einen ja schon auf die Idee bringen, dass
00:59:20
Speaker
die Autoren und Autorinnen hier eine Rolle spielen, wie auch immer hoch gewertet. Und dass die Autorenbox es alleine nicht bringt, ist auch eine gute These, dass die aber durchaus helfen kann, durch Verlinkung da Leute darauf oder auch einen Bot darauf zu stupsen. Der Kollege hier, der hat schon relativ häufig was dazu veröffentlicht. Das siehst du, wenn du hier auf den Autor klickst und dann dort untereinander weg, irgendwie, was weiß ich, chronologisch oder nach meist gelesen oder sonst wie.
00:59:46
Speaker
die anderen Artikel dann halt findest und es so genannte Themenklasse gibt. Und es gibt schon. Es ist ja, wie gesagt, keine schwarze-weiß-Garantie oder so. Aber die Richtung, in die man so Thesen entwickeln kann, dabei hilft es ja trotzdem ungemein. Und Vion sagt, dass man das mal durchhält und Leute nicht sagen, hey, wir haben das jetzt zwei Wochen ausprobiert.
01:00:08
Speaker
Wir sehen keine Ergebnisse, lass uns das abbrechen. Das ist halt dann so, wo man viel gut zureden muss, dass eine gewisse Ausdauer dann halt erhalten bleibt. Denn wäre ja schade, wenn man diesen Threshold die ganze Zeit nicht erreicht, bevor man quasi die Waage umkippen könnte, wenn es sich nicht mehr bergauf anfühlt, sondern endlich die Rutsche wird, die Spaß macht, wenn man dann vorher einknickt. Das wäre natürlich irgendwie schade. Aber schwierig im Prozess.
01:00:35
Speaker
Ich glaube, ich will das gar nicht abstreiten. Aber das, was du vorhin meintest, das haben wir ja vor 15 Jahren, da haben wir ja auch Hypothesen aufgestellt. Ich finde, da haben wir halt selbst Dinge entworfen und hinterfragt. Und es sind halt so viele, gerade wenn man sich dieses letzte League anschaut, da sind halt so viele unterschiedliche, komplexe Dinge beschrieben.
01:01:04
Speaker
dass man halt erst mal verstehen muss, was könnten die damit meinen? Und dann fängt man erst an, Hypothesen, wie man das... Also A, was könnte denn das sein? Und wie könnten wir das mal ausprobieren? Ja, natürlich. Gibt uns wieder Raum für Testing. Nur, das... Ich finde, manchmal, wenn man sich Sachen nicht selber ausdenkt, dann wird es komplexer, das zu vertesten. Also...
01:01:30
Speaker
Ich hoffe, man versteht da draußen, was ich meine. Also ich will nicht sagen, früher war alles einfacher und schöner, aber ich finde es erst mal chapeau, dass du dich damit so viel beschäftigst und auch andere da draußen in der Seriosszene dich sehr, sehr intensiv mit dem ganzen, ich sag jetzt mal, neuen heißen Scheiß gerne auch so tief beschäftigen wollen und das auch können.
01:01:57
Speaker
Ich denke mir die ganze Zeit, wie kann sich der Johann bloß das alles merken? Das kann ich zum Beispiel ganz schlecht.
01:02:06
Speaker
Also ich kann sagen, aus meiner Perspektive, dass Johann vielleicht nicht der dümmste Junge auf der Welt ist und dass er sich auch sehr intensiv einfach damit beschäftigt. Ja, das merkt man ja. Und sich wiederholt damit beschäftigt, dann bleibt vielleicht auch mal was hängen zwischen den Ohren. Ja, aber man muss das auch wollen. Man muss das auch wollen. Tatsächlich ist es sowohl bei dem Tüttler-Dokument als auch bei den News-Dokumenten, ich habe die 2018 gesehen, 2019, keine Ahnung,
01:02:34
Speaker
Da haben die nicht zu mir gesprochen. Ich konnte damit nichts anfangen. Ich dachte so, ja, interessant. Und dann hab ich mir die zwei Jahre später noch mal angeguckt und dachte, wie kann das sein, dass du die übersehen hast, was da für Gold drinsteckt? Und irgendwie in einer ganz anderen Situation haben die irgendwie mit mir geredet. Und jedes Mal, ich hab die inzwischen vier oder fünf Mal mir angeguckt,
01:02:56
Speaker
Und jedes Mal was Neues entdeckt. Also das ist tatsächlich total spannend, weil du ja in der Zwischenzeit was Neues gelernt hast oder an einem Projekt arbeitest, das einen anderen Fokus hat und dann geht das wieder irgendwie ein bisschen mehr in die Richtung oder so.
Google News: Kanonische URLs und Artikelgruppierung
01:03:11
Speaker
Und das finde ich tatsächlich mega, mega spannend. Und wenn man dann, ich habe mich
01:03:17
Speaker
Das ganze letzte Jahr sehr viel damit beschäftigt, wie Google denn eigentlich ein Dokument erkennt und irgendwie so das Canonical bestimmt und was für Logiken da eine Rolle spielen oder auch nicht oder sowas.
01:03:31
Speaker
Und hab mir aber nie die Frage gestellt oder nie wirklich noch mal die Frage gestellt, finde ich denn eigentlich im Leak etwas dazu, wie Google das eigentlich bei Google News macht. Weil bei Google News war es vor drei, vier Jahren noch eklatant, dass du teilweise, wenn du ein Keyword gesucht hast, sieben, acht, neunmal die gleiche Meldung gefunden hast unter den Top 20. Weil einfach DPA rausgeballert und Google hat nicht erkannt, dass es der gleiche Kram ist. Das passiert heute nicht mehr.
01:04:01
Speaker
Heute kriegt einer den Zuschlag. So und jetzt gibt es tatsächlich neben dem normalen Canonical und der normalen Dokument Gruppierung noch mal ein extra News Near Duplication Thema und auch eine eigene News Article Checks haben. Also für Google News gibt es diesen ganzen Prozess.
01:04:21
Speaker
noch mal und funktioniert nach anderen Kriterien. Und irgendwas müssen Sie da in vor drei, vier Jahren getunt haben, sodass es jetzt auf einmal halbwegs brauchbar funktioniert. Und so was finde ich halt, finde ich halt spannend, wenn man dafür dann noch mal Belege findet. Und da ja, also intensiv reinzugehen. Ich finde tatsächlich, dass wir uns als als Seos gibt es, glaube ich,
01:04:51
Speaker
drei Varianten, wie du ein wirklich guter SEO werden kannst. Vielleicht gibt es noch mehr, aber die eine ist, du kannst einfach eine spezielle Sache sehr, sehr gut machen und immer wieder. Also einfach so ein Execution-König und da über, ich habe schon 1000 Artikel optimiert, jetzt aktualisiere ich den 1000 ersten, das ist Muscle Memory, da denke ich gar nicht mehr drüber nach, wie das funktioniert, sondern ich mache es halt einfach.
01:05:20
Speaker
Die zweite Variante ist, du bist so ein Daten- und Testverrückter Mensch und überlegst dir irgendwie, hey, welchen Linktext nimmt Google denn? Nimmt Google immer den ersten oder den größten oder was ist denn das, was das macht? Wie kann ich mir da für ein Testszenario bauen und wie kann ich das irgendwie tun?
01:05:38
Speaker
Und weil ich für die erste Variante nicht genügend Ausdauer habe und für die zweite Variante nicht kreativ genug bin, bleibt mir nur die dritte Variante, nämlich zu überlegen, wie denn das große Ganze und diese Gesamtmaschine funktioniert und da alle Informationen zu sammeln und dann zu überlegen, wie kann ich denn damit umgehen. Und ich glaube,
01:05:59
Speaker
Jetzt, wo wir alle dem unseren neuen KI-Overlords gegenüberstehen, tut man ganz gut daran, in einer dieser drei Disziplinen tatsächlich gut zu werden. Und ich finde es tatsächlich spannend. Also mir wurde eine sehr hohe theoretische Neugier attestiert. Ich mag das zu verstehen, was irgendwie hinter Dingen steckt und auf zweiter, dritter Ebene irgendwie dahinter und will das gerne verstehen, wie diese Maschine funktioniert.
01:06:29
Speaker
mit und gegen die ich arbeite. Merkbar. Wir sprechen schon eine Weile und wir haben garantiert nicht alles gesagt, aber
01:06:41
Speaker
ein paar Shots hättest du noch, um uns noch mal reinzuholen, was wirklich wichtig ist. Ich find's cool, dass Andre ja schon die Runde gedreht hat zu, wie kann ich das eigentlich anwenden und wie kann ich das rausfinden? Mache ich hier richtige Dinge oder falsche Dinge? Wie finde ich das aus? Welche Tools gibt es? Das haben wir ja alles schon so ein bisschen gestriffen, aber ich weiß, hier stecken noch ein paar Sachen, die noch ein bisschen mehr Bedeutung haben, die wir vielleicht nicht hinten runterfallen lassen sollten. Fällt dir noch was ein? Also so ein paar Sachen, die tatsächlich
01:07:12
Speaker
Ich fand es spannend, es gibt ein Beleg in dem Anchors Anchor Modul, das mit das beliebteste irgendwie in dem Link-Thema ist, gibt es ein Encoded News Anchor Data. Und da geht es tatsächlich darum, dass Links nochmal geflaggt werden, die
01:07:31
Speaker
klassifiziert wurden als Links von einer Newsy High Quality Site. Also da gibt es tatsächlich nochmal, wenn du von einem Publisher einen Link bekommen hast, der ist nochmal extra was wert, fand ich nochmal einen ganz spannenden Punkt. Sorry, dass ich dich unterbreche, aber das Spannende daran ist ja auch nicht nur, dass sie diesen Link einsammeln, also in dem Fall den Enker, sondern
01:07:57
Speaker
Coming from a newsy, high quality side heißt ja, dass sie irgendwo ganze Domains als newsy und high quality eingeschätzt haben müssen. Das einzelne Content Piece profitiert eben auch von der Domain, auf der sie erscheint.
01:08:14
Speaker
Genau, also da gibt es zum Beispiel so Sachen wie News Corpus, News Corpus Annotation oder sowas. Also da wird quasi zu jedem Dokument dazu geschrieben, kommt es von einer News Seite und ist diese News Seite qualitativ hochwertig.
01:08:31
Speaker
sowas gibt es tatsächlich relativ relativ viel ich finde auch spannend dass es hinweise darauf gibt dass bei news Seiten nicht zwangsläufig ein link existieren muss sondern tatsächlich die menschen reicht also wenn ich schreibe
01:08:49
Speaker
Wenn als Spiegel wie Zeit berichtet, dann kriegt Zeit davon quasi Trust ab, unabhängig davon, ob ich einen Link setze oder nicht. Das gab unter deutschen Publishern mal vor einiger Zeit den großen Linkfrieden, der den Linkguides beenden sollte, weil Publisher sich nicht untereinander
01:09:11
Speaker
einigen konnten, ob man sich jetzt verlinkt oder nicht. Dann gab es ein großes Wir verlinken uns jetzt mal vor ein paar Jahren. Das ist jetzt allerdings auch schon wieder Generationen von Publishern her. Also ist dann doch auch alles irgendwie nicht mehr so. Aber es schützt einen halt dann im Zweifel nicht, diesen Link nicht zu setzen, wenn man seiner journalistischen Pflicht entgegenkommt, da zu sagen, woher die die Quelle kommt. Es gibt auch tatsächlich
01:09:41
Speaker
So Dinge wie Last Significant Update, das wurde tatsächlich schon häufiger mal diskutiert.
Bedeutung von Google Discover für Traffic und Risiken
01:09:49
Speaker
Also Google unterscheidet, ob nur ein Taipo geändert wurde oder ob tatsächlich mit der Seite was passiert ist. Tatsächlich kann Google Organic das wesentlich besser als Google News.
01:10:01
Speaker
Ich will jetzt das fast Republishing nicht aufmachen, aber unter Publishern ist es ein großer Spaß, eine erfolgreiche Nachricht noch mal zu veröffentlichen unter einer anderen URL. Erfolgreich vor allem auf Discover, weil wenn du wirklich das Publisher-Spiel spielst, dann kommt dein SEO-Traffic häufig zu 70, 80 Prozent über Discover und nicht über die organische Suche oder Google News. Das ist tatsächlich
01:10:31
Speaker
beeindruckend. Und auch schwierig den Leuten dann zu sagen, mach dich nicht abhängig von Discover. Der Hahn kann jederzeit zugedreht werden. Das ist wie Social Media und wenn Google anderen den Zuschlag gibt und nicht mehr dir, dann ist das so und wir müssen es hinnehmen. Wenn du aber eigentlich davon lebst, das ist wahnsinnig schwer, dann nicht alles dann rauszurichten und das einfach nur die ganze Zeit wie so ein Bonussegen zu empfinden, wenn es 80 Prozent des Traffics ausmacht. Total hart.
01:10:58
Speaker
Ja, genau. Aber das wäre, das wären noch mal so zwei, zwei Punkte, die ich, die ich total spannend finde. So dieses Thema Links und und Updates und tatsächlich über Discover gibt es in dem League total wenig. Es scheint intern Browsy genannt zu werden. Aber so richtig viel Spannendes dazu war dann tatsächlich in dem League leider nicht drin.
01:11:24
Speaker
Was auch wieder so ein bisschen bedeutet, okay, dann ist es wahrscheinlich irgendwie eine Infrastruktur, die nur konsumiert von den anderen Systemen, aber nicht gibt. Was wieder auch eigentlich eine spannende, spannende Information ist. Das heißt, dass du auf. Discover eine hohe CDR hast heißt zwar unter Umständen, dass du viel Klicks bekommst und. Auf discover erfolgreich bist und dieser Traffic hilft dir dann vielleicht auch für Google News.
01:11:51
Speaker
Aber die hohe CTR von Google News heißt nicht zwangsläufig, dass du in der News-App irgendwie besser gerankt wirst oder so. Also solche Gedanken finde ich dann tatsächlich auch nochmal ganz spannend. Ja, wahrscheinlich wollte Google insgesamt halt nicht zu clickbaity bleiben. Also so nach dem Motto, wir machen hier nochmal einen separaten Raum auf, wo das gewünscht ist, wo das auch gut ist und funktioniert und die User mit dieser Erwartungshaltung auch happy macht. Aber es sollte sich vielleicht nicht ganz so sehr aufwirken,
01:12:18
Speaker
auf die organische Suche oder die Newsboxen, weil das hier schon auch zu Spam oder Clickbait einlädt. Ja, genau. Aber das wären so die ersten Learnings, die ich irgendwie aus diesen Dokumenten-Leaks rausziehen konnte.
01:12:38
Speaker
Ja, super spannend finde ich. Also es ist viel, viel Wissen im Detail. Und wie du ja sagst, es ist gar nicht der neue heiße Scheiß oder irgendwie 2024 haben wir erfahren, sondern einiges schon irgendwie 2016, 17, 18, viele Jahre zurück, nochmal neu angeguckt, neue Brille, irgendwie anderer Kontext. Aber vielen Dank an der Stelle, dass du uns hier einmal durchs Programm geführt hast. André, hast du denn noch
01:13:03
Speaker
Fragen offen. Also ich gehe ja immer dann gleich so, was würde ich denn damit machen? Spam. Quatsch. Hast du mal die Daten, die dir zur Verfügung stehen, mal in so eine Vektoren-Datenbank rein geladen, um dann einfach auch mal schlaue Fragen zu stellen?
01:13:27
Speaker
Ich habe tatsächlich den Leak, den 2014er Leak und den 2019er Leak, die habe ich genommen und mal so ein bisschen so umformatiert, dass es in ein Notebook LM passt. Genau, so was habe ich jetzt auch gedacht.
01:13:47
Speaker
Ja, das funktioniert sehr schön. Da kann man ganz gut Fragen beantwortet kommen. Das kann man natürlich irgendwie nochmal... Olaf Korb hat das Ganze ja nochmal auf Patente erweitert und geht da nochmal irgendwie ein bisschen stärker drauf. Aber mir reicht tatsächlich schon dieser kleine Punkt schon mal, um echt spannende Antworten zu bekommen. Du musst halt aber am Ende doch immer reingehen, weil...
01:14:12
Speaker
Die Halluzination, die ist halt real. Da passieren tatsächlich häufiger Dinge. Das finde ich jetzt aber gar nicht belegt und andere Dinge werden irgendwie übersehen. Da hängt auch viel dran dann ab, wie du das in der Extraktion machst.
01:14:30
Speaker
Aber ich mag das immer, Google-Tools gegen Google zu benutzen. Also das finde ich als Gedanken immer total, total schön. Das stimmt. Ich hätte jetzt das wahrscheinlich in eine Superbase reingehauen und dann irgendwie mal JTP vor, wie heißt das neue?
01:14:49
Speaker
dagegen laufen lassen. Neu ist es ja auch nicht, aber einfach mal, um einfach mal zu gucken, was, was für Fragen, was da so passiert. Also, weil das ist so, das finde ich immer sehr, sehr spannend, wenn man, wie du ja schon sagst, du nimmst gerne Google-Tools gegen Google.
01:15:06
Speaker
Wir machen es natürlich für Google, aber im ersten Sinne für die User. Das ist ja allgemein bekannt. Aber das waren so die Gedanken, die ich so hatte, weil ich einfach mir viele Sachen nicht immer so merken kann. Und dann wäre es nicht immer gut, wenn ich einen so großen Korpus habe, den ich was geben kann und einfach meine Fragen noch mal kurz reinschreibe und dann eine Antwort kriege. Das hilft mir immer sehr.
01:15:32
Speaker
Ja, cool ist ja auch, wenn man quasi die Google-internen Namen, wenn man denen so Stück für Stück auf die Schliche kommt und sich dann auch so eine Art Vorkabelheft anlegen kann und man dann schon weiß, wonach man sucht. Und es klappt aber auch nicht immer. Also häufig muss man schon einigermaßen informiert die Frage stellen, um dann dabei rauszukommen, was man vielleicht schon mal gewusst hatte, aber ad hoc vergessen hat. Das ist klar. Das Blöde ist, ganz neues Wissen, so nach dem Motto erklär du es mir, das klappt nicht. Also meiner Erfahrung nach nicht.
01:16:00
Speaker
Aber es ist ganz spannend, also Zwiddler zum Beispiel, wenn du alleine das Wort vor diesem lieg unter bestimmten oder so mit erfahrenen Seos, dann konntest du relativ schnell, ah, okay, hm, und dann hat man sich so zugezwinkert, kennste, ja, kenn ich, und dann ist das Gespräch auf einmal auf eine ganz andere Ebene gegangen, und zwar wurde sehr viel dann auf einmal
01:16:28
Speaker
an Informationen geteilt, die man sonst vielleicht nicht geteilt hätte, weil man gemerkt hat, okay, wir sind irgendwie beide aus dem Theoretiker.
01:16:37
Speaker
Und wir verschlingen irgendwie Informationen oder sind an irgendeiner Stelle mit einem Ex-Googler mal eintrinken gewesen oder so, weil diese Begriffe dann teilweise Eintrittskarten waren. Und das ist tatsächlich auch so mein Check, wenn mir jemand erzählt, er hat sich mit dem Leak beschäftigt. Das ist tatsächlich eine schöne Frage, irgendwie mal zu sagen, ja, und was glaubst du denn, wofür NSA steht und was macht das?
01:17:03
Speaker
Und wenn dazu eine Antwort kommt, dann weißt du auch häufig, ja, okay, da ist was. Wenn dazu keine Antwort kommt, dann kannst du noch zwei, drei andere Stichpunkte abfragen. Und wenn da immer noch nichts kommt, dann weißt du, okay, über die zwei, drei einschlägigen Artikel ist die Person leider nicht hinausgekommen. Und dann ist das gar nicht schlimm, weil wenn es trotzdem... Weil Exekutierchenkönig.
01:17:24
Speaker
Ja, ist genauso wertvoll. Und mein ganzes Theoriegelaber ist überhaupt nichts wert, wenn auf der anderen Seite nicht tatsächlich real in diesem Internet was verändert wird, was dann zu besseren Rankings führt. Genau. Aber das finde ich dann ganz spannend. Und sich da für eine Richtung zu entscheiden, tut uns allen, glaube ich, irgendwie ein bisschen gut. Weil wenn du sagst, ich bin derjenige, der gerne experimentieren möchte,
01:17:53
Speaker
Ja, dann tu's. Bitte. Bitte, bitte, bitte tu's und rede drüber. Davon lernen wir alle. Das vermisse ich so an der alten Zeit. Da hat man noch SEO-Blocks betrieben und hat sein Wissen einfach geteilt. Also als Branche sind wir schon immer noch relativ nett zueinander und teilen viel. Also da gibt es andere Ellbogen-Immunities in der Businesswelt. Ich finde die SEO-Rabel schon ganz nice eigentlich.
01:18:19
Speaker
Das stimmt. Aber wenn wir jetzt anfangen wollen, zu sagen, dass gestern alles besser war, bin ich leider raus. Nein. Alles klar. Das ist unser Stichwort. Tschüss, Jon. Ich hab noch Hack im Auto. Ich muss auch los. Ja, vielen Dank, dass du da warst. Ja, danke schön. Wurde mal Zeit. Fast ein Jahr hat's gedauert. Ja.
01:18:46
Speaker
Jederzeit sagt einfach Bescheid. Themen gibt es genug. Ich stelle dann auch gerne euch mal die Fragen. Vielleicht nächstes Jahr. Das ist ja bald. Oder es ist schon so. Stimmt, wenn ihr es hört, ist es schon so weit. Alles klar. Du, dann vielen, vielen Dank und bis zum nächsten Mal. Bis dann. Tschüss. Tschüss.