Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
Mit Hanns Kronenberg – Wie dir das Bauen einer internen Suche bei SEO hilft image

Mit Hanns Kronenberg – Wie dir das Bauen einer internen Suche bei SEO hilft

E59 · Podcast für gute Websites
Avatar
236 Plays1 month ago

Hanns Kronenberg, Lead SEO Manager bei chefkoch.de, ist zu Gast. In der Folge “Re-Ranking bei Google & Twiddler-Optimierung” im Podcast für gute Websites hat Jolle begeistert von Hanns’ Vortrag auf der Campixx berichtet. In dieser Folge werden wir die offenen Fragen dazu los.

Themen und Links zur Folge:

  • Hanns hat einige Folien für dich zusammengestellt, die dir dabei helfen können das Thema besser zu priorisieren: https://sharing.gutewebsites.de/index.php/s/xirB5BxrTrMGWNM
  • Warum ist die CTR so eine sinnvolle KPI und welche User Signale bringen dich außerdem voran?
  • Nach welchen Kriterien kannst du entscheiden, welche Seiten indexierbar sein sollen und welche nicht?
  • Wie schaffst du es, 40% deines URL-Raums auf Seite 1 ranken zu lassen
  • Warum du die Prozesskette “Nachfrage - Discovery - Crawling - Indexing - Ranking - Re-Ranking - CTR” als Multiplikation verstehen kannst: Fällt eine aus (=0), funktioniert die ganze Kette nicht
  • Wie bekommst du Buy-in vom Management für deine SEO-Maßnahmen
  • Hanns’ (zwischenzeitlich auf Eis gelegter) Podcast mit seiner Frau SEO Date
  • Hanns’ gern genutztes Tool für Search Console Daten: Ryte
  • Algolia Suche
  • Elastic Search
  • Artikel von Kevin Indig über das inverse Verhältnis von Quantität und organischem Traffic
  • Die noch nicht öffentlichen Geheimnisse verrät Hanns auf dem G50 Summit

Wir hören uns gleich im Podcast! Schick uns deine Fragen und Anregungen gerne an [email protected].

Recommended
Transcript

Einführung und Vorstellung

00:00:02
Speaker
Diese Woche sprechen wir mit Hans Kronenberg darüber, wie man eine interne Suche richtig gut macht. Viel Spaß dabei!
00:00:23
Speaker
Einen schönen guten Morgen, Mittag, Abend, wann auch immer du diese Episode vom Podcast für Gute Websites hörst. Wir drei heißen dich herzlich willkommen. Und neben Jolle ist auch der liebe Hans Kronenberg heute zu Gast. Wir hatten ja vor einiger Zeit mal das Thema Reranking angesprochen. Da war Jolle ja ganz begeistert von dem Vortrag von Azeo Kempiks in diesem Jahr.
00:00:44
Speaker
den Hans da gehalten hatte. Und wir hatten einfach so viele Fragen uns selber noch gestellt, also Jolle und ich im Nachgang an dem Podcast. Und dann gab es ja auf LinkedIn die gute Unterhaltung in den Kommentaren. Und dann haben wir uns gedacht, wir laden den Hans mal ein, um über dieses Thema zu sprechen. Aber auch, und da soll es heute schwerpunktmäßig drüber gehen, wie man eigentlich so eine interne Suche auf seiner Website oder Online-Shop richtig aufbaut.
00:01:12
Speaker
Vielleicht kleiner Disclaimer zu Hans für die wenigen, die hier zuhören, die Hans noch nicht kennen. Hans kennt ihr vielleicht von Sistrix, da war er lange Zeit Head of Marketing und sehr, sehr präsent in verschiedenen Formaten, sei es Vorträgen, sei es, ich habe ihn glaube ich auch in Videos gesehen und Kursen und auch bekannt vom Seodate Podcast und ist jetzt

Bedeutung und Technologie der internen Suche

00:01:39
Speaker
Lead SEO bei Chef Koch, auch schon seit einigen Jahren wieder. Und sagt damit herzlich willkommen Hans und Jolle. Hallo zusammen. Hallo. Danke für die Einladung. Ja, es freut mich sehr, weil ich wie gesagt, ich finde das Thema einfach so spannend. Viele reden nur von SEO und das ist ja nur der äußere Teil. Die Suchmaschine außen, aber diese innere Suche ist ja gerade bei so einer großen Website wie Chef Koch
00:02:08
Speaker
Ja, eigentlich schon sehr essenziell, oder? Absolut. Also es gehört auch zu den Grundzielen von Chefkoch, also dass man eben Rezepte findet, also suchen kann und dann eben auch speichern kann im Kochbuch. Aber die Suchfunktion ist natürlich schon einer der essentiellen Grundfunktionen von Chefkoch und hat da ganz hohen Stellenwert.
00:02:34
Speaker
über 200 Millionen Suchen pro Jahr, die halt allein nur im Web durchgeführt werden. Dazu kommen dann auch die Apps. Das ist schon eine große Suchmaschine. Jolle, ich wollte jetzt nicht einfach die ganze Zeit reden. Du, ich fühle mich hier sehr wohl. Okay, ich hätte dann gleich schon mal eine Frage. Du sagtest gerade Apps. Nutzt ihr die gleiche Suchtechnologie auf der Website und auf der App?
00:03:01
Speaker
Das ist die gleiche Suchtechnologie und idealerweise auch synchron in den Funktionen, was aber nicht immer ganz 100% gegeben ist, weil es natürlich verschiedene App-Releases da gibt. Ja, und wahrscheinlich auch Restriktionen durch die Systeme in der Entwicklung.
00:03:21
Speaker
Jein, also wahrscheinlich eine Bedienung, aber im Detail bin ich bei diesen App-Sachen auch nicht drin. Ja, ich kenne das. Na ja, auch so. Habt ihr einen, wenn ich jetzt schon ins technische Detail so reinklopfe, habt ihr ein eigenes System, baut ihr auf Open Source auf oder ist das ein, ich sage jetzt mal eine, wie sagt man bei den Hochlizenzprodukten, ein

Einsatz und Vorteile von Algolia

00:03:50
Speaker
Ich komme nicht drauf. Naja, eben so einen teuren Anbieter, der eigentlich nicht bezahlbar ist für normale Portale und Websites.
00:03:58
Speaker
Er ist ganz lustig. Ihr habt in der Folge, in der ihr da den Vortrag besprochen habt, eigentlich schon richtig geraten. Da sprachst du Algolia an und das ist die Lösung, die wir da nutzen, die dort einfach mehr Funktionen bieten. Also man kennt ja, viele nutzen Solar oder Elasticsearch.
00:04:24
Speaker
Algolia bietet da wirklich interessante Zusatzfunktionen an und hat vor allen Dingen ein sehr geniales Backend, in dem man dann auch nochmal sehr viel so sehen kann, was da passiert und das sehr, sehr einfach konfigurieren kann.
00:04:42
Speaker
Das war Enterprise, das Wort habe ich eben gerade gesucht. Das war auch, als du das gerade angesprochen hattest, dachte ich mir, das muss bestimmt spannend sein, weil wenn du das mit Elastic vergleichst, so backend-seitig, ich wüsste jedenfalls nicht, dass da so Standard, out of the box, was ist und bei Algolia hast du ja theoretisch wahrscheinlich Zugriff auf diese Daten.
00:05:04
Speaker
Und kannst dann wahrscheinlich auch so Fine-Tuning direkt, ich sag jetzt mal, ich sag jetzt mal im Slider, jetzt ein bisschen übertrieben dargestellt, aber du hast wahrscheinlich verschiedene Werte, die du verändern kannst, wo Schwerpunkte drauf liegen sollen in der Gewichtung.

Optimierung der Suchergebnisse und KPIs

00:05:21
Speaker
Unterbrich mich bitte sofort, wenn ich was Falsches sage. Genau, und du kannst dann im Prinzip auch zwei Slider-Konfigurationen so ungefähr
00:05:31
Speaker
parallel aufsetzen und direkt per Knopfdruck sagen, wir machen jetzt einen A-B-Test zwischen den beiden, um dann zu sehen, ob die eine Variante zum Beispiel dann irgendwie zu einer höheren CTR führt. Das ist natürlich richtig clever, eine integriertes A-B-Test-System für Sucher. Ich bin über den Begriff CTR gestolpert, aber wenn du direkt vorsetzen wolltest, will ich nicht unterbrechen, sonst fällt mir dazu auch noch eine Frage ein.
00:05:58
Speaker
CTR ist, wenn du Suche nimmst, egal ob es jetzt die Site Search ist, die interne Suche oder natürlich auch bei Google, wirklich ein sehr, sehr, sehr zentrales Ziel. Und ich war mir am Anfang unsicher, also irgendwann hatten wir halt die Mission, lass uns die Site Search neu bauen.
00:06:17
Speaker
Und als SEO wollte ich mich da maximal einmischen. Also, weil es spannend ist, aber weil ich dann auch direkt gerochen habe, da kannst du als SEO noch so viel lernen, wenn du mal eine eigene Suchmaschine baust. Und ich habe früher immer den Jens Vaudraht beneidet, die hatten ja, als er noch bei T-Online war, da hatten die ja praktisch die, also T-Online war natürlich eh sehr populär, aber als Sucher haben die ja eigentlich Google genutzt, eine Google-Instanz, aber konnten da halt ein ganzes Stück in den Maschinenraum reinschauen.
00:06:48
Speaker
Und manchmal hatte man so Glück, dass er einem dann manchmal auch so ein paar Daten geliefert hat, so ein paar Keywords und so. Und fand das immer super. Und also war weißneidisch auf die Erfahrung, die er da hatte. Und als klar war, dass wir da eben aus dem Projekt starten, war auch eine glückliche Gelegenheit da. Da war ich auf der Seokomme in Salzburg und auf der Rückfahrt saß ich zufälligerweise im gleichen Abteil wie Jens.
00:07:18
Speaker
Und er konnte ja dann ja auch nicht fliehen da im Zug. Und auf der Fahrt dann Richtung Deutschland und nach Norden war er mir da halt stundenlang ausgeliefert. Und ich konnte ihn dann löchern mit Fragen da. Und die zentralste Frage war natürlich, was ist denn eigentlich so die Haupt-KPI für eine Suche? Und ich hatte vermutet, es kann ja eigentlich fast nur CTR sein. Und er hat es mir dann nochmal bestätigt.
00:07:46
Speaker
Also auf was optimierst du letztendlich? Also wie willst du denn wissen, ist jetzt die Suchkonfiguration besser als die? Und letztendlich ist es halt die CTA, also dein Ziel ist es halt, Leute suchen, dass das möglichst viele dann auf einen Treffer klicken, weil dann war die Suche wahrscheinlich irgendwie erfolgreich.
00:08:03
Speaker
Ja, macht total viel Sinn und trotzdem erwische ich mich dabei, wie ich so im Alltag, wenn ich in der Search-Konsole unterwegs bin, die CTR erstmal ausblende, weil da halt auch viel, ist jetzt natürlich dann die externe Suche ein ganz anderes Thema, aber trotzdem habt ihr das ja geschafft.
00:08:18
Speaker
diese Parallelen irgendwie aufzuzeigen. Also ihr habt ja schon gewusst, okay, die CDR ist wahrscheinlich die beste KPI, um da drauf zu gucken. Und trotzdem so im Alltag, wenn ich überlege, hey, das hängt auch davon ab, welche SERP-Features gibt es. Da gibt es noch so viele Abhängigkeiten, wo diese Signale eher neu sind, als dass ich wirklich was draus lerne, dass ich häufig überhaupt nicht so verstärkt hingucke. Aber du hast natürlich vollkommen recht, wie will man besser messen, ob die Leute zufrieden sind, als über diese KPI.
00:08:48
Speaker
Ja, ich meine, das ist natürlich noch nicht das Ende. Natürlich musst du dann das Versprechen des Treffers auch auf der Seite erfüllen. Klar. Das ist dann praktisch die nächste wichtige Kennzahl, der ich so die Überschrift geben würde, Conversion. Also in irgendeiner Form Conversion. Das kann im Shop natürlich direkt sein, dass da irgendwas in den Warenkorb gelegt wird. Aber bei
00:09:13
Speaker
informationalen Seiten, kann es natürlich auch sein, dass du da auch irgendwelche Aktionen machst, wo du überhaupt den nächsten Klick machst oder eine bestimmte Zeit drauf bleibst. Bei Rezepten haben wir da ganz gute Conversion-Kennzahlen, indem wir sagen, jemand, der auf ein Rezept kommt, wie interagiert der denn mit dem Rezept, speichert der das irgendwie in seinem Kochbuch ab oder was bei uns mega populär ist, das Rezept wirklich auszudrucken. Also, die Leute wollen dann wirklich diesen
00:09:41
Speaker
Zettel in der Küche haben, der dann auch mal dreckig werden darf und kochen dann von dem Zettel da irgendwie das Rezept nach. Oder wird das kommentiert, wird das mit Sternen bewertet? Also da gibt es doch etliche Interaktionen.
00:09:58
Speaker
die man als Conversion zählen kann. Und das sind dann auch wirklich sehr, sehr harte Conversions. Also jemand, der das ausdruckt oder abspeichert, der will es wissen. Offensichtlich das Rezept so gut, dass er sagt, da will ich jetzt was mitmachen.

Rewanking und saisonale Effekte

00:10:13
Speaker
Speichert ihr diese Informationen ab und fließen die wieder rein in die neue Suche? Die sind auch Teil des Rewankings bei uns.
00:10:24
Speaker
Ja. Könnte das nicht irgendwann dazu führen, dass, ich meine gut so lange die Conversions konstant hoch bleiben, würde das aber wahrscheinlich dazu führen, dass irgendwann die Suche, wenn ich jetzt Bolognese zum Beispiel suche, dann werde ich immer nur noch dieses Rezept kriegen. Ja gut, du kriegst bei uns immer, es sind über 30 Rezepte auf der ersten Seite. Also du hast da immer eine große Auswahl.
00:10:53
Speaker
Und wir nutzen dafür auch immer nur die Daten der letzten 30 Tage. Ah, okay. Das bleibt immer aktuell. Auch wichtig, weil wahrscheinlich bei den meisten Websites, aber im Kochbereich schon ziemlich stark, hast du natürlich saisonale Effekte. Also die Leute wollen zum Beispiel im Sommer andere Kuchen backen als im Winter. Im Sommer viel mit Früchten, je nachdem was so gerade von den Bäumen und Sträuchern fällt.
00:11:21
Speaker
Und im Winter darf alles auch so ein bisschen deftiger und kalorienreicher sein und dann ist es vielleicht eher der Schokokuchen, der im Winter dann zieht und da die düstere Winterstimmung wieder ein bisschen aufhält.
00:11:36
Speaker
Wir wissen, dass du Jens im Zug verhaftet hast, aber das Projekt stand eigentlich schon. Das ist natürlich super spannend. Du bist sozusagen nicht als SEO irgendwie ans Produktteam herangetreten und hast gesagt, hey, Feature Request, brauchen wir das? Sondern es war klar, wir müssen eine neue Suche bauen und wir wollen das machen. Und ich setze mich da jetzt mit dazu, das Projekt war aber eigentlich sowieso schon unterwegs. Oder wie kommen bei euch solche internen Produkte zustande?
00:12:03
Speaker
Ja, eigentlich beides. Also, es war schon die Initialzündung. Wir machen eigentlich bei Chef Kaumann einmal im Jahr so mit dem Management so eine Recap-Runde. Das ist so ein Jahresrückblick aus der SEO-Küche praktisch. Wie ist das Jahr gelaufen? Was waren so Highlights, Besonderheiten? Und damals, vor ein paar Jahren, war dann Teil von unserem SEO-Recap.
00:12:31
Speaker
dass wir sagten, dass unsere interne Suche, die alte, leider wirklich Mist ist. Also die war wirklich schlecht einfach. Und da haben wir dann halt so etliche Beispiele gezeigt. Zum Beispiel, wenn du nach veganen gesucht hast, dann war das Top-Rezept, was dort angezeigt worden ist, auf Platz 1, die Gewürzmischung für Brathähnchen.
00:12:56
Speaker
Es lag dran, weil rein technisch ist das Rezept vegan. Das sind ja nur Gewürze. Und es war top bewertet in den Sternen. Und das war in der alten Suche dann halt ein wichtiges Kriterium. Also klar, es macht Sinn, irgendwie nach Sternen zu sortieren.
00:13:13
Speaker
Du hast das Inhalt 100 Prozent natürlich am Such-Intent vorbei. Und ein anderes Problem, das siehst du heute auch bei ganz vielen Rezepte-Seiten, das ist immer so ein schneller, guter Test, wenn du zum Beispiel einfach das Wort Backen eingibst in der Rezept-Suche, dann kamen da hauptsächlich so Treffer Kuchen ohne Backen.
00:13:35
Speaker
Die Suche achtete darauf, ist das Keyboard denn irgendwo im Rezepttitel drin? Und Backen schreibst du eigentlich nur in den Rezepttitel rein, den komm ich dazu mit ohne, also dass du betonst, dass Backen eigentlich notwendig ist. Und so eine doofe Textsuchmaschine
00:13:51
Speaker
schnappt dann direkt zu und sagt, ah, guck mal, da steht ja Backen drin und das nehme ich mir. Aber gemeint ist eigentlich genau das Gegenteil. Da merkt man, wie stumpf solche Prinzipien sind und dass ihr gut beraten wart, die Magic von Google da imitieren zu wollen. Ja, und das Grundproblem ist, glaube ich, wahrscheinlich bei den meisten Websites, wenn du einmal irgendwie so eine Site Search hast, bist du froh, dass das Ding läuft.
00:14:16
Speaker
und fasst es nie wieder an und guckt es nicht drauf. Also bist einem auch nur froh, dass das Ding läuft. Und da verschwendet man und verschenkt natürlich total viel. Also du sammelst da jeden Tag Daten und wie gesagt, bei uns sind es sehr, sehr viele Daten. Und eigentlich könntest du diese Daten ja benutzen, um diese Suche zu trainieren, dass es dir immer besser wird jeden Tag. Und das macht einen Unterschied. Also bleibst du immer auf dem gleichen
00:14:43
Speaker
Qualitätslevel wie vom ersten Tag, als du die Suche mal irgendwann aufgesetzt hast, oder wirst du jeden Tag besser. Wenn du selbst nicht dran arbeitest, es gibt Wettbewerber, die werden jeden Tag besser, so einer wie Google, letztens ist das ja auch ein Wettbewerber dann für uns, dann wird natürlich im relativen Wettbewerbsvergleich der eigenen Suche immer schlechter, weil der andere
00:15:01
Speaker
wenn du das mit dem vergleichst, wird der Abstand zu denen immer größer. Und unser Ziel war dann, genau so ein Chart hatte ich dann auch fürs Management gebastelt, sozusagen, guck mal, wir werden jeden Tag schlechter, weil wir unsere Daten überhaupt nicht nutzen. Und das war dann aber erst mal die Runde. Und an dem Tag

Teamaufbau und UX-Design

00:15:19
Speaker
wurde kein Beschluss oder so gefasst. Das war jetzt erst mal nur Information von unserer Seite. Aber man merkt, es kam an und es wurde verstanden.
00:15:28
Speaker
Und dann kam irgendwann plötzlich so eine Nachricht, ja, wir bauen ein eigenes Team auf nur für die Site Search, wir wollen eine neue aufsetzen. Also das war letztendlich dann schon ein Resultat von diesem Meeting. Und da ist es einfach schön, wenn man irgendwie so ein Management hat, was zuhört und versteht und dann auch handelt.
00:15:48
Speaker
Ich hätte zwei Fragen gleich, weil ich bin mir sicher, ich vergesse die eine, aber die andere, die ist sehr schnell zu beantworten. Wie lange habt ihr an dem Projekt gearbeitet und nutzt ihr die Suche auch auf Kategorie-Ebene, um die Listings auszuspielen?
00:16:08
Speaker
Also dran gearbeitet, ich weiß jetzt nicht ganz genau, aber ich würde schon schätzen so ein Jahr. Also da ging es natürlich auch darum, also Algolia hat so eine schnelle Lösung, die du so quick and dirty einbauen kannst.
00:16:22
Speaker
Aber wir haben es so gemacht, dass wir wirklich praktisch dann mit Algolia eine eigene API aufgebaut haben und dann unser Frontend das halt abfragt, die Daten von Algolia und dann wieder einbaut. Dazu wurde halt komplett neues UX-Design gemacht und vertestet, auch mit Testergruppen und was du dann filtern machst und und und und.
00:16:46
Speaker
Die alten URLs mussten alle umgezogen werden. Also insofern war das schon ein riesen Projekt, das Ganze. Was auch nicht fertig sein wird. Also es ist seitdem ja auch ein Prozess und du kannst es ständig weiter besser machen und es gibt da so viele Betätigungsfelder. Also du brauchst ja ein Wörterbuch und Synonymlexikon und Regeln und was weiß ich was.
00:17:12
Speaker
Kannst du auch ständig irgendwie noch weiter verbessern, auch welche Datentöpfe du anzapfst? Also

Integration von Inhalten in Suchergebnisse

00:17:19
Speaker
zur Zeit haben wir eigentlich nur die Rezepte drin, aber können theoretisch dann ja auch noch die Magazinartikel, das Forum und dass du dann eigentlich auch so ein gemischtes Suchergebnis hast und auch lernst, bei welchen Keywords wäre es vielleicht sinnvoll, auch Magazinartikel anzuzeigen und bei welchen nicht.
00:17:39
Speaker
Also dann wird es auch richtig schwierig erst, wenn man so gemischte Serbs hat. Also wo du nicht nur Rezepte hast, wo du vielleicht einen Layout hast, sondern auch erstmal anhand des Suchintents erstmal herausfinden musst, will der jetzt ein Rezept oder will der auch einen Ratgeberbeitrag aus einem Magazin? Will der vielleicht einen Wörterbucheintrag haben? Also da wird es ja dann auch noch richtig
00:18:05
Speaker
wobei das natürlich auch alles sehr elegant mit Nutzer-Signalen lösen kannst.

Einfluss der internen Suche auf SEO

00:18:12
Speaker
Also probierst du es einfach mal aus und wenn es geklickt wird, dann ist es anscheinend gut. Was meinst du denn wäre der Effekt, wenn ihr eure Suche jetzt ausbauen würdet, wenn es die nicht gäbe?
00:18:29
Speaker
Seoseitig für eure Rankings. Der eine Teil ist, dass ihr nicht mehr lernen könnt, dass ihr nicht mehr die Daten hättet, aber jetzt einfach, wenn es die Suche gar nicht gäbe, so als Feature. Also zum einen hättet ihr direkt Einfluss. Wir sehen ja, welche sichtbar werden, wie viele Klicks die Suchseiten erzeugen. Das war gerade deine zweite Frage noch, Andre, mit Kategorien.
00:18:52
Speaker
Wir haben in dem Sinne keine Kategorie-Seiten, sondern die Suchergebnis-Seiten sind praktisch die Kategorie-Seiten. Also letztendlich hinter einer Kategorien-Seite steckt System-Seite. Man ist ja auch nichts anderes als eine Suche. Genau, deswegen fragte ich nämlich auch, ob ihr die gleiche Logik benutzt oder ob ihr das nochmal getrennt verleihen wollt. Also bei uns ist jetzt nicht so, dass das
00:19:14
Speaker
Jede Suchergebnisseite, die du theoretisch erzeugen konntest, wird jetzt nicht indexiert. Wir haben da praktisch eine Whitelist, welche da überhaupt nur indexiert werden können. Wie verträgt sich das denn damit, dass Google keine anderen Götter neben sich haben möchte und eigentlich Suchergebnisseiten aus den Rankings raushalten möchte?
00:19:38
Speaker
Ja, aber ich glaube, damit meint Google andere Arten von Suchergebnissen. Also wie gesagt, das kommt ja eher an der Kategorienseite gleich. Und wie gesagt, eine normale Kategorienseite ist systemtechnisch meiste auch nur eine Suchergebnisseite. Also was Google, glaube ich, nicht will, ist, dass du
00:19:59
Speaker
da einfach dann so Texttreffer hast und vielleicht dann auch noch von anderen Websites oder sonst was, also was wirklich dann irgendwie Google ersetzt, aber irgendwie eine Liste der der attraktivsten Erdbeerkuchen, das ist glaube ich schon hilfreicher Content.
00:20:15
Speaker
Genau, also hilfreich ist da ja das Stichwort. Also keine random fabrizierte, wilde Trefferliste, sondern etwas kuratiertes. Du hast ja auch gesagt, ihr habt ein Indexmanagement, nicht alles kommt da rein. Das hat alles Hand und Fuß, um auf diese Whitelist zu kommen. Das ist schon ein grober Unterschied. Hier habe ich alles, was du im Keller sehen kannst, was wir jemals dazu produziert haben.
00:20:36
Speaker
Genau, und was wir nicht indexieren lassen, ist jetzt natürlich dann auch gefilterte Suchergebnisse oder Umsortierte oder welche, die weniger als drei Treffer haben, dann kann man besser wahrscheinlich direkt auf das Einzelrezept gehen und so weiter.
00:20:52
Speaker
Und meinst du, es hätte einen Effekt, wenn ihr die Suche ausbauen würdet? Denn User haben sich ja vermutlich auch daran gewöhnt, dass man bei euch suchen kann.

Nutzererfahrung und Algolia-Beschränkungen

00:21:00
Speaker
Also ihr habt die Einstiegsschneise direkt über die SERP, aber ja auch, dass Leute gewohnt sind. Ich frage das so ein bisschen spitz, finde ich, weil das tatsächlich auch in einem tatsächlichen Case passiert ist, dass über den Relaunch die Suche sich extrem verschlechtert hat, dass sie sozusagen für die Nutzer nicht mehr zu gebrauchen ist.
00:21:19
Speaker
Und dann gibt es ja immer viele Faktoren, aber die Vermutung liegt nahe, dass so ein gutes Feature, was zur Orientierung auf einer Seite beiträgt, schon auch ein wichtiges ist. Ja, also zum einen hat es natürlich einen Dreckeneffekt, also die Suchseiten wenden ja auch. Das sehen wir, wie viel Prozent der Klicks das macht.
00:21:40
Speaker
Nach den Rezeptdetailseiten unser zweitstärkstes Contentformat. Es wird bei uns auch genutzt für die interne Verlinkung, dass da eigentlich so das Rückgrat letztendlich über die Suchergebnisseiten geht.
00:21:56
Speaker
Dafür ist es wichtig. Und die Nutzer nutzen es massiv. Also wie gesagt über 200 Millionen Suchen im Jahr. Also wenn da keine gute funktionierende Suche wäre. Also diese Auffindbarkeit ist eine Grundfunktion von Chef Koch.
00:22:18
Speaker
Wie sollte man dann halt irgendwie auch bei über 360.000 Rezepten da irgendwie diese Rezepte da hinkommen können? Und da gibt es auch die verschiedensten Suchwünsche, die wir erfüllen. Also manche Leute wollen dann auch wirklich von bestimmten Nutzern die Sachen haben oder was sind gerade die neuesten Rezepte auf Chefkoch oder eben welche, die gar nicht so toll bewertet sind oder welche, die noch kein Foto haben, weil sie vielleicht ein Foto dafür machen wollen. Also da gibt es die verschiedensten Motive.
00:22:48
Speaker
was Nutzer wollen. Bei Algolia gibt es so eine Beschränkung, dass die, ich weiß nicht so, 1000, 1500 Treffer maximal anzeigen. Dann irgendwann hören die auf. Und dann haben sich wirklich viele Nutzer beschwert, dass sie sagen, ich will auch die Treffer nach 1500 noch sehen, die interessieren mich.
00:23:05
Speaker
Also es ist verrückt was, was da alles gewünscht wird. So viel Hunger. Da hätte ich längst reingebissen in irgendwas anderes, bevor ich 1500 ergebnisse durchlege. Ja, manchmal fragt man sich auch, ist das vielleicht dann doch eher so Scraper, die die einfach nur alle abgreifen wollen? Im Forum waren da durchaus heftige Diskussionen und Beschwerden, dass man dann nicht nach 1500 noch irgendwie gucken kann.
00:23:32
Speaker
Ich hätte jetzt mal eine ganz ketzerische Frage. Was passiert denn, wenn bei euch mal der Algoja-Server nicht erreichbar

Kosten, Wert und Abhängigkeit von Algolia

00:23:38
Speaker
ist? Funktioniert dann bei euch gar nichts mehr? Das wäre wahrscheinlich ein Problem, aber ich glaube... Wenn das mal ausfällt, dann geht ja auch gefühlt das halbe Internet nicht mehr? Ja. Es ist mir nicht bekannt, dass so ein Fall mal vorkam. Also die scheinen da eine sehr gute Erreichbarkeit und Systemstabilität zu haben.
00:23:56
Speaker
Die machen das ja auch schon eine Weile. Wenn man bei euch... Was sagst du? Kostet dafür auch genug. Ich wollte gerade sagen, das hat ja auch ein gutes Preisschild. Wenn man bei euch die Website benutzt, dann fällt relativ schnell auf. Das könnte jetzt auch an meinem Werbeblocker liegen, aber sei es drum, es ist rasend schnell.
00:24:17
Speaker
Also auch wenn ich irgendwas eingebe in die Suche, ich kriege ratzfatz, kriege ich genau die Ergebnisse ausgespielt. So wie man das von Google eigentlich von früher noch kennt, fehlt dann noch irgendwie hier dieses so und so viel Suchergebnisse innerhalb von 0,003 Sekunden geladen. Also das ist auch vor allem, wenn man bedenkt, dass da eine externe API mit dran hängen, da echt eine Leistung. Gibt das Kompliment gerne an die Entwickler weiter? Die werden sich freuen.
00:24:46
Speaker
Das ist schon sagenhaft. Aber ich finde es wirklich schön, auch für diese Insights, die du gerade geteilt hast, dass eure Link-Module auf das gleiche System aufsatteln, was natürlich auch ein Stück weit eine Abhängigkeit euch wiederbringt. Inwiefern? Na ja, von Algolia. Ach so, gut. Ja, aber ... Ist halt so. Ist ja vertraglich geregelt. Irgendwelche Abhängigkeit hast du ja immer, egal was du verwendest.
00:25:18
Speaker
Wovon macht ihr denn eigentlich abhängig, was indexierbar ist und was nicht auf die Whitelist kommt? Geht ihr da auch einfach eine CTR-User-Signale all the way? Ist das immer die richtige Antwort oder habt ihr da noch andere Kriterien? Das ist auch eine Frage, die sich zum Beispiel Philipp gestellt hat bei uns aus dem Wingman-Team. Also die Liste geht wirklich schon sehr, sehr weit und Hauptkriterium war wirklich, was denn irgendwie den letzten zwölf Monaten mal Klicks bei Google gebracht hat.
00:25:49
Speaker
Okay, also auch die Schneise, wir imitieren Google, wo es geht, das scheint der Weg zum Sieg zu sein. Ja, also ich mein, irgendwo muss man ja eine sinnvolle Entscheidung treffen und ... da ... es ist immer die Frage so, du hast so was wie irgendwie Kuchen, dann hast du vielleicht vegetarischen Kuchen, vegetarischen Kuchen schnell, vegetarischen Kuchen schnell mit wenig Zutaten, also ...
00:26:16
Speaker
Es ist schwer zu sagen, wo man den Cut macht. Ein sinnvoller Cut ist für mich, wenn eine Suchanfrage im letzten Jahr keine Klicks bei Google brachte.
00:26:30
Speaker
dann ist die Seite anscheinend nicht so nützlich, dass man sie indexieren lassen müsste. Also Google hat das dann ja auch ausprobiert mal und getestet. War auch überhaupt kein Vorwurf. Ich finde es einfach super stringent, diese Logik. Und ich finde das auch so wertvoll, weil wir SEOs auch häufig ja irgendwie über Google wettern und was das jetzt hier wieder für ein Müll ist und so.
00:26:50
Speaker
Aber wie viel Hirnschmalz da drin steckt und dass das schon ganz gute Logiken in der Regel sind, das merkt man eben, wenn man so eine Suchmaschine, nicht dass ich es jemals probiert hätte, aber wenn man eine nachbaut, dann merkt man schon, ist nicht verkehrt, wie sie an die Sache rangeht. Also wir versuchen es immer datengetrieben zu machen und da irgendeine sinnvolle Metrik zu finden. Und dann liegt man wahrscheinlich nicht so verkehrt.
00:27:13
Speaker
Das heißt auch, oder ich gehe mal davon aus, dass ihr euer Search Console auch am BigQuery angeschlossen habt, um auch wirklich so viel es geht an Daten von Google zu kriegen, weil über normalen Apikolle wird es da wahrscheinlich nicht. Einmal mit das, aber was ich da wirklich noch hilfreicher finde, ist, wir nutzen da White als Tool, die das ja praktisch dann auch abfragen über die API und versuchen da das Maximum rauszuholen.
00:27:40
Speaker
Und bei White hast du dann halt eine ziemlich komfortable Oberfläche, um das Ganze dann auch irgendwie zu filtern oder irgendwelche Untergruppen da anzulegen, das man direkt sehen kann. Keine Ahnung.
00:27:57
Speaker
irgendwie die 1000 Rezepte, keine Weihnachtsrezepte oder was heißt ich was, und dann legt man ein eigenes Segment by white rein, kann einfach copy paste, dann diese Liste reingeben und auf Knopfdruck kriege ich dann die Search Performance mit den Search Console Daten irgendwie
00:28:16
Speaker
der letzten vier, fünf Jahre da und sehe da direkt irgendwie, wenn man beispielsweise daran was ändert, irgendwie verbessert sich da die CTR, gehen die Klicks da irgendwie hoch für dieses Subsegment und finde ich persönlich die komfortabelste Art, dann mit großen Datenmengen aus der Search Console auch zu arbeiten. Das heißt, BigQuery machst du dann gar nicht mehr so oft, weil du mit Write dann schon so happy bist?
00:28:43
Speaker
Für manche Sachen ja, aber zum Glück haben wir da so ein eigenes Data-Team, was einem das sehr komfortabel dann auch alles aufbereitet.
00:28:51
Speaker
Also mit dem bespricht man dann irgendwie, pass auf, wir brauchen das und das. Und dann sagen die schon direkt, ah, dann sollten wir am besten die und die Datenbanken anlegen. Und ja, wie sieht das vorne denn aus, dass man das dann irgendwie auch gut auswerten und filtern kann. Aber manche Sachen, also bei weitest ist es dann, finde ich, so weitgehend, das lohnt sich dann nicht nachzubauen. Also das wird sich nicht rechnen jetzt. Also das muss das Rad nicht neu erfinden.
00:29:24
Speaker
Eben wusste ich die Frage noch, jetzt nicht mehr. Dann kann ich ja vielleicht noch mal fragen, ob du denn happy bist in deinem Setup. Du hast ein Data Engineering Team, du hast Entwickler, die die Suche super flott hinbekommen mit all den ganzen API-Calls und Verknüpfungen. Das heißt, und du hast ja auf der CapEx auch erzählt,
00:29:43
Speaker
dass du in diesem Scrum-Setting dort angesiedelt bist und deswegen dir regelmäßig dann einfach in diesem cross-funktionalen Team Gedanken dazu machen kannst, wie ihr jeden Tag besser werdet. Das ist ja schon sehr komfortabel. Das war ja wahrscheinlich auch nicht immer so in deiner Karriere bislang. Wie fühlt sich das Arbeiten in so einem Team an? Super, also ich bin auch absolut happy. Also mal davon abgesehen, dass bei Chefkoch
00:30:12
Speaker
Und allgemein bei Gruner ein Jahr, was ja so, wo Chef Koch angesiedelt ist und darüber dann noch wiederum RTL. Einfach für den Mitarbeiter eine unglaublich tolle Unternehmensphilosophie ist. Also ich war wirklich noch nie in einem Unternehmen, also ich habe schon etliche Situationen hinter mir, wo so eine Wertschätzung auch gegen so Menschen war. Also wir haben Mitarbeiter,
00:30:34
Speaker
Die sind über 70 Jahre alt und arbeiten irgendwie noch als 400-Euro-Job bei uns als Rezeptbearbeiter, weil das irgendwelche Leute sind, die unglaublich Kocherfahrungen haben und früher schon da irgendwie das gemacht haben und einfach Lust hatten, so neben der Rente sich noch ein bisschen was dazu zu verdienen. Und das sind unsere mit wertvollsten Arbeiter, weil die einfach
00:31:00
Speaker
Die moderieren teilweise auch die Foren, sich da super auskennen und die ganzen Nutzer kennen und wissen auch genau, ach, das ist die Person, die immer das macht und die können mir auch sofort sagen, ob so ein...
00:31:11
Speaker
Foto irgendwie zu dem Rezept passt und direkt sagen, nee, das ist ein Unterschied, weil da ist die Kruste anders und irgendwie das und das und jenes. Solche Fachleute brauchst du ja und die werden da super wertschätzend behandelt und dazu dann halt dieses fachliche. Also ich hatte vorher noch nie ein eigenes Data-Team, das ist heute glaube ich nicht mehr so ungewöhnlich.
00:31:35
Speaker
Aber in den Unternehmen, wo ich vorher war, gab es sowas halt nicht. Und die mir auch immer wieder brav Wegex-Regeln erklären und mir helfen, wenn da irgendwas nicht klappt. Inzwischen ist ChatGPT da auch ganz gut geworden. Also da werden die jetzt ein bisschen entlastet. Da nerv ich die nicht mehr so oft mit, aber da war ich immer dankbar, wenn die da sind.
00:32:02
Speaker
AI-Modelle mit den Bauen und Sachen testen. Das ist für mich schon ein bisschen so ein Traumsetup.
00:32:11
Speaker
Mir ist mal eine Frage wieder eingefallen. Jetzt weiß ich nur nicht, ob ich jetzt dazwischen funke. Bei den Sachen, die du vorhin mit Write sagtest, ich weiß, dass Write auch eine API hat und theoretisch kannst du die auch anschließen an Algolia oder an andere Systeme. Die Frage ist nur, diesen Abgleich, dieses, nehmen wir mal, ihr habt da, ich weiß nicht, wie viele Seiten habt ihr gerade indexiert? Weißt du aus dem Kopf?
00:32:42
Speaker
Insgesamt sind wir, glaube ich, zu ungefähr einer Million. Genau. Von dieser einen Million wirst du ja nicht jedes Jahr überprüfen, macht die URL noch Sinn, macht die noch Sinn, sondern habt ihr da ein System für euch entwickelt, was das automatisiert, rein und rauslässt oder machst du das tatsächlich, dann wahrscheinlich auch nicht allein, in einem manuellen Prozess?
00:33:08
Speaker
Also versuchen, immer Regeln zu finden, ist die Zahl kleiner zu machen. Also vor fünf Jahren, also man kann das auch bei Systrix und Astoria sehen, in schlimmsten Zeiten waren wir mal bei über 300 Millionen indexierten URLs. Und man hat ziemlich gut den Zusammenhang gesehen, je weniger URLs wir indexiert haben, desto besser rankt die Seite und so erst die Sichtbarkeit. Also so klassisch spannender die Ad.
00:33:36
Speaker
Liebe Höhren, bitte fett markieren, diese Worte, die Hans gerade gesagt hat. Und was übrigens auch nur ein, also wir haben dann inzwischen glaube ich wirklich so 99 Prozent der URLs deindexiert, inzwischen mehr. Also wie gesagt von 300 Millionen jetzt auf eine Million runter. Also haben wir noch, wenn ich nicht falsch rechne, 99,7 Prozent deindexiert.
00:34:02
Speaker
Und was lustigerweise auch wirklich nur ein Meeting mit dem Management war, also haben die sofort verstanden, dass das Sinn macht und keine Bauchschmerzen, kein sonst was. Also wenn man deutlich kompensiert, guck mal, zum Beispiel dieser Seitentyp, jetzt irgendwelche Filter und Sortierungen, dass das natürlich keinen Mehrwert hat, das als zusätzlichen Suchtreffer in der Google-Suche zu haben.
00:34:23
Speaker
und sagt, okay, und wenn wir wegnehmen, das sind aber dann schon irgendwie 150 Millionen URLs, wenn man jetzt nur irgendwie diese Filter von mir aus wegnimmt. Das hat jeder sofort verstanden, das war einleuchtend und damit war das dann auch beschlossen. Da hatte keiner Angst irgendwie so, wir de-nexieren jetzt 99 Prozent der URLs, sondern da hatte jeder ein gutes Gefühl, hat sich drauf gefreut.
00:34:51
Speaker
Dann scheine ich noch nicht so gekonnt zu kommunizieren, wie du das tust, wenn du sagst, das liegt nur an der Kommunikation. Zwei Sachen dazu. Philipp meinte auch nochmal, er hatte die Frage, wie es konstant schafft, 40% und mehr Rankings auf Position 1 zu haben. Ich würde sagen, da ist ein großer Teil der Antwort drin. Also ganz viel, was nicht die beste Qualität ist, einfach gar nicht erst in den Index aufzunehmen.
00:35:16
Speaker
Und Kevin Indick hatte neulich auch wieder einen schönen Beitrag, wo er nochmal zeigt, dass sich wirklich die Zeiten geändert haben und inzwischen so ein bisschen, während es früher noch so war, je mehr Seiten ich habe, desto mehr Rankings kann ich haben, desto mehr Traffic bekomme ich, es da halt inzwischen tatsächlich eine inverse Entwicklung gibt. Also je mehr irgendwie gecrawled wird,
00:35:36
Speaker
Da kann es mit Traffic-Verlusten einhergehen, einfach weil es die Masse nicht mehr macht. Wirklich Qualität vor Quantität finde ich jetzt nochmal ein sehr schönes Statement von deiner Seite. Gerne auch noch weiter runtergehen. Es wird halt nur immer schwieriger. Also wie gesagt, am Anfang kannst du vieles so systematisch ausschließen und anhand irgendeiner Logik in den URLs.
00:36:02
Speaker
Wenn das dann irgendwann nicht mehr geht, dann kommt halt irgendwann die Phase, wo du es händisch machen müsstest. Also, dass du wirklich URL für URL durchgehst und da irgendwie eine Entscheidung triffst, weil die sich irgendwie systematisch in URLs nicht mehr unterscheiden würden. Und da wird es dann natürlich richtig schwierig. Da sind wir noch nicht. Ich weiß auch nicht, ob wir da jemals hinkommen und ob sich das dann noch lohnt, aber
00:36:27
Speaker
Theoretisch kämen wir wahrscheinlich auch mit 100.000 URLs aus. Aber die letzten zehn Prozent da noch mal rauszukitzeln, das wird schwierig.
00:36:38
Speaker
Ich weiß, wir verlassen das Schiff mit der internen Suche, wenn ich die Frage jetzt stelle, aber sie interessiert mich so brennend, wie ihr das gemacht habt. Habt ihr es klassisch gemacht? Erstmal auf nur Index setzen, dann warten, dann robots.dxc davor oder habt ihr einen anderen Weg gewählt? Also, weil so viele URLs aus dem Index zu kegeln, ist ja auch jetzt nicht so simpel.
00:36:59
Speaker
Also wir haben es auf No-Index gesetzt und erstmal nicht in der Robots.txt gesperrt, weil der Qualer muss da die No-Index Anweisungen finden. Richtig. Und manchmal passiert es, dass
00:37:15
Speaker
dann Google sie trotzdem qualt und dass diese Meldung, also sorry, wenn wir es in der Robots Texte sperren, passiert es halt manchmal, dass Google sagt, wir haben es trotzdem indexiert. Also deswegen lassen wir es tendenziell eher offen. Auch jetzt, also ihr, tatsächlich eher, ihr lasst... Wir haben es erstmal wirklich so zwölf Monate offen gelassen, dass das Google das wirklich lernt und auch zwei- und dreimal wiederkommt und dann irgendwann lernt, es lohnt sich eigentlich auch nicht wiederzukommen.
00:37:45
Speaker
Und dann kann es aber auch mal passieren, dass du es dann in der Overwatch 60 spärst und auf einmal Google da wieder reinrennt und kann sein, dass du es dann auch mal wieder aufmachst.
00:37:54
Speaker
noch mal nachsitzen muss und das wieder lernt, das ist immer so ein bisschen hin und her. Aber wieder reinrennen, ist das dann, weil ihr trotzdem noch intern verlinkt oder passt sich eure, also wenn das alles... Ich google ja immer noch so einen Link da drauf und wenn es vielleicht irgendwie extern irgendwo noch verlinkt ist, also ganz vermeiden kann es das ja gar nicht. Aber ihr passt schon auch Verlinkungsmodule intern an gemäß eurer Indexierungsdirektiven.
00:38:23
Speaker
Also nicht, dass wir jetzt Links unbedingt maskieren. Wir haben aber auch nicht das Gefühl, dass wir einen Crawling-Engpass haben. Also soll Google sich da halt totcrawlen, was soll's? Und wir haben offensichtlich auch keinen echten Indexierungsengpass. Also Google hätte gern viel mehr von uns.
00:38:49
Speaker
Und du musst halt irgendwie sagen, kriegst du aber nicht. Und versuchen da irgendwie alle Fronten dicht zu halten. Meine Frau nennt das immer URL-Raum, was ich einen sehr schönen Begriff finde. Also der URL-Raum, den man praktisch Google anbietet. Und da muss man einfach aufpassen, dass dort keine Lücke ist, dass Google sich da irgendwo reinfressen kann. Nur wieder finden sie immer mal wieder eine. Oder setzen sich da über irgendwelche Anweisungen weg.
00:39:15
Speaker
Das ist immer so ein hin und her und ständiger Prozess, diesen URL-Raum wirklich klein zu halten und Google da keine neuen Bereiche anzubieten. Haltet ihr dann diese URLs, die ihr auf NoIndex gestellt habt, auch aus der internen Suche raus?
00:39:39
Speaker
Also, wenn ich jetzt ein Rezept hochlade bei euch, und das ist eigentlich nur das von meiner Oma, und ich will, dass das irgendwie erhalten bleibt für mich, aber es ist so schlecht, dass das keiner kochen will, und ihr sagt dann, naja, das lassen wir mal auf noindex, würde ich das dann über die Suche finden überhaupt noch, oder sagt ihr dann halt auch bei der internen, nö? Wir unterscheiden zwischen zwei Arten von Rezepten, die öffentlichen Rezepte und die Privatrezepte.
00:40:08
Speaker
Also du kannst das ganze Kochbuch deiner Oma abspeichern, das Privatrezept, das kannst aber nur du sehen, kein anderer Nutzer. Okay, dann habe ich es öffentlich gestellt. Wenn du es öffentlich machst, ist aktuell noch so, dass wir alle 360.000 Rezepte indexieren lassen. Wir haben schon mal überlegt, ob man
00:40:30
Speaker
Vielleicht sagen zum Beispiel Sachen, die jetzt schlechter als drei Sterne bewertet sind. Ist das wirklich sinnvoll? Also das eine Argument ist ja irgendwie, vielleicht haben nur wir ein Rezept, was jemand da ganz speziell sucht. Aber wenn die Leute dann auch sagen, ja tut mir leid, aber das ist schlecht, das Rezept schadet man ja nicht eigentlich irgendwie der Marke und dem Image.
00:40:50
Speaker
Und braucht man das dann ernsthaft? Machen wir vielleicht mal irgendwann einen Test zu, aber im Moment ist wirklich da noch alles erreichbar. Und wir sehen auch, dass diese Rezepte extrem schnell gequalt werden. Also wenn wir an diesen Rezepten was ändern, ohne dass man es manuell anstößt,
00:41:07
Speaker
hat Google das eigentlich immer innerhalb von zwei Tagen gequalt, maximal vielleicht drei, wenn es so ein bisschen weniger populäres Rezept ist. Die Top-Rezepte sind alle in 24 Stunden gequalt, jeden Tag. Deswegen glauben wir eben nicht, dass wir da irgendwie einen Engpass haben. Und eure interne Suche, wie schnell crawlt die? Ich glaube, die macht das einmal am Tag, dass die irgendwie so einen neuen Index erstellt. Ja.
00:41:35
Speaker
Gut, das ist ja auch weniger das Problem. Die bringt euch zwar, die bringt euch ja keinen neuen Traffic, sondern die bedient ja nur und die bedient ja eh sehr gut von daher. Wir haben ja auch nur einen begrenzten Bedarf an Aktualität. Also so viel ändert sich jetzt nicht in der Rezeptewelt pro Tag. Also da müssen wir nicht minutenaktuell sein. Das ist was anderes als jetzt, wenn man Nachrichten liefern würde. Wenn ich noch mal ein bisschen rauszoomen darf.
00:42:03
Speaker
Dann, oder eigentlich ist es auch mega im Detail, aber es geht noch mal so ein bisschen auf diese Kommunikationsschiene. Du hast vorhin gesagt, du hast halt Biden auch vom Management bekommen, weil du in einer Präsentation ziemlich gut zeigen konntest, wenn wir uns nicht bewegen, fallen wir zurück. Also Stillstand ist eigentlich zurückfallen. Wie konntest du das denn belegen?
00:42:25
Speaker
Also Ursache Wirkung ist ja da auch ein bisschen so die Frage. Du meintest ja, wenn wir unsere Suche nicht verbessern, nicht aus unseren Daten lernen und die einfach einmal eingebaut haben und andere sind aber schlauer und arbeiten mit den Daten und verbessern sich, dann fallen wir zurück. Aber wie baut man da jetzt die passende Slide, die das ausdrückt und auch irgendwie belegen kann?
00:42:45
Speaker
Also es war wirklich nur ein Slide. Das ist ja in sich logisch. Also das darf man, glaube ich, als Wissen voraussetzen, zu sagen, dass Google täglich aus seinen Daten lernt und besser wird und sich ständig weiterentwickelt. Und es ist auch Fakt, dass das Chefkoch bei der alten Suche null weiter daran gearbeitet hat. Also die wurde einmal installiert und dann lief die. Und irgendwie nach vier Jahren musste man sie vielleicht ein Update machen, weil
00:43:15
Speaker
die Alte Sola nicht mal unterstützt wurde, aber so hat dann wirklich irgendwie auch noch Know-how im Unternehmen gesucht, dass irgendjemand noch eine Ahnung hatte, wie wurde das damals konfiguriert und hoffte, dass da irgendwie im Unternehmenswiki vielleicht noch versteht und irgendwie noch ein Mitarbeiter da ist, der das damals gemacht hat.
00:43:37
Speaker
Also das waren ja zwei Sachen, die einfach Fakt sind und daraus ergibt sich das ja logisch. Also da brauchten wir jetzt nicht irgendwie noch externe Beispiele oder Daten oder keine Ahnung was. Das war ein Schluss, den wirklich jeder mitgehen konnte. Ich sehe schon, ich muss wirklich an meinen Kommunikationsskills hart arbeiten. Diese Groschen fallen in meiner Umgebung nicht ganz so schnell.
00:44:01
Speaker
Ich glaube, Jolle, die Sache ist, glaube ich, auch die, wenn man jetzt so aus der klassischen Dienstleister-Kundensicht, wo der Kunde vielleicht auch nicht immer ein Portal betreibt,
00:44:16
Speaker
ist ja auch noch mal eine ganz andere... Also, wenn ich mit jemandem rede, deren Kernbusiness es nicht ist, eine Website zu betreiben, ist natürlich der Argumentationsaufwand eine ganz andere, als wenn ich mit jemandem spreche, der hauptberuflich einer Website verantwortet wie Chefkoch. Also, wenn der eine schlecht laufende Suche hat, dann weiß der das und dann will der das auch ändern mit einer hohen Wahrscheinlichkeit.
00:44:41
Speaker
Also das Internet muss ich dem Management nicht mehr erklären, das ist für mich sehr gut. Und da sitzen ja auch gute Leute. Also das gehört mit zu dem guten Setup, was ich da bei Chefkopf vorgefunden habe, dass das Management ist es halt wirklich gut. Vor allen Dingen, die hören dir zu, die schätze ich auch wert.
00:45:02
Speaker
Also ich glaube, das macht auch so einen Unterschied, dass dadurch, dass diese Wertschätzung für Mitarbeiter da ist, hören die die auch zu und nehmen das ernst, was du sagst. Und haben nicht das Gefühl, jetzt irgendwie durch komische Entscheidungen da ihre Macht demonstrieren zu müssen oder so. Das ist manchmal auch der Fall, dass dann da irgendwie der Wille fehlt oder irgendwelche komischen Machtspielchen stattfinden. Und da geht es um die Sache.
00:45:33
Speaker
Die sind klug, die können auch rechnen und wenn man denen da die Rechnung vorlegt, dann kommen die zu dem gleichen Ergebnis. Ich habe noch eine Frage von Johann mitgebracht. Die ist total trivial und sehr klein. Ich werde sie jetzt einfach trotzdem mal stellen. Die ist wirklich ganz klein, also das hast du wahrscheinlich so aus dem Handgelenk.
00:46:00
Speaker
Und zwar, also wir haben ja jetzt nicht nochmal deinen Vortrag wiederholt, der war wirklich erstklassig. Und in dem Vortrag ging es ja hauptsächlich um diesen Prozessschritt des Rerankings und so. Und die Prozesskette ist ja noch ein bisschen länger von der Suchanfrage, Discovery, Crawling, Indexing, Ranking, Reranking. Dann gibt es die Suchergebnisse und dann gibt es da wieder die CTR und dann geht das ja alles mit den Kennzahlen noch weiter. In diesem Mischmasch
00:46:28
Speaker
Wo siehst du denn? Und wir wissen, es ist immer eine Mischung aus allem. Aber welche Gewichtung, denkst du, liegt auf den einzelnen Prozessschritten? Also mir ist auch klar, eine Webseite, die man gar nicht crawlen kann, da erstickt natürlich alles schon im Keim am Anfang, da muss man da
00:46:47
Speaker
Fehler beheben. Aber jetzt mal angenommen, technisch läuft eigentlich alles soweit ganz gut. Es gibt auch Sucht nach Frage zu den Dingen, die ich anbiete, über die ich schreibe und so weiter. Aber von dieser, worauf sollte man sich eigentlich konzentrieren? Hast du da eine Meinung, ob die Prozessschritte alle gleichwertig sind oder würdest du manche herausheben? Kleine Frage. Schöne Grüße mit Liebe, Johann. So was stellt einen zum Frühstück morgens.
00:47:16
Speaker
Ich würde gründlich mal sagen, dass die eine Prozessschritte, das ist ja nicht eine Addition, sondern eher eine Multiplikation. Was bedeutet, wenn ein Prozess du praktisch einen Wert von Null hast, ist das Ergebnis automatisch gleich Null. Das ist eine richtig schöne Analogie, das finde ich echt super.
00:47:40
Speaker
Und insofern darf man halt keinen Schritt irgendwie vernachlässigen. Also alles, was erstmal dazu führt, dass du in den Top 10 bist, das ist natürlich Voraussetzung. Und dann in den Top 10 ist es aber absolut dieses Rewanking. Deswegen würde ich vielleicht zwischen diesen beiden Sachen sagen, so 50-50.
00:48:09
Speaker
Da... Rewanking kann nicht funktionieren, wenn du nicht in den Top 10 mal auftauchst. Also wir sehen das bei meinen Rezepten, dass... Also wir können zum Beispiel die ZDR ganz gut steigern. Chefkoch hat halt gehört zu einer Plattform, die viel user-generated-Content hat, auch mal sehr schlechte Bilder.
00:48:31
Speaker
Da nicht jedes Userbild, das hochgeladen wird, kann damit professionellen Fotografen mithalten. Und wenn wir da mal so ein Bild austauschen, macht das natürlich einen riesen Unterschied, ob wir da schon auf der ersten Seite sichtbar sind oder nicht. Wenn wir nämlich da nicht sichtbar sind und das Bild austauschen, dann kann das Monate dauern, bis da mal ein Effekt eintritt.
00:48:54
Speaker
Theoretisch sollte die CTR hochgehen, aber wenn keiner das Rezept sieht, kann die CTR auch nicht hochgehen. Und wenn das dann aber auf einmal auftaucht, dann geht es dann auf einmal ganz schnell. Soweit so klar. Ja. Alle Fragen geklärt, Johann. Das glaube ich nicht. Ich würde gerne vielleicht noch mal eine Funktion kurz von Algolia
00:49:21
Speaker
Die zeigt auch, wie sehr das Prozess ist und wie weit es aber auch immer so händisches Eingreifen notwendig macht. Also eine ganz wichtige Funktion ist bei der Suche natürlich auch die Verarbeitung von Synonym. Und dazu kann man in Algolia zum Beispiel so einen Synonymlexikon anlegen.
00:49:42
Speaker
Also, dass du sagst, Brötchen und Schrippen ist das Gleiche, theoretisch. Und das Algolia geht dann wirklich so weit, dass sie sagen, wir machen da selbst Vorschläge, weil wir anhand des Nutzerverhaltens sehen, dass häufig, wenn das gesucht wurde, danach direkt das gesucht wurde, und ist das dann nicht vielleicht ein Synonym, dass die vielleicht bei der Einsuche irgendwie noch nicht das gefunden haben, was sie wollten, und dann ist einfach mal mit einem anderen Wort versuchen.
00:50:12
Speaker
Und du kriegst dann automatisch von Algolia jede Woche eine E-Mail mit Vorschlägen, dass du sagst, pass auf, wir haben hier irgendwie 20 neue Vorschläge, was denn ein Synonym sein könnte. Und dann kannst du einfach direkt sagen, irgendwie bestätigen, ablehnen, bestätigen, ablehnen. Und bei uns die Rezeptbearbeiter gehen dann halt drüber.
00:50:32
Speaker
Und kannst du auch noch sagen, dass das ist zum Beispiel nur einseitigen Synonym, dass du sagst, ein Erdbeerkuchen ist immer ein Kuchen, aber ein Kuchen ist halt nicht immer ein Erdbeerkuchen. Und das sind so Sachen, dadurch, dass du eben mit diesen Daten arbeitest, dass so eine Suche halt jede Woche besser wird. Wenn du diese Daten nutzt und dann einfach dein Verständnis und dein Know-how aufbaust und dieses Modell immer besser trainierst.
00:51:02
Speaker
Und 20 pro Woche ist ja auch handlebar. Die Zeit kann man sich ja nehmen. Genau. Wir reißen die magische Stunde an. Das ist die Frage. Wir hätten bestimmt noch das eine oder andere. Machen wir noch mal eine zweite Episode. Aber sofern Joel, das ist eine Frage an dich. Hast du noch irgendeine Frage? Ansonsten hätte ich jetzt eine schöne Abschlussfrage.
00:51:25
Speaker
Nur ganz kurz, Darius möchte wissen, warum es schon so lange kein SEO-Date mehr gab. Zwei Gründe. Zum einen hatten wir privat viel um die Ohren. Dazu kamen dann wirklich auch ein paar spannende SEO-Erkenntnisse.
00:51:47
Speaker
über die ich noch nicht ganz so öffentlich reden kann und ich hätte es nicht ausgehalten, einen Podcast zu machen und dann nicht drüber zu reden, dann wäre ich geplatzt irgendwie. Wenn du es nicht aushältst, dann hängen wir hier sofort eine Stunde zusammen. Dadurch gab es ein bisschen Stau und wenn du einmal raus bist, bist du auch so ein bisschen raus. Also wir hatten schon ein, zwei Mal die Idee, ob wir es wieder mal anlaufen, aber ja, kam da aus dem Takt dann. Das war es von meiner Seite. Dann stelle ich jetzt die Frage,
00:52:16
Speaker
Hans, du bist lange noch im Business, aber woran macht es mehr Spaß zu arbeiten? An der externen Suche oder an der internen Suche? Hui, das ist schwierig. Also beides gleich, wirklich. Man kann sich ja bei der Größe austoben. Und das Schöne ist, du hast beide Hebel in der Hand. Jaja, es befruchtet sich halt gegenseitig.
00:52:43
Speaker
Man kann so unglaublich viel lernen, wenn du mal diese Suchproblematik wirklich selbst lösen musst. Und dann kannst du ja überlegen, wenn wir 1000 Erdbeerkuchenrezepte haben und du überlegst halt, wie solche sortieren.
00:52:59
Speaker
Wäre es sinnvoll, danach zu sortieren, ob das Wort Erdbeerkuchen häufiger oder weniger häufig vorkommt? Wahrscheinlich nicht. Dadurch wird das Rezept ja nicht besser. Sternebewertung ist dann vielleicht schon eher so ein Kriterium, was dich weiterbringt.
00:53:15
Speaker
Aber dann, wenn du selbst halt so eine Suche aufsetzt, dann siehst du auch die ganzen Ausreißer, dass es Fälle gibt, wo das dann nicht gut zutrifft. So wie bei der Gewürzmischung da für Brathähnchen. Und dass du dann überlegst, okay, wie kriege ich das jetzt wieder eingefangen? Und was wirklich so das absolute Allheilmittel ist, was
00:53:39
Speaker
so zur Selbstheilung führt, sind wirklich dann diese Nutzer-Signale und CTR. Also wenn du dann mal so einen doofen Ausreißer drin hast, warum auch immer, dann werden die Nutzer nicht draufklicken und dann sortiert er sich von alleine aus. Das funktioniert einfach hervorragend. Sehr cool. Schlau. Ja, ich habe es nicht erfunden, aber wenn, dann gerne.
00:54:06
Speaker
Dann würde ich jetzt, glaube ich, sagen, machen wir erst mal einen Deckel drauf, obwohl ich das Gefühl habe, das könnte sich auch noch in die Länge ziehen, aber man muss ja auch zuhören. Von daher, ich danke dir sehr für deine Zeit, für die Insights. Da waren einige Punkte dabei, die man, glaube ich, ganz dick sich markieren sollte, wenn man das kann, in Stimmenform. Und sage danke, Hans. Ja, danke für die Einladung und können ja gerne irgendwann nochmal eine Fortsetzung machen.
00:54:37
Speaker
Ja, gerne. Ich bedanke mich auch. Ich fand's wirklich ein super Gespräch, super Insights. Die armen Ammenhörer haben leider nicht erfahren, was wir schon im Pre-Talk irgendwie noch ausgetauscht haben. Da ging's ab, sag ich euch. Hochgeheimen Sachen. Ne, tatsächlich ein super Geschenk hier, dieses Gespräch geschenkt zu bekommen. Vielen Dank. Dann versteht ihr noch ein bisschen mehr, warum es mir schwerfiel, da den eigenen Podcast zu machen und nicht darüber zu reden.
00:55:06
Speaker
Ja, jetzt wisst ihr leider nicht, worüber wir reden, aber so ist das manchmal im Leben. Wir machen uns doch mal wichtig, ist gar nichts passiert. Oder kommt beim G50 Summit jetzt Ende September vorbei? Einfach mal klingeln.
00:55:31
Speaker
All right. In diesem Sinne macht's gut da draußen. Bis zum nächsten Mal. Tschüss. Ciao.