Russ­land trifft Google (unge­wollt)

Yand­ex-Leak lässt Mög­lich­kei­ten der Such­ma­schi­nen-Rie­sen erahnen

Die Nach­richt klingt auf den ers­ten Blick nach „naja, und?“: der Quell­code der rus­si­schen Such­ma­schi­ne Yand­ex wur­de im Netz ver­öf­fent­licht. Viel­leicht wür­de noch ein „geschieht denen recht“ hin­ter­her­kom­men und dann wäre schon die nächs­te News dran. Doch für die Online­mar­ke­ting-Spe­zia­lis­ten dürf­te sich die­ser Leak als sehr wich­ti­ger Ein­blick in die Welt der Algo­rith­men der Such­ma­schi­nen erweisen.

War­um und wie es zum Leak kam – dazu gibt es auf den Platt­for­men unter­schied­lichs­te Ver­mu­tun­gen, von einem ukrai­ni­schen Hacker über west­li­che Com­pu­ter-Nerds bis hin zu rus­si­schen Akti­vis­ten. Yand­ex selbst spricht von einem Rache­akt eines ehe­ma­li­gen Mit­ar­bei­ters. Wobei sich die Fra­ge stellt, wie ein ehe­ma­li­ger Mit­ar­bei­ter an die kom­plet­ten Daten her­an­kommt – zumal fast alle ande­ren Diens­te von Yand­ex eben­falls ver­öf­fent­licht wur­den. Aber das soll hier nicht das The­ma sein.

Yand­ex hat, trotz oder auch gera­de wegen der west­li­chen Sank­tio­nen gegen Russ­land, einen enor­men Stel­len­wert im Land selbst sowie in den ver­bün­de­ten Län­dern, wie Weiß­russ­land, Kasach­stan oder Arme­ni­en. Welt­weit gehört die Sei­te zu den Top3 der Such­ma­schi­nen. Außer­halb der rus­si­schen Ein­fluss­sphä­re ist Yand­ex eher unbe­kannt. Nichts­des­to­trotz gehört die Sei­te zu den moderns­ten Such­an­bie­tern der Welt. Durch den Leak sind nun vie­le der tech­ni­schen Fein­hei­ten öffent­lich geworden.

Ver­weil­dau­er — Die Ver­weil­dau­er, oder auch Avera­ge Time on Site, bemisst die durch­schnitt­li­che Zeit­span­ne für den Besuch eines Users auf der Web­site. Start ist der Auf­ruf der Sei­te über den Suchmaschinenlink.

Boun­ce-Rate – Beschreibt die Anzahl der Besu­cher, die nur eine ein­zi­ge Sei­te der Web­site nut­zen und danach abwan­dern. Dabei han­delt es sich nicht zwangs­läu­fig um ein nega­ti­ves Signal, da der User die gewoll­ten Infor­ma­tio­nen zur Zufrie­den­heit erhal­ten haben kann auf der einen Seite.

CTR – Die Click-Through-Rate ist das Ver­hält­nis zwi­schen der Zahl der Anzei­gen in den Such­ergeb­nis­sen von Google, Yand­ex & Co. und der tat­säch­li­chen Akti­vie­rung des hin­ter­leg­ten Links.

Nut­zer­si­gna­le – bis­her KEIN offi­zi­el­les Thema

In den letz­ten Jah­ren ist der Pri­mus der Bran­che, Google, nie müde gewor­den zu beto­nen, dass die für das Ran­king wich­ti­gen Fak­to­ren eine Viel­zahl von Berei­chen abde­cken. Eines sei jedoch ein­deu­tig nicht der Fall: Nut­zer­si­gna­le wie Ver­weil­dau­er, Boun­ce-Rate oder Click-Through-Rate spie­len defi­ni­tiv kei­ne Rol­le dabei.

Der Ein­blick in den Quell­code von Yand­ex zeigt nun, dass bei den akti­ven über 400 Ran­king­fak­to­ren der Such­ma­schi­ne die Nut­zer­si­gna­le eine nicht unwich­ti­ge Rol­le spielen.

Inner­halb der Gemein­de der Online­mar­ke­ting-Spe­zia­lis­ten in Deutsch­land gab es zu die­sem The­ma bis­her eine Tei­lung in zwei Lager. Das eine ver­mu­te­te eine direk­te Wir­kung der Nut­zer­si­gna­le auf die Posi­ti­on in den Such­ergeb­nis­sen, die Ver­tre­ter des ande­ren bil­lig­ten den Signa­len der User maxi­mal eine indi­rek­te Wir­kung zu.

Google demen­tiert – SEO-Spe­zia­lis­ten sind geteil­ter Meinung

Dass Nut­zer­si­gna­le eine Wir­kung auf die Ran­kings haben, scheint also erst­mal unstrit­tig, auch wenn die­se Wir­kungs­ver­mu­tung durch den feh­len­den Ein­blick in die Algo­rith­men von Google natür­lich nur auf empi­ri­scher Erfah­rung basiert. Die Mög­lich­kei­ten von Google zur Erfas­sung sind viel­fäl­tig und mitt­ler­wei­le sogar endgeräteübergreifend.

Der bekann­te Online­mar­ke­ting-Autor Olaf Kopp hat das in sei­nem kri­ti­schen Arti­kel zum direk­ten Ein­fluss von Nut­zer­si­gna­len sehr klar geschrie­ben: „Zum Erfas­sen von Nut­zer­si­gna­len oder auch Enga­ge­ment-Kenn­zah­len hät­te Google theo­re­tisch eini­ge Tools zur Hand: Google Chro­me, Google Ana­ly­tics, Google-Tag-Mana­ger, Android, Adsen­se / Dou­ble-Click, Google Public DNS. Die Beto­nung liegt auf theo­re­tisch. Nur weil Google die Mög­lich­keit hat, die­se Daten zu erhe­ben und es viel­leicht auch tut, ist das kein fak­ti­scher Beweis, dass es ein direk­ter Ran­king­fak­tor ist.“

Natür­lich hat „nie­mand vor, hier eine Mau­er zu bau­en“, es darf aber schon ein wenig gezwei­felt wer­den, wenn Google Paten­te zur Nut­zung von Nut­zer­si­gna­len anmel­det. Offi­zi­ell lies Google schon 2015 über Gary Illyes ver­lau­ten: „It also doesn’t help that we patent things that we may never even use, but peo­p­le take them for gran­ted any­way.“ Die­se Aus­sa­ge ist schon eini­ge Jah­re alt – soll­te sich in der Zwi­schen­zeit irgend­was ver­än­dert haben? An der Linie der Kon­zern­kom­mu­ni­ka­ti­on zumin­dest nicht!

Mani­pu­lier­bar­keit der Nutzersignale

War­um kann der direk­te Ein­fluss über­haupt bezwei­felt wer­den? Das wohl stärks­te Argu­ment für die Zweif­ler liegt in der künst­li­chen Beein­fluss­bar­keit der Nut­zer­si­gna­le. Die Höhe der CTR bei­spiels­wei­se lie­ße sich mit einer Viel­zahl an Click­wor­kern oder Bots pro­blem­frei nach oben schrau­ben. Der dadurch ver­ur­sach­te Push treibt die Sei­te in den Ran­kings auf­wärts, völ­lig los­ge­löst vom eigent­li­chen Inhalt. Inter­es­san­ter­wei­se hat – von Olaf Kopp in des­sen Arti­kel gut beschrie­ben – Mar­cus Tand­ler auf der SMX 2016 einen klei­nen empi­ri­schen Selbst­ver­such gestaret.

Zur kur­zen Erklä­rung: SEO-Spe­zia­list Mar­cus Tand­ler, sei­nes Zei­chens Grün­der von Onpage.org (heu­te Ryte), hat­te wäh­rend eines Vor­tra­ges die Zuhö­rer gebe­ten, nach „mar­cus tand­ler seo“ zu suchen und auf das Such­ergeb­nis mit dem Link auf onpage.org zu kli­cken. Die Sei­te stieg inner­halb von sehr kur­zer Zeit auf Rang 2 der Ergeb­nis­lis­te von Google. Nach die­sem künst­li­chen Auf­bla­sen der Nut­zer­si­gna­le mit­tels Click­bai­ting fiel die Sei­te wie­der ab. Ein direk­te Ein­fluss des ent­stan­de­nen Traf­fics und der posi­ti­ven Ver­än­de­rung der CTR ist somit empi­risch nach­weis­bar. Dass die­se „Last­spit­ze“ dann wie­der nach unten abge­fe­dert wur­de, zeigt nur, dass die ande­ren Fak­to­ren die­ser Sei­te nicht gepasst haben. Im Umkehr­schluss wür­de ein gleich­blei­bend hohes Inter­es­se an einer Sei­te zu einem dau­er­haft posi­ti­ven Ran­king führen.

Es ist aus unse­rer Sicht also ein Argu­ment pro direk­te Wir­kung – denn genau hier zeigt sich die Wich­tig­keit der Nut­zer­si­gna­le. Durch Erhö­hung des Traf­fics auf der Sei­te wird die Sei­te per se erst­mal als wich­ti­ger für die poten­zi­ell Suchen­den ein­ge­stuft. Sind ande­re Para­me­ter der Such­al­go­rith­men nur schlecht erfüllt, fällt die Sei­te trotz­dem wie­der nach unten.

Was nun damit tun?

Was nun, sprach Bru­tus. Eigent­lich sind die Schluss­fol­ge­run­gen aus dem Yand­ex-Leak Was­ser auf die Müh­len der Con­tent-Enthu­si­as­ten. Wer Mehr­wer­te für den Nut­zer in ein­fach zu kon­su­mie­ren­de Wei­se bereit hält, wird mehr­fach belohnt: zum einen durch schnel­le Inde­xie­rung, des Wei­te­ren durch her­vor­ra­gen­de Nut­zer­si­gna­le und zu guter Letzt durch noch bes­se­re Rankings!

Die Opti­mie­rung von Web­sites hin zur Ver­bes­se­rung der Nut­zer­si­gna­le hat aber erst­mal nur eine Fol­ge: Die Besu­cher der Web­site füh­len sich woh­ler. Und abge­se­hen vom Ein­fluss auf die Posi­ti­on in den Such­ergeb­nis­sen sind nur zufrie­de­ne Besu­cher poten­zi­el­le Wiederkehrer…

Per­sön­li­ches Gespräch gefällig?