SEO-Experten über Robots.txt: "Nur ein Sicherheitsbeamter vor dem großen Stadion"

Donnerstag, 10. Januar 2013
Die Robots.txt-Einträge sind bei Verlagen ein großes Thema
Die Robots.txt-Einträge sind bei Verlagen ein großes Thema

In jeder großen Auseinandersetzung gibt es Nebenkriegsschauplätze. Im Falle des Leistungsschutzrechts für Presseverlage etwa versetzt die einfache Datei Robots.txt die an der Diskussion beteiligten Parteien immer wieder in Rage. Mit ihr können sich Verlage (und jeder andere Homepage-Betreiber) von der Indexierung durch Google oder einer anderen Suchmaschine ausschließen lassen - umstritten ist nur, in welchem Ausmaß. In der Ausgabe 1-2/2013 versucht HORIZONT, Klarheit in das Thema zu bringen und hat dafür mit den SEO-Experten großer Mediaagentur-Gruppen gesprochen. Im Folgenden erklären Birger Schnepp (iProspect, Aegis Media), Sascha Jansen (Annalect Group, Omnicom), Christina Neuhofer (Quisma, Group M), Stephan Kopp (Plan.Net Performance, Serviceplan) und Ahmet Hulusi Dingil (Media Contact, Havas Media)  außerdem, wieso Robots.txt nicht kriegsentscheidend sein wird.

Birger Schnepp, Director Business Development iProspect, Aegis Media

-
-
Auch als die IVW-Zahlen als Messverfahren in Deutschland anerkannt wurden, mussten die Verlage die Messpixel in ihre Seiten einbauen, um die Daten wie gewünscht liefern zu können. Genau an diesem Punkt sind Verlage jetzt auch mit ihren Inhalten: Sie müssen strategisch entscheiden, worauf Suchmaschinen zugreifen dürfen und worauf nicht.

Robots.txt ist im Prinzip nur der Sicherheitsbeamte vor dem großen Stadion. Rund herum sind aber überall Löcher im Zaun, und im Endeffekt können Gäste kommen und gehen wie sie wollen. Da nützt die Sicherheitspolizei an einem einzigen Eingang gar nichts. Aber das Hauptproblem ist Knowhow und Verständnis. Verlage machen aus jedem Projekt eine Art Turmbau zu Babel, an dem in der Regel viel zu viele Spezialisten in unterschiedlichen Sprachen mitdiskutieren und -entscheiden. Das beeinträchtigt ihre Entwicklungsgeschwindigkeit immens, um dem rasanten Tempo von Google und Co entgegenzuhalten.

Sascha Jansen, Managing Director Annalect Group Germany, Omnicom

-
-
Die Intensität der Diskussionen ist nachvollziehbar, denn es geht dabei um das sensible Thema des „Fair-Share in der Wertschöpfungskette". Ähnliche Konfrontationen erleben wir aktuell zwischen TV-Sendern und den Kabelnetz-Betreibern in Bezug auf die TV-Einspeisegebühren. Beide Seiten - Content-Produzenten und „Auffindbarkeitshilfe" des Contents - brauchen einander. Ohne Content kein Google, ohne Google deutlich weniger Nutzung.

Problematisch aus Sicht der Content-Produzenten ist jedoch der Umstand, dass der Content-Markt polypolistisch, der Markt der Suchmaschinen aber monopolistisch ist. Vor dem Hintergrund von Googles Marktposition und seinem zweifelsohne vorteilhaften Anteil an der Wertschöpfungskette ist nicht davon auszugehen, dass Google an der aktuellen Situation allzu viel ändern möchte und muss. Der Druck müsste von anderer Seite kommen. Wo der Content aber austauschbar ist - und dazu tragen vielfach übernommene oder gar kopierte Presseagentur- und PM-Texte bei - haben die Publisher wenig Chancen, Druck aufzubauen.

Christina Neuhofer, Head of Search & Conversion Optimization bei Quisma, Group M

-
-
Die derzeitigen Möglichkeiten für Verlage, die Indexierung des eigenen Contents zu beeinflussen, reichen unserer Meinung nach aus. Verlage stehen vor der Entscheidung, ob sie den Traffic, der durch Google entsteht, nutzen möchten oder ob sie die Indexierung durch Google verhindern und somit auf diesen Traffic verzichten. Seo-united.de regt an, Autoren mehr Einfluss darauf zu geben, wie groß der Umfang des geistigen Eigentums ist, der durch Suchmaschinen indexiert werden darf. Man muss aber auch deutlich sagen, dass die Snippets, die von Google in den Suchergebnissen angezeigt werden, lediglich einen Umfang von zirka 140 Zeichen haben. Es geht demnach nicht um seitenlange Texte, sondern um ein bis zwei kurze Sätze. Ob dem Autor wirklich die Möglichkeit gegeben werden sollte, um einzelne Zeichen zu feilschen, ist bei der relativ geringen Anzahl doch fraglich.

Stephan Kopp, Unitleiter SEO bei Plan.Net Performance, Serviceplan

-
-
Meiner Meinung nach ist die Diskussion hinfällig: Die Verlage selbst haben ihre Inhalte für jeden kostenlos im Internet zur Verfügung gestellt. Sie wollen, dass ihre Inhalte von der Suchmaschine indiziert und vom Suchenden gefunden werden. Sie definieren sogar eigene Meta-Beschreibungen in ihren Seiten, die speziell für Suchmaschinen zur Anzeige im Snippet verwendet werden. Sie nehmen Dienste wie Google News bewusst wahr. Die Suchmaschine zwingt niemanden, dort teilzunehmen oder Inhalte bereitzustellen. Wer es also nicht möchte, kann das jederzeit verhindern. Die Verlage können längst selbst ein eigenes Newsportal aufbauen, das dem Nutzer sinnvolle Informationen bietet.

Die Frage ist eher: Welchen Sinn soll es für den Nutzer haben, wenn Google ihm ein Ergebnis ohne Snippet anzeigt und lediglich eine Überschrift und eine URL als Vorschau ausliefert? Ein solches Ergebnis würde keinen Mehrwert bieten - im Gegenteil: Der Nutzer müsste anhand der Überschrift entscheiden, ob das Ergebnis für ihn interessant ist oder nicht. Kann er dies nicht erkennen, gibt es immer noch neun andere Ergebnisse, die evtl. mehr Informationen bieten und interessanter aussehen. Diese werden dann mit hoher Wahrscheinlichkeit angeklickt. Solange also noch Verlage bereit sind, Snippets anzeigen zu lassen, würde Google deren Ergebnisse sicherlich weiter oben anzeigen als Ergebnisse ohne Snippets. Würden allerdings alle Verlage (und evtl. weitere Quellen im Netz) ein „nosnippet" einbauen, würde sich natürlich sicherlich am Sinn und Konzept einer Suchergebnisseite einiges ändern.

Ahmet Hulusi Dingil, SEO-Spezialist bei Media Contacts, Havas Media

-
-
Wie so oft in hitzigen Debatten gibt es Argumente von beiden Seiten, die zutreffend sind und wiederum Argumente, die falsch interpretiert werden. Die Problematik an der Erweiterung des deutschen Urheberschutzgesetzes ist ihre Tragweite, die mit dem Stand heute nicht abzusehen ist, das jedenfalls ist mitunter die größte Angst der Gegner. Man hat Angst, dass die Verlage hier ein Machtwerkzeug in die Hand bekommen, um im Internet ihre wirtschaftlichen Interessen durchzusetzen.

Aber beide Seiten tragen auch Argumente vor, die einfach nicht richtig sind. Man kann etwa eine Suchmaschine oder einen News-Aggregator nicht dazu zwingen, die Inhalte nicht zu durchsuchen, wenn die Inhalte gleichzeitig öffentlich abrufbar sind. Wichtig ist hierbei die Betonung auf „zwingen" und „gleichzeitig". Die technischen Mittel basieren auf einer Art Freiwilligkeit. Auch wenn sich in der Praxis jedes seriöse Unternehmen (Suchmaschinen, News-Aggregatoren) an die Anweisung hält, so bleibt es technisch weiterhin möglich. Ebenso ist es eine Tatsache, dass jeder Verlag auf bezahlte Inhalte setzen kann, wenn denn eine 100-prozentige  technische Ausgrenzung der Bots und Crawler nicht möglich ist. Tatsache ist es auch, dass die Verlage Suchmaschinen und Aggregatoren brauchen, um gefunden zu werden, und ebenso ist es eine Tatsache, dass Verlage händeringend nach neuen Geschäftsmodellen suchen, um die Verluste aus dem Anzeigengeschäft auszugleichen, da die Druckauflagen stetig sinken.
Meist gelesen
stats