Google hat angekündigt, unter zukünftiger Interpretation von CSS und Ausführung von JavaScript das Browserverhalten von Benutzern besser verstehen zu wollen. Mit dieser Idee behebt Google zwar manche Probleme, schafft sich aber zudem auch neue:

Google wird hiermit zwar einen besseren Einblick erhalten, ob eine Seite auch für mobile Endgeräte geeignet ist. Zudem könnte Google die Problematik des Webspam besser eingrenzen, doch die Probleme könnten die Vorteile der Idee überwiegen, wenn man folgende Betrachtung mit einbezieht:

  • Über die robots.txt werden CSS- und JavaScript-Verzeichnisse für Bots ausgesperrt; daraus folgt ein unvollständiges Crawling der Seite und eine mangelhafte Feststellung über die Eignung für mobile Geräte.
  • Google erwartet, dass der Gegenserver stark genug sein muss, um den zusätzlichen Traffic durch JavaScript und CSS zu tragen – oder die Seite wird unkorrekt gerendert.
  • Ist das Script zu komplex, führt der Google-Bot es ggf. nicht korrekt aus – was dem menschlichen Auge verborgen bleibt.

Hierdurch könnte es passieren, dass eine Seite gewissen Content erst nach Interaktion sichtbar macht. Die Inhalte, die erst nach einem Klick sichtbar werden, werden nicht mit indexiert – weshalb die Seite augenscheinlich für Google weniger Content enthält – und im Ranking nach unten rutscht.

Auch bei mobiloptimierten Seiten wird zur Indexierung der abgespeckte Inhalt für das kleinste Gerät zuerst genommen – aus SEO-Sicht ist das unfair. Man könnte das als eine Gratwanderung zwischen Benutzerkomfort und Interessen der Betreiber bezeichnen.