In den letzten Jahren konnte eine rasend schnelle Entwicklung von Websites und damit verbundener Technologien verzeichnet werden. Um die Benutzerfreundlichkeit zu steigern werden Inhalte auf Websites vermehrt dynamisch nachgeladen. Damit ist gemeint, dass eine Website bei Veränderung durch den Anwender nicht komplett neu aufgebaut werden muss. Viel mehr werden Teile der Website welche durch die Interaktionen betroffen sind, dynamisch nachgeladen, ohne dass sich die Website komplett neu lädt. Beispiele dafür sind Newsticker, Live-Suchen oder auch das unendliche Scrollen, welches vermehrt in Online-Shops eingesetzt wird. Um das dynamische Nachladen von Inhalten zu realisieren, wird vorrangig die Technologie AJAX (Asynchrones JavaScript und XML) eingesetzt. Diese macht sich die asynchrone Datenübertragung zu Nutze.
Doch was hat AJAX mit der Suchmaschinenoptimierung zu tun?
Für Suchmaschinen war es sehr lange Zeit nicht möglich, JavaScript zu verstehen. Das hatte zur Folge, dass via AJAX nachgeladene Inhalte ignoriert wurden. Als Beispiel können hier die One-Page Seiten, welche mit AJAX verschiedene Unterseiten nachladen, aufgeführt werden. Durch oben genannte Problematik gelangte nur die Startseite in den Suchmaschinenindex und demzufolge nicht die Unterseiten. Ein weiteres Problem bestand in der URL-Form. Dynamisches Nachladen der Inhalte änderte auch diese. Die ursprüngliche URL wurde mit verschiedenen Parametern untersetzt und war damit unlesbar für die Suchmaschinen. Diese verbannten daraufhin die veränderten URLs aus dem Index.
Gibt es eine Lösung?
Schon seit Einführung von dynamisch nachgeladenen Inhalten, versucht die Suchmaschine Google aktiv an diesem Problem zu arbeiten. Beispielsweise wurde durch den Suchmaschinen-Riesen im Jahr 2009 ein neuer Standard zum Crawling von AJAX-basierten Websites vorgestellt: Das AJAX Crawling Scheme. Idee dieses Schemes war es, eine Momentaufnahme für jede AJAX-URL sicherzustellen. Dadurch wurde gewährleistet, dass zum einen eine Website für den Anwender und zum anderen eine maschinenlesbare Website für den Crawler zur Verfügung gestellt wurde. Diese Methode war mit Aufwand und Einarbeitung durch den Website-Betreiber verbunden. Mittlerweile wird diese Methode als „deprecated“ (überholt) eingestuft. Auch hielt sich lange Zeit die Verwendung von Hashbang-URLs, damit Suchmaschinen dynamische Inhalte besser indexieren können. Google rät aber mittlerweile auf Grund des grossen Aufwandes und der Komplexität davon ab.
Bereits im Oktober 2015 veröffentlichte Google die Meldung, dass dynamisch nachgeladene Inhalte durch die Suchmaschine, ohne jegliches Zutun der Website-Betreiber, gelesen werden können. Dieser Meldung sind wir nachgegangen. Wir als SEO-Agentur haben anhand mehrerer Websites getestet, ob die dynamischen Inhalte mittlerweile wirklich durch Google indexiert werden können und sind zu einem positiven Ergebnis gekommen. Google konnte unsere selbst erstellten Websites mit dynamischen Inhalten vollständig in den Suchmaschinenindex aufnehmen. Der Googlebot scheint mittlerweile zwar JavaScript interpretieren zu können, aber es kann zum Beispiel bei der Indexierungsgeschwindigkeit dennoch zu Einschränkungen kommen. Dies trifft insbesondere dann zu, wenn die Website sehr gross und das Ausführen von JavaScript sehr rechenintensiv ist. Aus diesem Grund hat Google eine Dokumentation zur Anwendung von dynamischen Renderings veröffentlicht. Mit dieser Methode kann vorgerendertes HTML für die Crawler der Suchmaschinen bereitgestellt werden. (Weitere Infos).
Es wird empfohlen, in regelmässigen Abständen die eigene Website in der Google Search Console zu überprüfen. Der Menüpunkt „URL-Prüftool“ ermöglicht die Anzeige der Website aus Sicht von Google bzw. des Such-Robots. Dadurch kann überprüft werden, ob alle Seiten und Inhalte der Website indexiert und gelesen werden können.
Als Fazit lässt sich sagen, dass das Problem mit JavaScript und SEO noch nicht vollständig gelöst ist. Google scheint aber auf Grund der Veröffentlichung von neuen Lösungsansätzen und Empfehlungen, stetig an einer vollständigen Behebung des Problems zu arbeiten.
Wir dürfen gespannt sein!
Danke für den tollen Post. War wirklich hilfreich.