Google Crawl-Limit

Googlebot stoppt das Parsen von HTML nach 2 MB. Überprüfen Sie, ob Ihre Seite dieses Limit überschreitet, und ermitteln Sie, was den meisten Platz beansprucht.

Wir analysieren die Roh-HTML-Größe so, wie der Googlebot sie sieht. Geben Sie für die Massenanalyse eine URL pro Zeile ein.

Über dieses Tool

Beim Crawlen von Webseiten unterliegt der Googlebot einer technischen Beschränkung: Nach 2 MB (2.097.152 Byte) beendet er das Parsen von HTML. Das heißt, wenn der HTML-Code Ihrer Seite diesen Grenzwert überschreitet, werden Teile Ihres Inhalts nicht von Google indiziert, was möglicherweise Auswirkungen auf Ihre SEO-Leistung hat.

Wie es funktioniert

  1. Ruft den HTML-Code Ihrer Seite so ab, wie der Googlebot ihn sieht (vor der JavaScript-Ausführung).
  2. Berechnet die exakte Byte-Größe mit UTF-8-Kodierung
  3. Analysiert, was Platz beansprucht: Inline-Skripte, Stile, Base64-Bilder, SVG-Grafiken usw.
  4. Identifiziert die 10 größten HTML-Elemente mit spezifischen CSS-Selektoren
  5. Generiert umsetzbare Empfehlungen nach Priorität geordnet
  6. Zeigt externe Ressourcen (Skripte, CSS, Bilder) an, die NICHT auf das Limit angerechnet werden

Was zählt zum 2MB-Limit?

Zählt zum Limit

  • • Inline-JavaScript (script-Tags ohne src)
  • • Inline-CSS (style-Tags und style-Attribute)
  • • Base64-kodierte Bilder in HTML/CSS
  • • Inline-SVG-Grafiken
  • • Alle Textinhalte und HTML-Struktur
  • • HTML-Kommentare und Leerzeichen

Zählt NICHT

  • • Externe JavaScript-Dateien (script src=\"...\")
  • • Externe CSS-Dateien (Link rel=\"stylesheet\")
  • • Externe Bilder (img src=\"...\")
  • • Externe Schriftarten, Videos und andere Medien
  • • Per AJAX/fetch geladene Inhalte
  • • Von JavaScript gerenderte Inhalte

Profi-Tipp: Der beste Weg, das Limit einzuhalten, besteht darin, große Inline-Skripte und -Stile in separate .js- und .css-Dateien zu externalisieren. Dies verbessert auch die Caching- und Seitenladeleistung!

Häufig gestellte Fragen