Google Crawl-Limit

Googlebot stops parsing HTML after 2MB. Check if your page exceeds this limit and identify what's consuming the most space.

We'll analyze the raw HTML size as Googlebot sees it. Enter one URL per line for bulk analysis.

Über dieses Tool

Googlebot has a technical limit when crawling web pages: it stops parsing HTML after 2MB (2,097,152 bytes). This means if your page's HTML exceeds this limit, parts of your content won't be indexed by Google, potentially affecting your SEO performance.

How It Works

  1. Fetches your page's HTML as Googlebot sees it (before JavaScript execution)
  2. Berechnet die exakte Byte-Größe mit UTF-8-Kodierung
  3. Analyzes what's consuming space: inline scripts, styles, base64 images, SVG graphics, etc.
  4. Identifiziert die 10 größten HTML-Elemente mit spezifischen CSS-Selektoren
  5. Generiert umsetzbare Empfehlungen nach Priorität geordnet
  6. Shows external resources (scripts, CSS, images) that DON'T count toward the limit

Was zählt zum 2MB-Limit?

Zählt zum Limit

  • • Inline-JavaScript (script-Tags ohne src)
  • • Inline-CSS (style-Tags und style-Attribute)
  • • Base64-kodierte Bilder in HTML/CSS
  • • Inline-SVG-Grafiken
  • • Alle Textinhalte und HTML-Struktur
  • • HTML-Kommentare und Leerzeichen

Zählt NICHT

  • • External JavaScript files (script src="...")
  • • External CSS files (link rel="stylesheet")
  • • External images (img src="...")
  • • Externe Schriftarten, Videos und andere Medien
  • • Per AJAX/fetch geladene Inhalte
  • • Von JavaScript gerenderte Inhalte

Profi-Tipp: The best way to stay under the limit is to externalize large inline scripts and styles into separate .js and .css files. This also improves caching and page load performance!

Häufig gestellte Fragen