Google Crawl-Limit
Googlebot stoppt das Parsen von HTML nach 2 MB. Überprüfen Sie, ob Ihre Seite dieses Limit überschreitet, und ermitteln Sie, was den meisten Platz beansprucht.
Über dieses Tool
Beim Crawlen von Webseiten unterliegt der Googlebot einer technischen Beschränkung: Nach 2 MB (2.097.152 Byte) beendet er das Parsen von HTML. Das heißt, wenn der HTML-Code Ihrer Seite diesen Grenzwert überschreitet, werden Teile Ihres Inhalts nicht von Google indiziert, was möglicherweise Auswirkungen auf Ihre SEO-Leistung hat.
Wie es funktioniert
- Ruft den HTML-Code Ihrer Seite so ab, wie der Googlebot ihn sieht (vor der JavaScript-Ausführung).
- Berechnet die exakte Byte-Größe mit UTF-8-Kodierung
- Analysiert, was Platz beansprucht: Inline-Skripte, Stile, Base64-Bilder, SVG-Grafiken usw.
- Identifiziert die 10 größten HTML-Elemente mit spezifischen CSS-Selektoren
- Generiert umsetzbare Empfehlungen nach Priorität geordnet
- Zeigt externe Ressourcen (Skripte, CSS, Bilder) an, die NICHT auf das Limit angerechnet werden
Was zählt zum 2MB-Limit?
Zählt zum Limit
- • Inline-JavaScript (script-Tags ohne src)
- • Inline-CSS (style-Tags und style-Attribute)
- • Base64-kodierte Bilder in HTML/CSS
- • Inline-SVG-Grafiken
- • Alle Textinhalte und HTML-Struktur
- • HTML-Kommentare und Leerzeichen
Zählt NICHT
- • Externe JavaScript-Dateien (script src=\"...\")
- • Externe CSS-Dateien (Link rel=\"stylesheet\")
- • Externe Bilder (img src=\"...\")
- • Externe Schriftarten, Videos und andere Medien
- • Per AJAX/fetch geladene Inhalte
- • Von JavaScript gerenderte Inhalte
Profi-Tipp: Der beste Weg, das Limit einzuhalten, besteht darin, große Inline-Skripte und -Stile in separate .js- und .css-Dateien zu externalisieren. Dies verbessert auch die Caching- und Seitenladeleistung!