Next.js SEO Checker
Controlla il tuo sito Next.js per problemi di SSR, rendering, metadati e crawlability. Oltre 20 controlli in 7 categorie.
Il problema SEO n. 1 di Next.js
L'uso eccessivo delle direttive \"use client\" fa sì che il contenuto venga visualizzato solo nei browser. I motori di ricerca e i crawler AI (ChatGPT, Claude, Perplexity) potrebbero vedere una shell HTML vuota al posto del tuo contenuto.
- Rileva i problemi SSR e CSR
- Controlla la disponibilità dei metadati
- Analyze Core Web Vitals
Running SEO audit...
Controllo del rendering, dei metadati, delle prestazioni e altro ancora
Priority Issues
Risolvili primaDomande Frequenti
What does this tool check?
Questo strumento esegue oltre 20 controlli SEO in 7 categorie:
- Rendering & SSR: Rileva shell HTML vuote, rendering solo client, problemi di idratazione
- Metadata & Head: Titolo, descrizione, Open Graph, canonico, viewport
- Performance: Core Web Vitals (FCP, LCP, TTFB), risorse per il blocco del rendering
- Immagini: Testo alternativo, utilizzo successivo/immagine, caricamento lento
- Structured Data: JSON-LD schema markup validation
- Scansione: Meta robot, collegamenti interni, hreflang
- Semantic HTML: Titoli, punti di riferimento, attributi ARIA
Perché SSR/SSG è importante per la SEO?
I motori di ricerca e i crawler AI inizialmente vedono solo l'HTML non elaborato dal tuo server. Se il tuo contenuto viene visualizzato solo tramite JavaScript (lato client), i crawler potrebbero visualizzare una pagina vuota. Il rendering lato server (SSR) o la generazione di siti statici (SSG) garantiscono che il contenuto sia nella risposta HTML iniziale.
Qual è il problema della \"Shell HTML vuota\"?
Ciò si verifica quando l'app Next.js restituisce codice HTML minimo con contenuto caricato interamente tramite JavaScript. Cause comuni:
- Uso eccessivo delle direttive \"use client\".
- Non utilizzare getServerSideProps o getStaticProps
- Recupero dei dati solo negli hook useEffect
Come posso risolvere i problemi di rendering?
To ensure content is available to crawlers:
- Router di pagine: Utilizzare getServerSideProps o getStaticProps
- Router dell'applicazione: Mantieni i componenti come componenti server per impostazione predefinita, aggiungi \"usa client\" solo quando necessario
- Data Fetching: Recupera dati critici lato server, non in usoEffetto
- Metadata: Utilizza next/head o l'API dei metadati