SISTRIX è uno strumento potente per migliorare il tuo sito, e mette a disposizione numerose impostazioni in modo da potersi adattare nel modo più ottimale possibile alle tue necessità. In questa pagina le spiegheremo nel dettaglio.
- Progetto
- Nome
- Obiettivo
- Crawler Onpage
- Tipo di Crawler
- Frequenza di scansione
- Quantità massima di richieste
- Richieste simultanee
- Dati Login
- Crawler Onpage: modalità esperto
- User Agent (Server)
- User Agent (Robots)
- Crawl Time
- Indirizzo IP fisso
- Crawl Delay
- Pagine iniziali
- Sitemap XML
- Ulteriori fonti per gli URL
- File robots.txt virtuale
- Scansiona risorse
- Scansiona link esterni
- Ordina parametri URL
- Cancella parametri URL
- Monitoraggio performance
- Attiva monitoraggio performance
- Attiva monitoraggio Uptime
- Notifiche email
- Impostazioni dell'allarme via email
- Lighthouse Check
- Concorrenti
- Keyword
- Indice di Visibilità del progetto
- Cambiamenti di Ranking
- Gestione delle keyword
- Team
- Cancella progetto
Progetto
Qui trovi le opzioni generiche che riguardano l’intero progetto.
Nome
Il nome del progetto viene utilizzato per identificarlo all’interno del Toolbox. Lo troverai nella pagina iniziale del progetto e nel menù a tendina destinato alla scelta dei progetti. Il nome del progetto può essere modificato quando preferisci e tali modifiche verranno immediatamente messe in atto.
Obiettivo
Si tratta dell’impostazione basilare dell’intero progetto: qui puoi definire, infatti, se l’analisi deve concentrarsi sull’intero dominio, su un singolo sottodominio o su una determinata directory. La tua scelta influisce sia sul crawler Onpage, sia sul crawler delle keyword e dei ranking.
- Inserendo un dominio (ad esempio: sistrix.it), verranno analizzati tutti gli URL al suo interno. Quindi, ad esempio
https://sistrix.it/test
ehttp://old.sistrix.it/old.html
, ma nonhttps://www.sistrix.com/test
. - Inserendo un sottodominio (ad esempio: www.sistrix.it), verranno analizzati tutti gli URL che si trovano all’interno di questo specifico sottodominio. Quindi, ad esempio
https://www.sistrix.it/test
ma nonhttp://old.sistrix.it/old.html
. - Inserendo una directory (ad esempio: https://www.sistrix.it/blog/, ricordando di aggiungere anche il protocollo http:// o https://), verranno analizzati tutti gli URL contenuti in quella specifica directory. Quindi, ad esempio
https://www.sistrix.it/blog/test.html
ma nonhttps://www.sistrix.it/test.html
.
Le modifiche a questa impostazione risulteranno effettive a partire dalla scansione successiva. Attenzione però: i cambiamenti potrebbero rendere i dati storici delle scansioni precedenti non più confrontabili con quelle successive, siccome la quantità di pagine/ranking analizzati sarà modificata. La cosa migliore è quindi di riflettere bene su questa impostazione nel momento in cui si crea il progetto, evitando di modificarla successivamente.
Crawler Onpage
Il crawler Onpage di SISTRIX valuta costantemente il tuo sito. Siccome però ogni sito è differente, questa sezione ti permette di definire numerose impostazioni personalizzate. Generalmente le impostazioni di default sono adatte alla maggior parte dei siti, per cui ti consigliamo di modificarle solo se effettivamente necessario.
Tipo di Crawler
Qui potrai definire quale tipo di crawler dovrebbe essere utilizzato per il progetto. Le opzioni a disposizione sono le seguenti:
Crawler HTML: con questa impostazione l’HTML non elaborato viene valutato esattamente come riportato dal server web, senza alcun tipo di JavaScript Parsing. Questa impostazione permette di ottenere una scansione più veloce, senza sovraccaricare troppo il server.
Crawler JavaScript: alcuni siti usano JavaScript per rendere le pagine più interattive. Siccome attualmente Googlebot supporta JavaScript, anche su SISTRIX è possibile definire questa opzione. Così come Google, ci basiamo su una versione attuale del browser di Google Chrome: attiva questa opzione per fare in modo che, in futuro, il progetto venga scansionato considerando anche JavaScript. La scansione diventerà tuttavia più lenta, in quanto dovrà utilizzare più risorse (sia nel Crawler, sia nel server web).
Crawler mobile: questo motore di scansione è basato su quello di JavaScript. Non solo si effettuerà il rendering JavaScript di tutte le pagine, ma la Viewport per il Crawler sarà impostata sulle dimensioni dello schermo di un iPhone. Infatti, alcune pagine mostrano contenuti o link interni differenti a seconda della grandezza di un dispositivo. Grazie a questa opzione potrai simulare nel modo migliore possibile il Mobile First Crawling di Googlebot.
Frequenza di scansione
Questa impostazione ti permette di decidere quanto spesso dovrà avvenire l’attivazione automatica del Crawler Onpage. Di default il sito viene scansionato una volta a settimana, ma potrai anche definire che la scansione avvenga a frequenza bisettimanale o mensile.
Non è possibile impostare la scansione automatica più di una volta a settimana, ma potrai attivare manualmente il crawler ogni volta che vorrai all’interno del progetto. Nella sezione “Modalità esperto” potrai impostare il giorno e l’orario d’attivazione.
Quantità massima di richieste
Qui potrai impostare quanti “accessi” dovrebbero essere utilizzati nel progetto. Ogni progetto Onpage possiede un contingente di scansione di 100.000 URL, che potrai eventualmente distribuire in altri progetti.
Con “accesso” s’intende l’apertura di una pagina HTML oppure di una risorsa, come le immagini, i file CSS e tutti i dati collegati, così come i link.
Se desideri che il tuo progetto superi il contingente di scansione di 250.000 accessi, ti chiediamo di contattare il nostro supporto per valutare insieme le opzioni migliori per il tuo progetto.
Richieste simultanee
Per scansionare completamente siti molto grandi spesso è necessario che più Crawler Onpage lavorino in parallelo: questa impostazione ti permette di definire quanti crawler dovranno essere attivi sul tuo progetto contemporaneamente.
Più Crawler paralleli permettono di terminare più velocemente la scansione, ma hanno lo svantaggio di sovraccaricare il server. Nel caso il Crawler Onpage riconoscesse un sovraccarico del server, ridurrà le richieste parallele automaticamente.
Dati Login
Grazie a questa funzione potrai scansionare i siti che sono protetti da password, un’opzione consigliabile soprattutto nel caso di migrazioni o di simili cambiamenti. Potrai infatti fare in modo che il Crawler Onpage scansioni le pagine prima che vengano messe a disposizione di Google.
Infine, questa impostazione è utile per scansionare i siti protetti da Autenticazione HTTP standard. I singoli campi delle password (su una pagina HTML) non verranno compilati.
Crawler Onpage: modalità esperto
Molte delle impostazioni del Crawler Onpage sono utilizzabili solo in casi particolari: se il server è configurato in modo diverso dal solito oppure per eccezioni specifiche. Nella sezione della modalità esperto trovi esattamente queste impostazioni speciali, che potrai vedere solo dopo averle attivate.
User Agent (Server)
Tramite lo User Agent il crawler si identifica al server. Di default usiamo lo User Agent Mozilla/5.0 (compatible; Optimizer; http://crawler.sistrix.net/)
. Qui potrai personalizzare lo User Agent del tuo progetto, senza influire sul Parsing del file robots.txt.
User Agent (Robots)
Questo User Agent viene usato per elaborare le istruzioni di scansione nel robots.txt. Di default il Crawler di SISTRIX cerca la parola “sistrix”, ma potrai modificarla usando, ad esempio, “google” o qualsiasi altro termine che possa influire sul comportamento di scansione.
Crawl Time
Indica quando desideri scansionare il tuo sito. Se un sito è particolarmente lento, grazie a questa opzione potrai impostare la scansione nelle ore notturne o nel fine settimana, in modo da non sovraccaricare il server quando ha dei picchi di carico.
Indirizzo IP fisso
Il Crawler Onpage di SISTRIX viene selezionato dinamicamente da un ampio pool di Crawl Server disponibili. Il vantaggio è che ci sono sempre delle slot di scansione libere, ma l’indirizzo IP del Crawler non rimane lo stesso.
Per evitare questo fatto puoi attivare un indirizzo IP fisso. Ricorda però che questo potrebbe comportare dei ritardi nell’elaborazione delle scansioni del progetto.
Crawl Delay
Grazie al Crawl Delay puoi impostare una pausa tra le richieste sul tuo server. Attenzione però: attivando questa opzione la durata di scansione del tuo intero progetto aumenterà fortemente e, nel caso durasse più di 24 ore, verrà interrotta automaticamente.
Pagine iniziali
Nel caso di alcune configurazioni particolari il Crawler Onpage potrebbe non riuscire a definire autonomamente la pagina iniziale per la scansione del progetto. Questo accade soprattutto se gli utenti vengono reindirizzati a pagine diverse a seconda della lingua del browser.
Tramite questa opzione potrai aggiungere ulteriori pagine iniziali che il Crawler Onpage del progetto visiterà per prime durante la scansione, ad esempio Sitemap HTML o pagine con numerosi link interni.
Sitemap XML
Tramite le Sitemaps XML gli URL di un progetto vengono trasferiti ai web crawler in un formato standardizzato e leggibile a macchina: questi standard sono supportati dalla maggior parte dei motori di ricerca, come Google e Bing.
Il Crawler Onpage di SISTRIX può raggiungere la Sitemap XML, se disponibile. Nel caso invece l’URL della Sitemap XML non fosse riportato nel robots.txt, potrai indicarla esplicitamente usando questa opzione.
Ulteriori fonti per gli URL
Oltre ai link trovati nel sito, il Crawler Onpage può utilizzare anche altre fonti del Toolbox per gli URL del progetto. Questo è particolarmente utile per pagine che non presentano più link interni, ma che ancora esistono e vengono scansionate.
Gli URL possono essere aggiunti al progetto a partire dal modulo SEO, dal modulo Link, dal modulo Social o dai dati di Google Search Console. Nel caso volessi integrare i dati dal modulo SEO, dovrai ancora specificare quale indice di Paese utilizzare.
File robots.txt virtuale
Il Crawler Onpage basa la sua scansione sul file robots.txt disponibile online sul sito del progetto, e su tutte le regole in esso contenute. SISTRIX utilizza quindi lo stesso Parser di Googlebot.
Nel caso volessi testare delle modifiche al tuo robots.txt, oppure desiderassi impostare delle regole diverse (non ancora rese pubbliche) per il nostro Crawler Onpage, potrai inserire un file robots.txt virtuale.
Per farlo, copia il contenuto del robots.txt desiderato e incollalo nel campo testuale. La struttura del robots.txt virtuale deve corrispondere a quella del file completo, “reale”, con tutte le istruzioni. A partire dalla scansione successiva, il Crawler Onpage rispetterà le regole che hai definito, e non più quelle del robots.txt pubblico.
Scansiona risorse
Di default il Crawler Onpage scansiona non solo le pagine HTML, ma anche tutte le risorse del sito: immagini, file CSS e tanti altri dati. In questo modo è possibile valutare se sono effettivamente disponibili, che dimensioni hanno e addentrarsi in altre analisi. Tramite questa opzione potrai invece disattivare la scansione delle risorse.
Scansiona link esterni
Il Crawler Onpage scansiona i link esterni per valutare che siano ancora disponibili. Con questa opzione potrai disattivare questa funzione e non scansionarli più.
Ordina parametri URL
I parametri degli URL vengono considerati dal Crawler Onpage come parte dell’URL, per cui non subiscono modifiche. Con questa opzione potrai fare in modo che essi vengano elencati in ordine alfabetico, individuando più facilmente casi di contenuti duplicati causati dall’uso incoerente di tali parametri.
Cancella parametri URL
Usa questa opzione per cancellare determinati parametri degli URL durante la scansione del progetto. Una funzione analoga si trova su Google Search Console, grazie alla quale è possibile eliminare Session Parameters e parametri di URL simili. Usa il campo testuale per specificare il nome dei parametri.
Monitoraggio performance
La performance di un sito è un fattore di ranking: a partire dal 2021 Google utilizzerà ufficialmente la velocità di caricamento per posizionare i siti nelle pagine dei risultati. Grazie a questa impostazione potrai avere una panoramica della performance del tuo sito.
Attiva monitoraggio performance
Questa opzione valuta i tempi di caricamento del tuo sito, comprendendo anche le immagini, i file JavaScript e CSS. Richiederemo la pagina tramite browser e misureremo quanto tempo viene impiegato per caricare completamente i contenuti. Queste valutazioni sono disponibili per numerosi Paesi e possono essere misurate usando un tool di analisi.
Attiva monitoraggio Uptime
Il monitoraggio Uptime ti aiuta a scoprire se il tuo sito è stato offline a tua insaputa. Per farlo richiediamo la pagina iniziale del tuo progetto ogni minuto e ne valutiamo la disponibilità.
Notifiche email
Se desideri, possiamo avvisarti per mail ogni volta che viene trovato un errore durante il monitoraggio Uptime del sito (ad esempio se il tuo progetto è offline o se viene mostrato un messaggio di errore). Naturalmente per usare questa funzione è necessario avere il monitoraggio Uptime attivo.
Impostazioni dell’allarme via email
Qui potrai configurare se desideri ricevere una email non appena la tua pagina viene rilevata offline, oppure se questa opzione deve attivarsi solo dopo una certa quantità di errori. Un modo utile per evitare falsi allarmi e magari dormire più tranquilli!
Lighthouse Check
Questa opzione ti permetterà di attivare la misurazione di performance di Lighthouse ad altri URL del progetto. Per saperne di più leggi questo articolo.
Concorrenti
Per ogni progetto Onpage puoi aggiungere fino a 6 concorrenti, che verranno usati, ad esempio, per comparare l’Indice di Visibilità del progetto e in tante altre funzioni. Non è possibile definire più di 6 concorrenti.
A seconda delle tue indicazioni, potrai aggiungere interi domini (dominio.com), sottodomini (www.dominio.com) o directory (https://www.dominio.com/directory).
Keyword
Le keyword, cioè i termini inseriti nei motori di ricerca, sono la base della SEO. Su SISTRIX puoi monitorare i ranking di un campione di keyword da te definito, personalizzandolo a seconda di Paesi, città, dispositivi e motori di ricerca differenti.
Indice di Visibilità del progetto
Qui puoi definire la frequenza con cui verrà aggiornato l’Indice di Visibilità del tuo progetto. Anche se solo alcune delle keyword vengono scansionate giornalmente, è comunque possibile creare un Indice di Visibilità del progetto ogni giorno sulla base dei dati aggiornati.
Cambiamenti di Ranking
Definisci se i cambiamenti di ranking devono essere rilevati giornalmente o settimanalmente (cioè ogni 7 giorni). Soprattutto per le keyword giornaliere, questa impostazione permette d’individuare rapidamente sviluppi importanti nei ranking.
Gestione delle keyword
In questa sezione potrai definire, modificare e cancellare le query di ricerca che t’interessano. Sulla base di queste keyword verranno monitorati i ranking, e su questi dati si baseranno anche l’Indice di Visibilità del progetto e tante altre metriche. Le impostazioni a tua disposizione sono le seguenti:
- Paese: puoi scegliere tra più di 360 combinazioni di lingue e Paesi.
- Città: hai a disposizione più di 10.000 città per monitorare ranking locali. Potresti quindi utilizzare il tuo progetto per le SERP locali e gli altri moduli del Toolbox per quelle nazionali.
- Dispositivo: puoi valutare i risultati su desktop, Smartphone o tablet.
- Frequenza: qui puoi definire se la scansione delle keyword deve essere giornaliera o settimanale. La prima utilizzerà 5 crediti, la seconda 1 credito (per saperne di più).
- Motore di ricerca: oltre a Google, puoi monitorare i ranking anche di Bing, Yahoo e Yandex.
- Tag: i tag ti aiuteranno ad organizzare le keyword, e vengono utilizzati anche per analizzare i concorrenti e l’Indice di Visibilità.
Team
Grazie a SISTRIX lavorare in squadra per ottimizzare il proprio sito è ancora più semplice. In questa sezione potrai aggiungere altri account al tuo progetto.
A differenza degli altri moduli di SISTRIX, qui potrai aggiungere anche utenti esterni alla tua azienda, decidendo se possono modificare le funzioni, ricevere mail di notifica o semplicemente visualizzare il progetto.
Cancella progetto
Puoi cancellare i tuoi progetti Onpage quando preferisci. Ricorda però che vengono cancellati davvero 😉 Tutti i dati relativi al progetto, così come le keyword, i ranking, la performance, le scansioni Onpage, verranno eliminati completamente dai nostri server e dalle nostre banche dati. Naturalmente scompariranno anche dai Report, nel caso vi fossero contenuti.