Come creare robots.txt per wordpress

Stampa · Время на чтение: 6мин · di · Pubblicato · Aggiornato

giocareAscolta questo articolo

Come creare Robots.txt per WordPress - Creare il Robots.txt giustoCiao a tutti, oggi vi racconto come creare robots.txt per wordpress. Creazione di un file robots.txt è necessario innanzitutto indicare ai robot dei motori di ricerca quali sezioni del tuo sito il robot può bypassare e indicizzare e quali no.

Infatti, questo file di servizio serve per indicare al search bot quali sezioni del sito verranno indicizzate nei motori di ricerca, e quale robot di ricerca dovrà saltare. Ma devi capire che i robot dei motori di ricerca possono ignorare la direttiva di divieto e indicizzare la sezione. Tuttavia, tali casi sono piuttosto rari.

Il contenuto dell'articolo:

Robots.txt per WordPress - come si fa?

1. Crea un file di testo chiamato robots in formato .txt. Creato con un normale editor di testo.

Un esempio di come creare un file robots.txt per WordPress.
2. Quindi, inserisci le seguenti informazioni in questo file:

Agente utente: Yandex Non consentire: /wp-admin Non consentire: /wp-includes Non consentire: /wp-comments Non consentire: /wp-content/plugins Non consentire: /wp-content/themes Non consentire: /wp-content/cache Non consentire: / wp-login.php Disallow: /wp-register.php Disallow: */trackback Disallow: */feed Disallow: /cgi-bin Disallow: /tmp/ Disallow: *?s= User-agent: * Disallow: /wp- admin Non consentire: /wp-includes Non consentire: /wp-comments Non consentire: /wp-content/plugins Non consentire: /wp-content/themes Non consentire: /wp-content/cache Non consentire: /wp-login.php Non consentire: /wp- register.php Disallow: */trackback Disallow: */feed Disallow: /cgi-bin Disallow: /tmp/ Disallow: *?s= Host: site.com Sitemap: http://site.com/sitemap.xml

3. Sostituisci la direttiva Host: site.com (site.com) con il nome del tuo sito.
4. Nella direttiva Sitemap, specificare: il percorso completo della mappa del sito. L'URL può variare a seconda del plugin che genera la mappa sul tuo sito.
5. Salva e carica il file robots.txt nella cartella principale del tuo sito. Puoi farlo con qualsiasi client FTP.
6. Bene, il tuo file è pronto e funzionante. Ora, prima di eseguire la scansione del sito, i robot dei motori di ricerca accederanno a questo file di servizio.

Decodifica del file robots.txt (direttive)

Ora esaminiamo il file Robots.txt in modo più dettagliato. Cosa e perché abbiamo aggiunto al file robots.txt.
agente utente - direttiva, necessaria per specificare il nome del robot di ricerca. Con esso, puoi vietare o consentire ai robot di ricerca di visitare il tuo sito. Per esempio:

Vietiamo al robot Yandex di visualizzare la cartella della cache:

Agente utente: Yandex
Non consentire: /wp-content/cache

Consentiamo al robot Bing di sfogliare la cartella dei temi (con i temi del sito):

Agente utente: bingbot
Consenti: /wp-content/themes

Affinché le nostre regole agiscano in modo uniforme per tutti i motori di ricerca. Usa la direttiva: Agente utente: *

Consenti e non consentire - direttiva che consente e proibisce. Esempi:

Consenti al bot Yandex di visualizzare la cartella wp-admin:

Agente utente: Yandex
Consenti: /wp-admin

Impedisci a tutti i bot di visualizzare la cartella wp-content:

Agente utente: *
Non consentire: /wp-content

Questo robots.txt non utilizza la direttiva Allow, ciò che non vietiamo con la direttiva Disallow sarà consentito per impostazione predefinita.

  • Ospite - direttiva, necessaria per specificare il mirror principale del sito, verrà indicizzata dal robot. Tutto ciò che è di terze parti non verrà eliminato.
  • Mappa del sito - qui indichiamo il percorso della mappa del sito. Tieni presente che la Sitemap è uno strumento molto importante per la promozione del sito web! La sua presenza è essenziale, non dimenticartene.

Un esempio di un file Robots.txt esteso per il mio sito web

Ora diamo un'occhiata al file robots del mio sito. Tieni presente che modifico le direttive di divieto o autorizzazione in base alle mie esigenze. Se decidi di utilizzare il mio esempio, assicurati di rivedere il file e rimuovere quelle direttive che non ti servono.

Un esempio di file robots.txt, un sito personale.

Prendiamo il file robots.txt di questo sito:

# robots.txt User-Agent: * Disallow: /wp-json/ # informazioni tecniche Disallow: /wp-login.php # security Disallow: /wp-register.php # security Disallow: /xmlrpc.php # security, WordPress API file Non consentire: / template.html #informazioni tecniche Non consentire: /wp-admin #sicurezza Non consentire: */trackback #duplicati, commenti Non consentire: */commenti* #duplicati, commenti Non consentire: *commenti_* #duplicati, commenti Non consentire: /search #pagine dei risultati di ricerca del sito Web Non consentire : /author /* # autore e pagine utente Disallow: /users/ Disallow: /*?replytocom # snotty index Disallow: /*?replytocom* Disallow: /comment-page* # pagine di commento Disallow: /wp-content/cache #cache folder Disallow: */tag /* #tags - se appropriato Disallow: /tag/* Disallow: */embed$ #all incorpora Disallow: */?s=* #search Disallow: */?p=* #search Disallow: */?x= * #search Disallow: */ ?xs_review=* #pages post editor, anteprima visiva Disallow: /?page_id=* #pages page editor, anteprima visiva Disallow: */feed #all feeds e rss feeds Disallow: */?feed Disallow: */rss Disallow: *.php #file tecnici Disallow: /ads.txt # pagine di annunci tecnici, se appropriato Disallow: */amp # tutte le pagine amp - se si utilizza la tecnologia, non disabilitare. Non consentire: */amp? Disallow: */amp/ Disallow: */?amp* Disallow: */stylesheet #alcuni fogli di stile che sono comparsi Disallow: */stylesheet* Disallow: /?customize_changeset_uuid= #Duplicati tecnici del plug-in di cache e compressione Disallow: */?customize_changeset_uuid*customize_autosaved = acceso
# specifica ai bot i file necessari per la corretta visualizzazione delle pagine del sito. Consenti: /wp-content/uploads/ Consenti: /wp-includes Consenti: /wp-content Consenti: */uploads Consenti: /*/*.js Consenti: /*/*.css Consenti: /wp-*.png Consenti: /wp-*.jpg Consenti: /wp-*.jpeg Consenti: /wp-*.gif Consenti: /wp-admin/admin-ajax.php
1TP31 Autorizzazione per i bot a visualizzare cartelle con immagini User-agent: Googlebot-Image Allow: /wp-content/uploads/ User-agent: Yandex-Images Allow: /wp-content/uploads/ User-agent: Mail.Ru-Images Allow : /wp-content/uploads/ Agente utente: ia_archiver-Images Consenti: /wp-content/uploads/ Agente utente: Bingbot-Images Consenti: /wp-content/uploads/
1TP31 Specificare il mirror principale e la mappa del sito Host: https://nicola.top Mappa del sito: https://nicola.top/sitemap_index.xml

Conclusione

Ho parlato in modo sufficientemente dettagliato di come creare robots.txt per WordPress. Tieni presente che tutte le modifiche apportate a questo file saranno visibili dopo un po'. Puoi vedere la panoramica più completa nell'articolo su come creare robots.txt per un sito su vari CMS.

Modifica le direttive in base alle tue esigenze. Non è necessario inserire tutto senza pensare in questo file di servizio. Tali modifiche irresponsabili possono portare alla perdita e alla completa rimozione di pagine o sezioni importanti del sito dalla ricerca. Spero che questa guida ti sia utile, assicurati di lasciare commenti con domande.

Leggendo questo articolo:

Grazie per aver letto: AIUTO SEO | NICOLA.TOP

Quanto è stato utile questo post?

Clicca su una stella per valutarla!

Voto medio 5 / 5. Conteggio dei voti: 169

Nessun voto finora! Sii il primo a valutare questo post.

Potrebbero interessarti anche...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

1 × 5 =