venerdì 31 ottobre 2008

Come rimuovere link obsoleti dall'indice di google

Hai apportato modifiche al sito e alcune pagine ora non esistono più
Eppure in google ci sono ancora molti link che portano su quelle pagine, con il risultato che ogni volta che qualcuno ci clicca ottiene una pagina di errore.
Se il sito è stato rifatto ma tratta ancora del medesimo argomento, sarebbe utile riuscire a mantenere le pagine indicizzate in google e magari ridirigere il traffico che raggiunge pagine non più esistenti sule pagine nuove.
Questo si può ottenere inserendo le pagine mancanti e al loro interno mettere un redirect alle nuove pagine, oppure se si stà usando apache con modulo mod rewrite e si ha accesso a questo file, apportare le giuste modifiche al file .htaccess.
Tuttavia in alcuni casi è necessario che le pagine indicizzate debbano essere rimosse dall'indice di google, e alora come si procede?


Web master tool per la rimozione dei link
La procedura da seguire per rimuovere link a pagine ormai non più presenti sul nostro sito dall'indice di google prevede l'utilizzo di webmaster tool di google.
Prima di tutto è necessario che la pagina che si intende rimuovere dall'indice di google non sia effettivamente più raggiungibile (dagli spider di google), e questo accade nel caso in cui sia stata rimossa dal sito, ma può succedere che si voglia rimuovere dagli indici di google una pagina che è ancora presente sul nostro sito. Per impedire al crowler di google di reindicizzare la pagina bisogna prendere delle precauzioni.

Impedire ai Crowler di accedere ai dai da rimuovere dall'indice con i Meta tag

Nelle pagine da rimuovere dall'indice scrivete il seguente metatag:

<meta name="robots" content="noindex">

Questo meta tag impedisce a tutti i motori di ricerca di indicizzare la pagina in cui è contenuto.
Se invece vogliamo che solo google venga respinto dalla pagina inseriamo:

<meta name="googlebot" content="noindex">


Impedire ai Crowler di accedere ai dai da rimuovere dall'indice con Il file robots.txt

Un altro sistema per bloccare i crowler dei motori di ricerca è quello di usare un file robots.txt da inserire nella root del sito.
La sintassi di questo file non è complessa e praticamente consente di scegliere quali cartelle o file non devono essere scansite dai cowler dei motori.
Un esempio di questo file può essere il seguente:

User-Agent: *
Disallow: /file_personali/

Praticamente in questo caso il crowler indicizzerà tutti i file e cartelle tranne il contenuto della cartella file_personali.


Eseguire la richiesta di rimozione

Una volta assicurati che i file da eliminare non sono più ispezionabili dai motori di ricerca possiamo rimuoverli andando nel webmaster tool di google cliccando su:

Strumenti -> rimozione url

Configurazione sito -> Accesso Crawler -> Rimuovi url

poi sul pulsante "+ nuova richiesta rimozione" ci verrà chiesto se vogliamo rimuovere solo un file, una cartella o l'intero sito. per rimuovere l'intero sito, il file robots.txt dovrà contenere le seguenti righe:

User-Agent: *
Disallow: /

Ora inoltrate la richiesta e nel giro di 2-3 giorni le pagine saranno rimosse dall'indice di google a patto che vengano rispettate le condizioni sopra citate. nel caso in cui la rimozione venga negata saranno esposti i motivi.

venerdì 24 ottobre 2008

Ajax e l'indicizzazione

Tra le tecniche di sviluppo web, negli ultimi tempi, con l'avvento del web 2.0, si è prepotentemente imposto l'utitlizzo di ajax (acronimo di Asynchronous JavaScript and XML), un'impasto di linguaggi che non sono affatto recenti, tutt'altro.
Con ajax sono spuntati tutta una serie di framework (prototype, jquery...) più o meno semplici, più o meno efficaci che permettono di agghindare una pagina web fino a dargli l'aspetto di una vera applicazione stand alone.
Fulcro di ajax è quello di consentire, detto molto semplicente, di caricare contenuti dinamicamente solo in determinate porzioni della pagina, senza quindi essere costretti a ricaricare l'intera pagina web ad ogni click del mouse.
Questa tecnica affascinate e funzionale cela in se la fastidiosa peculiarità di essere refrattaria ai motori di ricerca. già perchè il motore non riesce a seguire i link che mediante javascript mandano al sito l'input di aggiornare i contenuti delle varie sezioni.

Un po' come succedeva per i siti sviluppati in flash, qualche tempo fà, quando i motori non erano in grado di leggere il loro contenuto (pare che ora ci riescano... ?!) si ricorreva alla cara vecchia sitemap, un file xml che riporti al suo interno tutti i link che compongono il sito, anche ora questa tecnica si rivela efficace per indicizzare i siti sviluppati in ajax, a patto che si abbia avuto un' occhio di riguardo nel costruire l'intero sito, e consentire quindi, anche inserendo un url corredato delle giuste variabili di aprire i contenut desiderati.
In questo modo lo spider di google (e affini) riusciranno a raggiungere anche le pagine più recondite e fare incetta di contenuti.

domenica 12 ottobre 2008

Strumenti per i webmaster (pubblicazione del secondo video.)

Google ha pubblicato il secondo video relativo agli "strumenti per i web master".
Come potete vedere nel primo post pubblicato i video saranno 6 e serviranno per prendere una maggiore confidenza con il tool messo a disposione da google.

Buona visione a tutti!

martedì 7 ottobre 2008

Il mito della prima posizione

In genere, tutti coloro che si cimentano con le tecniche SEO si prefiggono come obbiettivo quello di giungere nella prima posizione per una determinata parola chiave.
Hanno letto di tutto, sfogliato forum, appreso tecniche, e ora sono in possesso del "segreto" per cui riusciranno a raggiungere la vetta delle classifiche per la parola chiave che hanno scelto.
Sicuramente faranno un buon lavoro tecnico, sicuramente il sito sarà (sovra)ottimizzato per garantirgli quel risultato, ma siamo sicuri che questo porterà beneficio all'operazione di marketing nel quadro completo della situazione? No.
No, per il semplice motivo che ora il sito è visitato praticmante "solo" dalle persone che cercano risultati per QUELLA parola chiave. ma non è detto che siano le sole persone interessate al prodotto offerto dal sito. I potenziali clienti sono stati decimati da una scelta "supertecnica" del sedicente ottimizzatore.
Il consiglio che posso dare, è quello di cercare di posizionare il sito all'interno della prima pagina dei motori di ricerca. Ogni pagina del vostro sito (come è già stato ripetuto più volte) deve essere l'approfondimento di un determinato argomento e i contenuti di ogni determinato argomento devono essere costruiti intorno a una collezione di parole chiave (i sononimi sono importanti anche se ormai i vocabolari della gente si sono assotigliati). In questo modo riuscirete a inserire pagine diverse del vostro sito all'interno della prima pagina (dalla posizione 1 alla 10 di default) di Google e complessivamente il sito avrà una visibilità molto maggiore di un sito che compare in prima posizione solo per una parola chiave.