Mostrando postagens com marcador otimização sites. Mostrar todas as postagens
Mostrando postagens com marcador otimização sites. Mostrar todas as postagens

quinta-feira, 29 de março de 2007

Google faz update de canonalização

Já comentei aqui no blog sobre o problema de URL canonicais.
De forma bem resumida, canonalização é um processo onde o buscador escolhe a melhor URL quando existem varias semelhantes. Semelhantes, porém não iguais.

Para o Google as URL

www.example.com
example.com/
www.example.com/index.html
example.com/home.asp

são diferentes. URL diferentes que tem o mesmo conteúdo. Daí já temos dois problemas: canonical+ duplicação de conteúdo.

Não é que o Google irá identificar isso como SPAM. Problema canonical é muito comum, assim como a duplicação de conteúdo.

Quando o buscador tem que escolher um URL, ele automaticamente não dá relevância para as outras. Isso significa que estamos perdendo relevância. Se tivéssemos foco em uma URL a relevância poderia ser maior.

Nesta atualização que Matt Cutt anunciou em seu blog é para melhorar a forma de como o spider irá canonalizar um numero pequeno de URL. Isso não irá afetar o Page Rank da página, salvo para URL canonicais diferentes.

Agora, se você quer evitar o problema canonical em seu site, Matt tem duas dicas:

* Escolha uma URL para utilizar em seu site e links
* Você pode ter mais de uma URL, porém precisa fazer o redirect 301, para que o Google entenda.

Como fazer o redirect 301? O site Beyong ink explica como fazer no Apache, IIS, PHP, ASP e couldfusion.

sexta-feira, 23 de março de 2007

Os buscadores não lêem pop up?

Vamos acabar com este mito.

Os buscadores lêem pop up sim, desde que esteja bem feito.
Pop up são páginas web, então pode ser lido pelos buscadores.

O que faz o buscador chegar até essa página são os link, que devem estar em a href ou src, o que o spider consegue seguir. Se seguir essas regras, o buscador chega no pop up e le normalmente, como se fosse uma página web normal.

Agora, se este link estiver em javascript, não. O spider não entende como link, pula essa informação e ignora seu pop up.

terça-feira, 20 de março de 2007

Conteúdo Duplicado: o que é verdade e o que é mito.

Às vezes acho que as pessoas enxergam os buscadores como o próprio demonio que vive conspirando para os sites fiquem lista de SPAM.

Por exemplo, a questão do conteúdo duplicado, muito que se pensa é mito. Não que os conteúdos duplicados não sejam um problema para os buscadores. São, sem duvida nenhuma. Há muitas tentativas de enganar os buscadores. Mas, na grande maioria das vezes, são somente filtros, não penalidades. Filtros que existem para que a seleção das páginas nos resultados de buscas sejam mais relevantes para o usuário. Não podemos nos esquecer que este é o principal objetivo dos buscadores: gerar melhores resultados para as buscas. As vezes pensamos que estamos sendo punidos, mas não, são filtros somente.

As penalidades são reservadas para páginas que, de uma forma ou de outra, tentam enganar os buscadores. Para surpresa de muita gente, conforme escreve Jill Whalen na sua coluna no Search Engine Land, penalidades raramente acontecem. E quando ocorrem tem um motivo real para ter acontecido.

Os buscadores não são do mal. Eles têm filtros que tem como único objetivo de gerar melhores resultados, nada além disso. Se seu site não tem nada que tem engane os buscadores, então não tema. São só filtros. Os conteúdos duplicados não são SPAM, os SEs só querem apresentar para o usuário uma maior vairedade de resultado para o usuário. Os buscadores não conspiram contra os sites.

Deixo claro que não sou a favor da duplicação de conteúdos. Mas tê-los não é o fim do mundo. Vale muito a pena usar os redirects para URLs que levam para o mesmo conteudo, para evitar problemas canonicais, como afirma Matt Cutts.

Ah, toda quinta-feira tem um post na nova coluna do Search Engine Land, chamada de 100% Organic, escrita por Jill Whalen.

No blog do Google há um post muito interessante sobre o que o buscadores considera conteudo duplicado.

segunda-feira, 12 de março de 2007

Google alerta contra os tipos de páginas que são indexadas

Com o intuito de melhorar qualidade dos resultados de busca, o Google alerta para a nova regra de indexação de páginas no seu banco de dados.

Páginas que somente mostram como resultado um punhado de resultados de procura, devem receber a tag robot.txt, uma vez que não tem conteúdo relevante para os usuários.

Darei o mesmo exemplo que Danny Sullivan, mas para os resultados no Google Brasil.
Quando faço uma busca por "dvd Payer":




Repare nos resultados da pesquesas nos primeiros resulados: Bondfaro eAmericanas. Essas páginas têm algo em comum. O conteudo são simples listas de DVD players que estão a venda nessas lojas.

Matt Cutts sugere que o Google faça esforços para ir contra este tipo de conteúdo, uma vez que só são simples listas de resultado de busca.

No novo Guide Line do Google diz:

"Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don't add much value for users coming from search engines."

Então, já que o Google está se preparando para evitar de indexar essas páginas que são simples resultados de busca, é legal prevenir usando o robots.txt conforme reza a regra.

Agora, fazendo uma analise sobre isso tudo.

Acho genial a atitute do Google em apurar ainda mais os resultados de busca. Como usuária que sou do buscador, me incomodava profundamente sempre que procurava por palavras cujo resultados gerados eram páginas com outros resultados de busca.

Há pouco tempo passei por esta situação. Só queria saber mais sobre a configuração do lap top que estava para comprar. E só vinha resultados de páginas de busca de sites e-commerce.

Como profissional de search engine marketing acho interessante este tipo de atitude tanto pro SEO quanto para Links Patrocinados.

Para SEO teremos ate menos resultados, em contra partida serão resultados mais relevantes, informativos. É a vez e hora de otimizar as páginas desses sites.

Para Links Patrocinados, pode aumentar o numero de anuncios, sim, pq não?

Ah, e nada impede do buscador indexar páginas onde tem informações sobre os produtos. Por exemplo, quero comprar um livro e procuro no Google o nome do livro. Se o resultado for uma página onde traz informação sobre ele, ok! Satisfaz a minha procura e o buscador tb!

segunda-feira, 5 de fevereiro de 2007

"Content is the king"

Você já deve ter lido esta frase em algum lugar.

Pra mim está frase é a tradução fiel do que é um otimização de site.

É por conteúdo que os spiders procura quando rastreia a web. Uma tecnologia simples, sem barreiras para os spdiers e uma estrutura de links para ajuda-lo a navegar e dar relevância são mais do que bem vindos.

Então o que você deve fazer é otimizar o conteúdo da sua página para que o usuário encontre informações completas sobre o seu site. Um site amigável para o usuário, é também amigável para os buscador.

Ai que entra as palavras chaves. Toda página tem um conteúdo chave, que pode e deve ser explorado.

Na hora de criar ou otimizar um conteúdo lembre-se de que você sabe do que se trata seu site, mas o usuário não. ;)