segunda-feira, 30 de julho de 2007

Robot.tx: novo protocolo de exclusão

O último post da série Robots do blog do Google, vem com um novidade: agora o googlebot é capaz de ler mais um tipo de protocolo de exclusão de páginas do seu banco de dados.

Com essa mais nova Meta Tag você pode informar pro Google até quando a sua página ficará disponível nas páginas de resultado de busca, se vai ficar em cachê e se ela não deve ser indexada.

Bom pra evitar que sua página continue aparecendo nso resultados de busca depois de ser expirada, ou quando um determinada campanha sair do ar. Melhora os resultados de busca e é bom pra sua marca não ficar com conteudo velho indexado no Google.

:)

sexta-feira, 27 de julho de 2007

Hotlist

Saí da Hotlist.

Trabalhar na principal empresa de Search Engine MKT do Brasil foi uma grande honra e um enorme prazer. Fiz amigos para o resto da minha vida e aprendi muitíssimo.

Agora estou trabalhando com WebMetricas, mas especificamente com WebTrends, na CLM Software, importadora da ferramenta, com minha velha amiga Virginia Carcavallo. É um novo desafio e estou empolgadíssima com isso.

Estarei também trabalhando com SEO, agora com um foco maior em performance.

:)

terça-feira, 24 de julho de 2007

Privacidade na Web?

Fico me questionando sobre a questão da privacidade na web. Parece meio contraditório falar de privacidade nos dias de hoje, ainda mais na web.

Os defensores falam que a privacidade das informações que os buscadores pegam quando uma pessoa faz uma busca, podem gerar mau uso das informações como também, gerar algum tipo de vazamento da mesma.

Aí, vem o Ask.com e diz que vai lançar até o fim do ano o AskEraser, onde o usuário pode optar por não ter seus dados registrados, que são armazenados durante as buscas. Ou seja, será possível fazer uma busca anônima.

Ontem a Microsoft anunciou que tb irá entrar na onde das buscas anônimas.

A força tarefa agora fica pra fazer pressão para que outros buscadores, incluindo o google, tb tome medidas em relação a privacidade dos usuários. Pelo que leio o Google não curte muito essa idéia não, já que usa os dados para melhorar seus serviços, como fazem todos os outros search engines.

Mas, afinal que dados são esses? Os termos buscadores, o endereço IP, algumas informações de cookies do usuário, a URL do site visitado antes de chegar ao buscador, e por aí vai.

Sobre a busca anônima fico em perguntando: qual a percentagem de usuários que sabem o que é um cookie? o que é IP? Será que eles sabem o esses buscadores guardam seus dados de busca para pesquisas?


E mais: se o volume de buscas de uma palavras é o que faz uma palavras chave ter um custo maior, como será feita o preço da palavras no leilão dos links patrocinados? E como será possível melhorar o sistema de busca? Isso não seriam métricas que os SE usam para melhorar seus serviços?

Que privacidade é essa que tanto questionam? A dos usuários, que os buscadores irão saber oq eu ele fez em seu site? Oras, eu não posso mensurar o caminho dos visitantes no meu site? Alias, será que o usuário se importa de ser tão vigiado assim? Profile de Orkut, nick de Messenger, You tube, Flickr, Blogs, são algumas ferramentas que mostram que o usuário gosta de ver e ser visto.

Talvez, a solução para a questão dessa tal privacidade que andam questionando tanto não seja restringi-la, mas colocar leis para que os buscadores, portais e outros sites ofereçam as autoridades acesso a elas, quando essas acharem necessária.

E pq não, coloque a opção lá no buscador pra fazer busca anonima. Resta só saber se o índice de rejeição será o mesmo índice de hoje aos famosos cookies- entre 1 e 3 %, que mostra que os usuários não se importam de serem vigiados.

Alguma sugestão para ferramenta webmaster do Google?

Parece que o Google está levando a sério as criticas de que ele não usa o poder das pessoas para melhorar a qualidade de seus serviços.

Ontem, Matt Cutts colocou uma enquete em seus blog perguntando qual a ferramenta que nós desejamos que seja criada na ferramenta de webmaster do buscador, com o objetivo de melhorar o trabalho de otimização do site. As opções sao sugeridas pelo Matt, e a equipe de webmaster verá qual é importante.

A votação segue com os seguintes resultados:

quinta-feira, 12 de julho de 2007

Links externos ajudam no ranking?

A discussão é antiga e lá no Search Engine RoundTable tá discutindo.
Afinal os links externos melhoram ou não o posicionamento do site?
Há quem diga que sim, outros não.
Particularmente, me encaixo no segundo grupo. E não é por pessimismo não, posso sustentar minha opinião com 2 pontos:

1) Se afirmamos que quanto maior for o número de links externos apontados pro site, melhor o ranking, estamos usando isso como uma métrica, certo? Então faremos uma força tarefa (link building) para conseguir o maior numero de links apontando para um site, para melhoramos o ranking. Mas, temos como provar que melhorarmos no ranking por conta do aumento de links? A experiência não nos diz isso. Pelo contrário: vemos sites que tem muitos links apontando e nem estão bem posicionados assim.

2) O Google, em específico, já criou 'n' filtros anti-spam para justamente evitar as fraudes. Porque, do contrário, seria fácil aumentar o número de links apontando pra página, ou ate comprar ou vender links, para conseguir melhorar no ranking.

Um trabalho de otimização trabalha em três frentes obrigatoriamente: tecnologia, conteúdo e popularidade. Esses três pilares devem ser trabalhados para que o spider consiga dar relevância para a página.

Mas, a popularidade do site deve ser tratada com muita cautela. Trabalhar bem os links internos do site já pode ser um bom caminho. Ver quem pode ter uma página em potencial para colocar um link pra vc tb. E isso, não é SPAM, se pensarmos muito no quanto relevante o CONTEÚDO, da página linkada é. E é menos por causa do ranking e mais pela performance do site. Isso gera tráfego pro seu site. É bom pro usuário, bom pro buscador e bom pra seu site.

terça-feira, 10 de julho de 2007

Google tem 10.000 Editores Humanos

A afirmação é de Marissa Mayer, vice-presidente Produtos de Pesquisa e Experiência do Usuário do Google, quando foi questionada no evento Seattle Conference on Scalability sobre como o buscador reage aos "bad results".

Q: How do they tell if they have bad results?

A: They have a bunch of watchdog services that track uptime for various servers to make sure a bad one isn't causing problems. In addition, they have 10,000 human evaluators who are always manually checking the relevance of various results.


Fonte: Search Engine RoundTable

O que influência na busca natural?

Encontrei um texto super interessante no Waa sobre os fatores que podem influenciar nos diferentes resultados de busca.

Além do sofisticado sistema de algoritmo que correlata o conteúdo com o termo procurado pelo usuário, o autor lista outros fatores que na visão dele pode influenciar na busca universal:

1)Number de buscas por Individual Search Silo
2)Performance por visitas e rating dos videos do You Tube e Google Video
3)Clicks por listagem
4)Tempo gasto no site
5)Visitantes de retorno
6)Usability

Depois o autor lista algumas estratégias que podem ser trabalhadas para alcançar resultados na busca universal.

segunda-feira, 9 de julho de 2007

LinkBulding além do rank

Esse é um texto de Eric Ward em sua coluna no Search Enigne Land, onde explica que muita coisa pode ser tirada de um Link Bulding.

Vale a pena ler e pararmos pra pensar nos links como métricas de estudo, e não como algo que pode ou não melhor o ranking de busca. Aliás, o ranking por sí só não diz muito coisa, não?

Redirecionamento em cadeia

A regra é clara. Quando mudamos de domínio e não queremos perder a relevância no Google basta fazer um redirect 301 de um domínio para o outro.

Porque redirect 301 e não 302? Pq o 301 é definitivo e diz pro buscador que aquela página mudou de domínio, desta forma ele passa a indexar a nova URL.

O que parece ser uma novidade é quando fazemos redirecionamento em cadeia. Parece que quando isto é feito a relevância não permanece. Por exemplo: temos três URL: URL1, URL2 e URL3. Faremos um redirect da URL1 para URL2 e da URL2 para URL3.

Verifica-se que a relevância da URL 1 não será passada para URL3, se perdendo no meio do caminho. Desta forma, é preciso fazer um outro redirect que leva da URL1 para URL 2 e da URL 1 para URL 3. Aí sim a relevância será mantida.

Fonte: Search Engine Roundtable