sábado, 15 de dezembro de 2007

Usar a Alt Tag de forma correta

Além da importância na questão da proeminência das palavras-chave no seu site, as Alt Tag ajudam o Google a entender o que significa a sua imagem.

Isso foi dito por Matt Cutts no vídeo abaixo. Ele exemplifica, diz o que é ou não spam, e ainda afirma que podemos usar outros atributos como Title, mas o Alt Tag ajuda bastante o Google Image e de quebra na otimização do seu site tb.

Google Webmaster avalia Title Tag e Meta Tag Description

A mais nova feature da ferramenta webmaster do Google avalia as Titles Tags das páginas do seu site e as Meta Tag Description também. É o que eles chamam de análise de conteúdo e consegue identificar se a Title está repetidas ou faltantes.

E com toda a confusão em torno do Dmoz, agora o Google avalia a Meta Tag Description, já que essa pode aparecer no resultado de busca e ser determinante no click o usuário. Os problemas que a ferramenta pode dectetar são: descrições faltantes, duplicadas e problemáticas. Problemáticas entende-se descrições que tem intenção de enganar o usuário, ok?

Além disso, a ferramenta identifica conteúdo não vistos pelo googlebot.

Google Toolbar: além do Page Rank

Novas funções da barra do Google, no Blog Oficial do Google Webmaster

:)

terça-feira, 4 de dezembro de 2007

Links e Post Pagos

Já não é novidade que o Google atualizou seu famoso sistema de algoritimo e a grande bomba dessa vez foi a punição aos links pagos. Num raciocínio lógico dá pra entender que os links pagos no fim das contas é uma concorrência, além de ser contra a filosofia do buscador. Matt Cutts colocou um post no começo do ano tirando dúvidas sobre paid links, o que é, como denunciar, etc.

E nessa onda de Social Media Optimization, o Google passa a dar os primeiro sinais de repúdio aos post pagos. Sem, os post nos blog. E o mesmo Matt Cutts escreveu um post falando sobre o assunto, dando uma explicação de acordo com o objetivo dos buscadores em ser uma fonte de informação para as pessoas, e que os post pagos podem atrapalhar.

segunda-feira, 26 de novembro de 2007

Sites Banidos da Busca do MSN

O MSN andou banindo alguns sites do seu banco de dados de forma injusta. É o que estão dizendo nos Fóruns e no Search Engine Roundtable.

Sites banidos, ferramenta webmaster que não funciona....

quarta-feira, 21 de novembro de 2007

Live Search Webmaster Tools - Problemas

Pensei que só fosse comigo, mas pelo visto os problemas com a ferramenta Webmaster do Live é geral.
Eu nem consegui cadastrar o site. Humpf!
Mas justiça seja feita, o feedback deles está bom, só falta dar resposta a este problema....

terça-feira, 20 de novembro de 2007

Berrypicking e search usability

Aproveitei o feriado para tentar colocar a leitura em dia.

Encontrei no Search Engine Land um artigo entitulado de "Understanding Search Usability", e de lá fui parar o documento sobre Search Behavior escrito pela professora da UCLA Marcia Bates, em 1989.

Pois é, muito antes do Google e Yahoo surgirem, ela fez um estudo de como seria a pesqusia por informação através de um mecanismos de busca online. Aí ela chegou ao conceito de berrypicking e escreveu o documento que comentei acima, que foi entitulado de: THE DESIGN OF BROWSING AND BERRYPICKING TECHNIQUES
FOR THE ONLINE SEARCH INTERFACE.


Berrypicking é, de uma forma bem resumida, a forma de como pesquisamos alguma coisa usando os mecanismos de busca. Ou seja, a busca não é linear, como muitos podem pensar, fazemos varias pesquisas, selecionamos os melhores resultados e chegamos a um resultado final.

Shari Thurow, autor do texto do "Understanding Search Usability" definiu que o usuário pode ter uma série de comportamento quando realiza uma busca. São eles:

Querying
Refining
Expanding
Browsing/surfing
Pogo-sticking
Foraging
Scanning
Reading

E diz que o termo "search usability" se aplica a todo search behavior e não especificamente a um tipo de comportamento. Por isso que a pesquisa feita pela professora da UCLA é tão importante, porque há anos atrás ela definiou o comportamento chamado berryspicking como o verdadeiro comportamento das pessoas que buscam por informações e este tipo de conhecimento pode guiar na criação de interfaces melhores para web pages. Isso sim é search usability!

O problema é que SEO e profissinais de AI ainda parecem viver em mundos diferentes. Enquando profissionais de SEO definem como comportamento de busca:

Querying
Refining
Expanding

Os profissionais de AI pensam que é:

Browsing/surfing
Pogosticking
Foraging
Scanning
Reading

No fim, Shari conclui que: "The term "search usability" addresses all search behaviors on a single web site, not only querying behavior, and not only browsing behavior. A user-friendly, search-friendly web site accommodates berrypicking behavior and delivers searchers to the information they desire as quickly and easily as possible."

sexta-feira, 16 de novembro de 2007

AJAX e SEO

Cada vez mais webmasters estão usando AJAX para construir sites. O resultado são sites mais dinâmicos, mais interação com o usuário e uma taxa de transferência menor.

Tudo muito bom, mas assim como o Flash atrapalha a vida do robô dos buscadores o AJAX também. Isso porque os links e conteúdos da página ficam dentro do JavaScript, e os robôs, ainda, não decodificam esses códigos.

Mas nem tudo esta perdido. Há como se usar o AJAX sem prejudicar os robôs. No blog do Google encontrei um post nomeado de "A spider´s view of Web 2.0", onde responsáveis pela área de Search Quality do Google escrevem como podemos usar AJAX sem perder o foco de SEO.

Vale a leitura.

quinta-feira, 1 de novembro de 2007

Isso te diz alguma coisa?

O site e-marker lançou no mês de outubro a lista dos 8 sites com maior número de pageviews. Olha só!




Reparou que 4 desses sites são comunidades e que o primeiro lugar está o Yahoo!, que tem como foco as redes socais?!?

Continua sem dizer muita coisa?

terça-feira, 30 de outubro de 2007

Confirmado - Google pune links pagos

Se lembra da história da atualização do Page Rank e o links pagos?

Então, saiu no Search Egine Journal que Matt Cutts confirmou as suspeitas: sim na atualização do PR, o Google está punindo os sites que compram links. Não se sabe quais sites foram punidos, mas que estão sendo punidos isso estão.

Com essa história pelo menos as estratégias milagrosas de Link Bulding deve diminuir. Ufa!

quinta-feira, 18 de outubro de 2007

A nova busca do Yahoo!

O Yahoo! resolveu correr atrás e, finalmente, fez uma mudança grande em seu sistema de busca. Como era previsto, o Yahoo está cada vez mais próximo de busca social, inclusive apresenta como resultados fotos do Flickr, vídeos do Yahoo vídeo e You tube e respostas de usuários do Yahoo! Respostas. O que nos faz pensar que o fator SOCIAL para o Yahoo! pesa bastante.

Mas o que mais me chamou a atenção nem foi muito isso, mas sim a qualidade do resultado. Andei fazendo umas buscas e, surpreendentemente, obtive bons resultados. como há tempos não via.

Será que dessa vez emplaca?

terça-feira, 9 de outubro de 2007

WebAnalytics para SEO

No final de setembro, me passaram o seguinte artigo de Eric Lander do Search Engine Journal: 3 Reasons Google Analytics Fails for SEO
Os motivos que Eric dá para sustentar esta afirmação são:

1) O GA utiliza a revolucionária tecnologia de tags para coletar dados. Porém essa tecnologia não traz informações importantes para SEO, como por exemplo a visita dos spiders no seu site
2)GA não lê log do servidor
3)Google retém todas as informações

Deixei no blog o meu comentário sobre este artigo.

Mas lá vai a minha critica.

O Google paga pela fama que tem. Quem tem fama deita na cama e leva a culpa por tudo.

Tudo que Eric falou é certo, mas não é exclusividade do Google, mas sim de todos as empresas que vendem o serviço e não a estrutura de webanalytic.

O Google não é o unico a usar a tecnologia das tags para coletar as informações. E nem tão pouco é o unico que oferece isto como serviço. Então todos os outros também tem as mesmas falhas. A exclusividade não é do GA. Agora, ser gratuito é outro assunto,que não está em pauta.

Sim, as tags não nos trazem informações importantes para SEO, mas traz muitas outras informações importantes para equipe de marketing que o log do seu servidor web não traz. E informações que muitas e muitas vezes foram pedidas por clientes. Essas informações só podem ser coletadas por tags por acontecem no lado do usuário e não ficam registradas no servidor web. O mundo ideal? Ter uma sistema de webanalytics hibrido que trabalhe com tag e com tag.

As informações ficam no Google porque ele oferece o serviço e não a estrutura! As tags coletam informações que são anotadas num documento (log) que fica guardado num servidor, lá no Google. Para ter acesso, teriamos que ter uma estrutura no nosso ambiente, onde os logs iam ser gravados e lidos. Mas aí não é mais um serviço, mas uma estrutura de webanalytics. E não é só o Google que oferece este serviço e fica com a sua informação.

Ultimo ponto é: a tecnologia das tags surgiu de uma exigencia do proprio clientes. Não só pelas informações a mais que queria saber, mas porque os clientes queriam analisar a performance da sua página, mas não queria ter o trabalho de instalar um hardware e software no seu ambiente. Seja por dinheiro ou por falta de estrutura, fato é que a tag foi uma revolução de serviço muito bem aceita pelo mercado.

Para SEO, as tags, deixam a desejar por todos os motivos descritos no texto, mas não é um problema do Google Analytics, mas de todos os outros webanalytics do gênero.

:)

Google e atualização do Page Rank e a historia do links pagos

Pronto!
Foi feita a atualização do Page Rank do Google. Isto significa que uma modificação grande foi feita na formula do seu algoritimo.

Muito mais importante do ficar pensando quantas posições sua página irá perder ou quantos pontos menos ou mais a barrinnha do Google irá lhe trazer, temos que pensar onde as mudanças foram feitas. Parece que desta vez o Google resolveu atacar os links pagos e os diretórios, que há pouco tempo rolava o boato que estava cobrando para manter os sites no sue banco de dados, visto que havia uma credibilidade dada pelo buscador.

Links pagos e jogar dinheiro fora são sinônimos. Pára a ação, cai tudo: tráfego, posição, esforços. Ok! Isso ate pode gerar alguns links expontâneos. Mas e a relevancia? E a credibilidade?

Ah, a credibilidade...Quanto tempo demora para conseguirmos a credibilidade de alguém? Se comprar links fosse coisa boa e gerasse bons resultados e credibilidade para quem faz a busca, os reino dos diretorios não teria acabado. Só quem tem grana pra comprar pode se beneficiar. E esta não é a proposta do Google e acabou, por tabela, também não sendo a proposta de outros buscadores tb.

No fim, o Google continua com uma otima estratégia de branding. Anuncia a atualização do PR, gera um tititi no mercado e valoriza sua marca, por mais que muitos SEOs acham o PR obsoleto. Não, o Google não irá eliminar o PR da barra pq além de tudo é uma otima ferramenta de relações públicas.

segunda-feira, 24 de setembro de 2007

Google penaliza os Diretórios

Há uma mês se comenta nos principais blogs de SEO: O Google está penalizando manualmente alguns dos diretórios mais importantes. No dia 3 de setembro o site Sphinn listou os seguintes diretorios que não estão mais rankeados no Google por nome da marca:

Aviva
Alive
Big Web Links
Biz-Dir
ewebpages
Directory Dump
Elegant Directory

Aí começou o boca-aboca virtual. Rand Fishkin fez um post comentando 'como se faz um bom web diretorio e porque o Google Penaliza Alguns. Matt Cutts colocou alguns comentários no forum do Digital Point.

Mas a surpesa maior estava por vir. Agora Dmoz não tem mais sua home listada na busca organica do Google. Há um mÊs foi comentado no Search Engine Roundtable sobre um cara que colocou em seu blog que havia sido extorquido por um editor corrupto do Dmoz: para ter seu site no Dmoz precisaria pagar a abagatela de 5000 dolares.

Não se sabe se o boato de extorsão exposto no blog Shoemoney.com influenciou na penalidade do Dmoz. O que sabemos, e é com isso que devemos trabalhar, é que o Google utilizava o Dmoz para auxiliar no rankeamento dos resultados organicos. E se houve uma punição, fica claro a preocupação dele pela imparcialidade dos seus resultados.

Mais sobre o caso de extorsão do Dmoz: Joost de Valk

segunda-feira, 17 de setembro de 2007

Search Result Feature

Para quem acha que a era dos spider vai acabar um dia... acho que não tenho uma boa noticia.

Encontrei no Search Engine Roundtable um post falando que o Google está testando uma nova ferramenta onde nós, usuários, poderemos sugerir resultados para a busca. Isso ajudaria a melhorar o resultado de busca.

Seria assim:


A pergunta que fica no ar é: é uma nova ferramenta de busca personalizada?
Isso tudo me faz pensar que as métricas de sucesso de SEO se afastam da posição do ranking ao longo do tempo e fica cada vez mais distante também a ideia de um buscador feito 100% feito pelas pessoas.

O volume é o primeiro dos problemas.

Por maior que seja a equipe de editores não há como competir com a máquina. Então, as spiders continuaram firmes e fortes.

O segundo dos problemas é a parcialidade. Lembro-me o quanto era dificil encontrar as coisas na era dos diretorios.

Só que a opinião das pessoas é algo que deve ser levado em conta. Existe uma infinidade de sites no mundo todo e os buscadores só indexam uma pequena parte desse montante. Imagine quantos sites legais tem por aí e os buscadores não pegam??? Então, se cada um sugerir e esta página entrar no banco de dados do buscador, respeitando as regras dos mesmos, seria uma maravilha. Por que indexada a página estará, o que já é bom caminho.

Artigos

Dois textos muitos interessantes do Chris Boggs no SEW.

-O primeiro fala sobre como o link building pode ajudar na performance de sites grandes.
-O segundo fala do planejamento de um projeto SEO

;)

domingo, 16 de setembro de 2007

As long tails e a lei das categorias

Estou lendo novamente os livro Long Tail de Cris Anderson.
A vantagem de reler as coisas é que sempre vem um coisa nova que deixamos escapar na primeira leitura.

Fiquei parada na teoria dos 80/20 e quando ele fala: "mas, meu interlocutor atuava no mundo digital, que é diferente do universo tradicional". Parei aí e me lembrei de uma aula de marketing da faculdade. Lembro-me que o professor passou um video, não me lembro qual e nem quem estava falando, mas era um guru de marketing falando para uma camera sobre as leis do marketing. E a que mais me chamou a atenção foi a "Lei da Categoria". Essa lei diz o seguinte: se vc nao pode ser o primeiro lugar, invente uma categoria e seja lider nela.

Pense bem, tudo é assim. A lei da categoria que falava no video é o mesmo mercado de nicho que Aderson defende no livro. E como todo o mercado tem as sua particularidades, este mercado de nicho que a web deu grande força para crescer, tem as suas paritcularidades. Por isso que o mundo digital é diferente do universo tradicional. Por que no mundo digital, não funciona mais com a ideia antiga do marketing onde o cliente escolhe o que o publico vai ler, ver...Não, no mundo digital quem escolhe é o usuário. Por isso que na categoria mercado de search quem manda é o usuário. Ele que sabe o que procura. E não trabalhar com as log tails é pensar que todos procuram pela mesma coisa da mesma maneira. E cá entre nós...não é bem assim. Basta nos pegar num momento fazendo uma pesquisa no Google, Yahoo!, MSN, ou qq outro buscador.


;)

terça-feira, 11 de setembro de 2007

Googlebot não consegue acessar a Home Page

No Search Engine RoundTable os webmasters discutem o fato do Googlebot está expirando o tempo que tem para rastrear a página antes mesmo de chegar até ela.

Isto está acontecendo com vários webmasters e em vários servidores.

Quando verificado no Google WebmasterTool o erro que aparece é: "We can't currently access your home page because of a timeout." E quando procura aprofundar sobre o porquê do problema: "URL timeout: DNS lookup timeout."

Assim, é certo que é um problema do Google ou algum host fora do Google. A pergunta que fica no ar é: Does Google need to clear their DNS cache in order to be able to recrawl these sites?

Qual a conseqüência deste problema? A indexação. Se existe este erro e tem alguma coisa que impede do robô chegar até o servidor, significa um tempo maior na indexação das páginas.

Já tive este problema. Demorou semanas até finalmente o robot leu a página e indexou com as mudanças que tinha feito.
Agora, é esperar o Google tomar uma providencia em relação a isto, como falou a sua representante:

“Just wanted to let you know that we're looking around to see if this is being caused by something on our end. Also, as webado noted, it helps if you post the URL in question.”

segunda-feira, 3 de setembro de 2007

MSN Webmaster Tools

Depois do Google Webmaster Tools e da Yahoo Site Explore,agora é a vez do MSN anunciar que irá lançar a sua ferramenta webmaster.

E faz um convite para quem quiser participar do programa beta nos proximos meses. é só enviar e-mail para: lswmp@microsoft.com

Outros links:Search Engine Land

sexta-feira, 31 de agosto de 2007

Ferramentas de SEO

Lista de ferramentas de SEO listadas no SEOBook e SEOMoz

quinta-feira, 30 de agosto de 2007

SEO - temos que mudar nossos conceitos

Quando comecei a trabalhar com SEO o foco maior do projeto era o posicionamento do site para um punhado de palavras-chave. Todos os meses fazíamos um relatório de acompanhamento com um ranking de 'x' palavras e a sua evolução ou não na posição do ranking.

Não tínhamos noção das long tails.

O que me incomodava naquela época era forma míope de como víamos as coisas. Pensava porque só trabalhar aquele punhado de palavras, enquanto tínhamos varias e varias outras palavras que levavam visitas pro site, que somadas respondiam a mais da metade das visitas vinda dos buscadores. E quando verificava qual era a posição delas no google, y!, etc, constatava que a posição era boa.

Só q a frustração era grande ainda. Pois o que mostrava para os clientes era o tal ranking de palavras que nunca evoluía. Era um PPT requentado, como ouvi uma vez.

Agora não. Apesar de ser uma forma encantadora de vender SEO falando que seu site estará na primeira página do buscador, essa não é a melhor forma de defender. E nem tão pouco entregar um relatório para o cliente com ranking das palavras que ele olha e diz: "ok, mas e daí? o que isso me traz de bom?"

O tráfego. Um dia mostrei para um cliente que atendia um gráfico com a evolução das visitas no site desde que ele começou o projeto de SEO. O sorriso na cara foi imediato. Pq agora sim ele estava vendo as coisas acontecerem. E a minha frustração diminuiu.

E as long tails? Fiz um teste com elas tb. Fizemos mais conteúdos pro site usando as log tails e melhorando a estrutura interna das páginas. Passado alguns meses, fiz um estudo analisando as top pages do site, e lá estavam as páginas com novos conteúdos criados trazendo visitas vinda dos buscadores. E eram visitas consideráveis.

É hora de mudar nossos conceitos sobre otimização de site. SEO melhora o posicionamento? Sim, melhora. Mas, posicionamento está se tornando algo cada vez mais relativo. E temos muito mais para oferecer para nossos clientes do que relatório de ranking, somente.

:)

terça-feira, 28 de agosto de 2007

Aumento do trafego do site é a sua métrica de sucesso? Talvez você tenha que rever o seu conceito

Pois é. É hora de rever nossos conceitos e passar a analisar os nossos relatorios de visitas com outros olhos.

Nem sempre o aumento de visitas, do tráfego significa que vc esteja convertendo as vendas. Sim, quanto mais visitas, maior chances de vendas, mas se soubermos analisar corretamente os dados que nos são mostrados no relatorios de acesso, podemos escolher qual a melhor estrategia para converter as visitas em vendas, e não só nos preocupar com o aumento das visitas mensalmente.

É tempo de mensurar o que interessa!

No site da WAA tem um artigo bem interessante que mostra bem um caso como este. Se formos analisar o numero de visitas, iremos perceber que houve um aumento, mas se formos analisar as visitas/dia, teremos uma queda.

Se formos ver o numero de vendas, ela aumenta, mas se for visitas/dia, temos uma queda.

Bem interessante o aritgo: How do you spell sucess for your website?

'Dynamic URL Rewriting' no Yahoo! Site Explorer

O Yahoo! está lançando um recurso no Yahoo! Site Explore que irá ajudar com o problema das URLs dinâmicas.

É o 'Dynamic URL Rewriting', uma ferramenta que irá ajudar os donos de sites a avisar o Yahoo! quais parâmetros quer que o Yahoo! ignore ou qual quer que o robô sempre leia.

Não testei ainda essa nova ferramenta, está na minha lista de tarefas a fazer.
Mas, a princípio a ideia parece boa.

segunda-feira, 27 de agosto de 2007

Carta de melhoria para o Google

Jane Copland do SEOMoz, resolveu postar no blog da empresa uma carta para o Google, onde coloca 10 pontos que o Google poderia melhorar em seus serviços.

O titulo do post é Dear Google e ela sai listando tudo que acha que pode ser melhorado.

Algumas coisas eu concordo outras nem tanto. Mas o que me deixou mais "surpresa" foi com o ultimo item, sobre o Orkut. Vê lá:

A busca personalizada, Jane pede pro Google deixá-la se desligar da mesma. Por favor, coloque um aviso bem grande para saber se eu quero ou não sair da busca personalizada. Não vou ficar toda hora dando logout na conta do Gmail, diz ela.

Sobre a busca de imagem ela é sutil: Make Image Search...better. E ela tem razão.

Sobre o Gmail, ela reconhece o bem que foi a criação, mas pede por favor pra parar de colocar todas as pessoas que ela envia e-mail no seu Gtalk. Eu ainda acrecento mais: os contato do orkut...não quero que qq pessoa q me adicione no orkut tenha meu gtalk.

Ela diz que gostaria de poder personalizar os links que ficam a ciam do SERPs e para o google ter mais logos customizados durante o ano, e não somente duas vezes ano ano.

E ela comenta tb sobre Wikipedia e Digg nos resultados organicos e sobre o Orkut.

E é sobre o Orkut a parte que mais em chamou a atenção. Ela começa o ultimo ponto da sua relação assim: Is Orkut really necessary? e termina assim: Please aceept defeat in the social networking circle.

Esta frase me fez pensar concluir duas coisas óbvias:
-o orkut não é popular nos EUA (novidade!!!)
-não só esta menina, mas os americanos de forma geral vivem numa bolha e não conseguem ver nada além do seu umbigo.

Pergunta: Porque ela não sai do Orkut?

domingo, 26 de agosto de 2007

Como vender Social Media Optimization para seu chefe

Rohit Bhargava, quem criou o termo SMO há um ano atrás, colocou agora em seu blog um post com 5 dicas de como convencer o seu chefe ou cliente, a investir em social media e criar um blog. Você vai precisar de argumentos para convencê-lo, Bhargava dá a dica:

1)As pessoas estão falando sobre sua empresa: procure no Technorati ou Google's Blogsearch palavras-chaves ou o nome da sua empresa e veja quantas conversações existem;

2)As conversações são altamente visíveis: faça uma busca rápida por palavras-chaves com o nome da marca e veja o numero de resultados que aparecem nas 30 primeiras páginas;

3) A sua empresa não está fazendo parte da comunicação, não tem voz ativa na conversa;

4)Os seus concorrentes já estão lá;

5)Podemos começar pequeno e aos poucos ir aumentando a ação.

+Táticas de Social Media Marketing

domingo, 19 de agosto de 2007

Googlebot consegue ler Javascript. Será?

Navegando pela web, encontrei um artigo no Hacker Webzine, que relata que o Google pode estar sendo capaz de executar instruções em Javascript. Seria um Javascript especial, com um comando que identifica se o usuário tem o javascript habilitado e se é realmente uma pessoa e não um robô.

No artigo tem o exemplo desse código especial.

A principal motivação para o Google ler o Javasript, segundo o artigo, seria os vários sites utilizando a tecnologia AJAX, que dificulta a indexação dos sites.

Só uma lembrança: é possível sim utilizar AJAX e deixar seu site visível para os robô.

Fonte: Predicta naMedida

quarta-feira, 8 de agosto de 2007

PR (PageRank) = PR (Public Relations)

No dia 27 de abril deste ano, escrevi um post chamado de "Page Rank não é tudo", no qual defendo a tese de que o PR é uma ótima estratégia de marketing do Google para promover a sua marca.

Pois bem, hoje li no Search Engine Roundtable que o Tedster, administrador do WebmasterWorld, também tem o mesmo pensamento:

"As I see it, PR (PageRank) = PR (Public Relations), and that's the main reason that Google keeps Toolbar PR report around. Branding. Image. Mindshare."

Sabemos que o PageRank não é a resposta final, mas mesmo assim muitos insistem em usá-los como metricas de sucesso em SEO.

No fim do post, o Search Engine Roundtable pergunta se os leitores acham que o PR deve ser retirado da barra do Google, se é uma campanha de Public Relations.

Eu continuo com minha linha de pensamento. Acho que é uma campanha de branding do Google sim e não representa muito a realidade.

terça-feira, 7 de agosto de 2007

Minty Fresh Indexing: o tempo de indexação é cada vez menor

Tenho percebido que o Google está indexando cada vez mais rápido as páginas nos resultados de busca. Rápido mesmo, questão de horas ou menos.

E hoje encontrei um post do Matt Cutts falando exatamente sobre isso. O que ele chama de Minty Fresh Indexing.

O tempo de indexação dos buscadores evolui a cada ano. Existe uma necessidade grande de ter o conteúdo novo listado na página de resultado de busca. Necessidade nossa, que utiliza os mecanismosde busca para procurar informações.

No blog do Matt Cutts também tem um post interessante sobre a diferença entre algorithm updates e data refreshes.

domingo, 5 de agosto de 2007

“Web 2.0 é picaretagem”

Essa é a tese defendida pelo historiador inglês Andrew Keen em seu livro The Cult of the Amateur (O Culto ao Amador), que vai contra todas as discussões que envolvem o tema Web 2.0.

Para ele esta tendência pode acabar matando a midia tradicional; e os blog e sites que tem mundo a fora são muitas vezes escritos por pessoas leigas. O medo de Andrew Keen, é que esses blogs e sites substituam as fontes confiáveis de informação e as pessoas passem a acreditar em tudo que lêem. O que não significa que ele seja contra a blogsfera, que pode ser muito útil, se a pessoa estiver familiarizada com a notícias, se já tenha lido os jornais antes.

Sobre a característica principal da Web 2.0 ser uma manifestação da "sabedoria da multidão", Andrew diz que na verdade essa "sabedoria da multidão" está sendo sequestrada por uma elite, uma oligarquia que escreve na web, porque nem todos editam a Wikipedia, escrevem blogs ou adiciona recomendações no Digg por que não temos tempo, interesse ou energia pra isso. E assim, ficamos refém de uma minoria que se interessa por isso.

Keen ainda questiona a confiabilidade de Wiki e do Digg, uma vez que se prestam a corrupção e que há "evidências de que as pessoas estão usando esses sistemas em benefício próprio"

Essa discussão de que uma nova tendência vai matar a outra já é velha e já se comprovou que não acontece na maioria das vezes, que as formas diferentes de midia podem coexistir. A diferença é que com a Web podemos colocar nossas ideias no ar, para quem quiser ler. E quem não tem tempo, interesse ou energia, não escreve. Ninguém fica refém disso.

Agora ter fontes seguras sobre os assuntos é de suma importância. E aí sim temos que pesquisar e ver qual fonte está falando a verdade. E neste ponto entra os jornais e revistas, livros que tem pontos de vistas diferentes. E que tb, podem ou não publicar e comentar sobre determinado assunto. E isso sim é tornar refém o leitor. E é nesse ponto que a Web 2.0 entra com mais força. Porque com espaço para escrever e questionar não nos tornarmos reféns de um elite que escreve o que lhe convém. E a colaboração e as comunidades da Web 2.0 são muito importante.


Não acho que a Web 2.0 nivele por baixo a produção de conteúdo. Isso é subestimar a capacidade dos leitores têm de filtrar todas as informações que nos são jogadas diariamente.

Entrevista Revista Época

segunda-feira, 30 de julho de 2007

Robot.tx: novo protocolo de exclusão

O último post da série Robots do blog do Google, vem com um novidade: agora o googlebot é capaz de ler mais um tipo de protocolo de exclusão de páginas do seu banco de dados.

Com essa mais nova Meta Tag você pode informar pro Google até quando a sua página ficará disponível nas páginas de resultado de busca, se vai ficar em cachê e se ela não deve ser indexada.

Bom pra evitar que sua página continue aparecendo nso resultados de busca depois de ser expirada, ou quando um determinada campanha sair do ar. Melhora os resultados de busca e é bom pra sua marca não ficar com conteudo velho indexado no Google.

:)

sexta-feira, 27 de julho de 2007

Hotlist

Saí da Hotlist.

Trabalhar na principal empresa de Search Engine MKT do Brasil foi uma grande honra e um enorme prazer. Fiz amigos para o resto da minha vida e aprendi muitíssimo.

Agora estou trabalhando com WebMetricas, mas especificamente com WebTrends, na CLM Software, importadora da ferramenta, com minha velha amiga Virginia Carcavallo. É um novo desafio e estou empolgadíssima com isso.

Estarei também trabalhando com SEO, agora com um foco maior em performance.

:)

terça-feira, 24 de julho de 2007

Privacidade na Web?

Fico me questionando sobre a questão da privacidade na web. Parece meio contraditório falar de privacidade nos dias de hoje, ainda mais na web.

Os defensores falam que a privacidade das informações que os buscadores pegam quando uma pessoa faz uma busca, podem gerar mau uso das informações como também, gerar algum tipo de vazamento da mesma.

Aí, vem o Ask.com e diz que vai lançar até o fim do ano o AskEraser, onde o usuário pode optar por não ter seus dados registrados, que são armazenados durante as buscas. Ou seja, será possível fazer uma busca anônima.

Ontem a Microsoft anunciou que tb irá entrar na onde das buscas anônimas.

A força tarefa agora fica pra fazer pressão para que outros buscadores, incluindo o google, tb tome medidas em relação a privacidade dos usuários. Pelo que leio o Google não curte muito essa idéia não, já que usa os dados para melhorar seus serviços, como fazem todos os outros search engines.

Mas, afinal que dados são esses? Os termos buscadores, o endereço IP, algumas informações de cookies do usuário, a URL do site visitado antes de chegar ao buscador, e por aí vai.

Sobre a busca anônima fico em perguntando: qual a percentagem de usuários que sabem o que é um cookie? o que é IP? Será que eles sabem o esses buscadores guardam seus dados de busca para pesquisas?


E mais: se o volume de buscas de uma palavras é o que faz uma palavras chave ter um custo maior, como será feita o preço da palavras no leilão dos links patrocinados? E como será possível melhorar o sistema de busca? Isso não seriam métricas que os SE usam para melhorar seus serviços?

Que privacidade é essa que tanto questionam? A dos usuários, que os buscadores irão saber oq eu ele fez em seu site? Oras, eu não posso mensurar o caminho dos visitantes no meu site? Alias, será que o usuário se importa de ser tão vigiado assim? Profile de Orkut, nick de Messenger, You tube, Flickr, Blogs, são algumas ferramentas que mostram que o usuário gosta de ver e ser visto.

Talvez, a solução para a questão dessa tal privacidade que andam questionando tanto não seja restringi-la, mas colocar leis para que os buscadores, portais e outros sites ofereçam as autoridades acesso a elas, quando essas acharem necessária.

E pq não, coloque a opção lá no buscador pra fazer busca anonima. Resta só saber se o índice de rejeição será o mesmo índice de hoje aos famosos cookies- entre 1 e 3 %, que mostra que os usuários não se importam de serem vigiados.

Alguma sugestão para ferramenta webmaster do Google?

Parece que o Google está levando a sério as criticas de que ele não usa o poder das pessoas para melhorar a qualidade de seus serviços.

Ontem, Matt Cutts colocou uma enquete em seus blog perguntando qual a ferramenta que nós desejamos que seja criada na ferramenta de webmaster do buscador, com o objetivo de melhorar o trabalho de otimização do site. As opções sao sugeridas pelo Matt, e a equipe de webmaster verá qual é importante.

A votação segue com os seguintes resultados:

quinta-feira, 12 de julho de 2007

Links externos ajudam no ranking?

A discussão é antiga e lá no Search Engine RoundTable tá discutindo.
Afinal os links externos melhoram ou não o posicionamento do site?
Há quem diga que sim, outros não.
Particularmente, me encaixo no segundo grupo. E não é por pessimismo não, posso sustentar minha opinião com 2 pontos:

1) Se afirmamos que quanto maior for o número de links externos apontados pro site, melhor o ranking, estamos usando isso como uma métrica, certo? Então faremos uma força tarefa (link building) para conseguir o maior numero de links apontando para um site, para melhoramos o ranking. Mas, temos como provar que melhorarmos no ranking por conta do aumento de links? A experiência não nos diz isso. Pelo contrário: vemos sites que tem muitos links apontando e nem estão bem posicionados assim.

2) O Google, em específico, já criou 'n' filtros anti-spam para justamente evitar as fraudes. Porque, do contrário, seria fácil aumentar o número de links apontando pra página, ou ate comprar ou vender links, para conseguir melhorar no ranking.

Um trabalho de otimização trabalha em três frentes obrigatoriamente: tecnologia, conteúdo e popularidade. Esses três pilares devem ser trabalhados para que o spider consiga dar relevância para a página.

Mas, a popularidade do site deve ser tratada com muita cautela. Trabalhar bem os links internos do site já pode ser um bom caminho. Ver quem pode ter uma página em potencial para colocar um link pra vc tb. E isso, não é SPAM, se pensarmos muito no quanto relevante o CONTEÚDO, da página linkada é. E é menos por causa do ranking e mais pela performance do site. Isso gera tráfego pro seu site. É bom pro usuário, bom pro buscador e bom pra seu site.

terça-feira, 10 de julho de 2007

Google tem 10.000 Editores Humanos

A afirmação é de Marissa Mayer, vice-presidente Produtos de Pesquisa e Experiência do Usuário do Google, quando foi questionada no evento Seattle Conference on Scalability sobre como o buscador reage aos "bad results".

Q: How do they tell if they have bad results?

A: They have a bunch of watchdog services that track uptime for various servers to make sure a bad one isn't causing problems. In addition, they have 10,000 human evaluators who are always manually checking the relevance of various results.


Fonte: Search Engine RoundTable

O que influência na busca natural?

Encontrei um texto super interessante no Waa sobre os fatores que podem influenciar nos diferentes resultados de busca.

Além do sofisticado sistema de algoritmo que correlata o conteúdo com o termo procurado pelo usuário, o autor lista outros fatores que na visão dele pode influenciar na busca universal:

1)Number de buscas por Individual Search Silo
2)Performance por visitas e rating dos videos do You Tube e Google Video
3)Clicks por listagem
4)Tempo gasto no site
5)Visitantes de retorno
6)Usability

Depois o autor lista algumas estratégias que podem ser trabalhadas para alcançar resultados na busca universal.

segunda-feira, 9 de julho de 2007

LinkBulding além do rank

Esse é um texto de Eric Ward em sua coluna no Search Enigne Land, onde explica que muita coisa pode ser tirada de um Link Bulding.

Vale a pena ler e pararmos pra pensar nos links como métricas de estudo, e não como algo que pode ou não melhor o ranking de busca. Aliás, o ranking por sí só não diz muito coisa, não?

Redirecionamento em cadeia

A regra é clara. Quando mudamos de domínio e não queremos perder a relevância no Google basta fazer um redirect 301 de um domínio para o outro.

Porque redirect 301 e não 302? Pq o 301 é definitivo e diz pro buscador que aquela página mudou de domínio, desta forma ele passa a indexar a nova URL.

O que parece ser uma novidade é quando fazemos redirecionamento em cadeia. Parece que quando isto é feito a relevância não permanece. Por exemplo: temos três URL: URL1, URL2 e URL3. Faremos um redirect da URL1 para URL2 e da URL2 para URL3.

Verifica-se que a relevância da URL 1 não será passada para URL3, se perdendo no meio do caminho. Desta forma, é preciso fazer um outro redirect que leva da URL1 para URL 2 e da URL 1 para URL 3. Aí sim a relevância será mantida.

Fonte: Search Engine Roundtable

quinta-feira, 28 de junho de 2007

Google, Coca-Cola e o poder das pessoas

Tudo começou com um artigo no New York Times de Randall Stross entitulado de The Human Touch That May Loosen Google’s Grip .

O texto fala basicamente sobre o quanto as pessoas podem influenciar nas buscas e por isso que o Google e seu tão poderoso sistema de algoritmo estariam a perigo na liderança do mercado de busca.

Começa com uma comparação entre as fórmulas secretas da Coca-cola e do Google: "ONCE upon a time, the most valuable secret formula in American business was Coca-Cola’s. Today, it’s Google’s master algorithm." E diga-se de passagem as duas empresas trabalham muito bem o branding em cima dessas formulas (opinião minha!)

Bom, mas voltando ao texto...
Stross diz que existem pessoas usando formulas antigas de uma maneira diferente que podem, enfim, abalar a hegemonia do Google em cheque e fazer com que os usuários migrem para outros buscadores. Seriam aqueles que usam o poder das massas como criterio e não máquinas e fórmulas matemáticas.

Exemplo? Sproose, iRazoo, Bessed, Mahalo: buscadores que utilizam o Social Search para escolher os sites e/ou editores como árbitros finais. E isto seria um ponto fraco para o Google, já que, na visão de Stross, eles utilizam somente máquinas para selecionar os sites.

No texto tb são listados buscadores que investem em uma sistema hibrido que utiliza sofisticados algoritimos e pessoas: Hakia, Accoona and Powerset.

Lendo isso, Matt Cutts escreveu um post defendendo o seu peixe ( já que seu nome foi citado no artigo) e do Google. Diz que é um erro pensar que o Google se resume máquinas e computadores. Existem pessoas por tras das formulas dos algoritimos. E inclusive os usuários podem sugerir e denunciar sites no Banco de Dados do Google. Sobre o futuro da busca para o Google ele lista algumas opções:

- personalização?
- uma nova e completa interface?
- uma novo entendimento semanatico dos documentos?
- social search ?
- universal search,
- uma combinação de tudo acima?

Sobre o social search e poder das pessoas, Matt diz que há anos o Google já utiliza . O maior exemplo é o famoso Page Rank, que é basicamente baseado no links que as pessoas criam ( tanto que tem os SPAMMERS)

E a tampa é fechada com a frase: "So that’s another indication that Google is open to scalable and robust ways of utilizing the power of people"

Minha opnião nisso tudo é que acho dificil, muito mesmo, um buscador que utilize editores, mesmo os hibridos, conseguirem indexar um numero tão grande de sites em seu banco de dados(o Google tem mais de 8 bilhões de páginas!). Fora, que o fator imparcialidade neste processo todo. Se lembra dos diretórios? Porque não deu tão certo? Porque ng encotrava nada. Porque era mt imparcial.

Isto não significa que seja contra o poder das pessoas. Não! A opnião das pessoas será cada vez mais valorizada, mas cada coisa em seu devido lugar. Há coisas que só encontramos em comunidades e sites de relacionamentos. E esses sim são verdadeiros Social Search. E não são tão imparciais quanto um buscador que tem editores que escolhem quais sites irão pro banco de dados. E isto, sim pode refletir na busca organica do Google, Yahoo e MSN. Já viu a reação das pessoas do Orkut quando perfis fantasmas mandam scrap spam? As pessoas não gostam de ser enganadas.
Só pra lembrar: o Google comprou o You Tube, não pela sua tecnologia, mas pela sua comunidade.( creditos da frase: Desta.ca)

Também não acho que só porque está surgindo uma nova forma de busca, outra tem que ser eliminada. As coisas podem coexistir! A não ser que não haja um acompanhamento com as novidades do mercado. Outros buscadores não perderam pro Google somente por seu power sistema de algoritimo, mas sim por uma questão de filosofia.

Tanto o Google quanto a Coca-cola trabalham suas marcas muito bem. E num grau que chega um momento que fica dificil reverter a situação( não impossivel).

Coca= refrigerante
Google= busca

São sinônimos. E por mais que as pessoas saibam que Coca faz mal continuam tomando. E quando a Coca viu que estava perdendo mercado para as bebidas mais saudáveis ( se lembra do Kotler e do exemplo de miopia de marketing?) foi lá, fez parcerias e criou sua propria bebida natural. E comprou o Matte Leão agora! Semelhante, não? Mas é o mercado e com a busca não seria diferente. A Coca também viu perder espaço no mercado para as chamadas tubainas, por questão de preço nas clases menos favorecidas. O que fez: voltar com as garrafas em vidro. E aí, vem toda uma politica de responsabilidade ambiental por tras.

E vocês sabem da ultima ação que a Coca-cola e seu novo conceito "Viva as diferenças" está fazendo nas redes socais: utilizam o Orkut, entrevistam pelo messenger. A tarefa é criar comunidades e chamar pessoas para participarem delas. É poder das massas...onde: nas redes socais. Tem um texto do Cesar Paz no WebInsider que ele conta como a Coca Cola contra-atacou em sua vida, mesmo depois dele ter achado que que a guerra pra tirar o maldito liquido escuro e borbulhante de sua geladeira.

Será dificil apagar uma marca na cabeça dos consumidores. Ainda mais quando esta marca tem uma filosofia de compartilhamento de conhecimento tão grande e já virou sinônimo de BUSCA.

quarta-feira, 27 de junho de 2007

Blynkx: nova tecnologia que transforma voz em texto

Viram a nova ferramenta da Blynkx?

A plataforma transforma a voz em texto, o que facilita a associação do conteúdo dos de vídeos com links de anúncios aos vídeos.

:)
Já parou pra pensar o quanto isso pode ser bom pro mercado de SEM?!?!

Fonte: IDGNow

E o Google continua liderando o mercado de busca nos EUA

Nada mudou.
Em maio, o Google liderou o mercado de busca nos EUA em 50,7%, seguido do Yahoo! com (26,4%), MSN (10,3%), Ask Network (5%) e Time Warner Network(4,6%), segundo dados do comScore.

Quem mexe com web analytics entende porque o Google detém essa metade do mercado. Simplesmente porque ele coloca mais robot para trabalhar. Repare só no número de vezes que o googlebot visita seu site. Compare com o slurp, spider do Y!.

É mt diferença. Falo isso de cliente dos EUA. Já trabalhei com clientes de lá e vi essa diferença.

Agora, alguém vê alguma ação dos outros buscadores em melhorar seus buscadores? O único que fez ações boas nesse sentido foi o Ask.com.


Fonte: IDGNow

quarta-feira, 20 de junho de 2007

Google pede para denunciar casos de links pagos

Confesso que não sei ha quanto tempo isso está funcionando. Fato é que só vi hoje.

Na ferramenta para webmaster que o Google oferece, onde vc consegue ver quais links externos apontam pro seu site, qual foi a ultima vez que o robot visitou a sua página, ranking médio das palavras, entre outras coisas; têm um link onde vc pode informar pro Google sites que podem estar comprando ou vendendo link, ação que afeta a qualidade dos resultados oferecidos pelo buscador.



Justifica que "A compra de links para aprimorar o PageRank é uma violação das nossas diretrizes de qualidade. O Google utiliza vários métodos para detectar links pagos, inclusive técnicas de algoritmos."




Em fevereiro escrevi um post sobre "Pagar ou não pagar pelos links", uma longa discussão entre Sullivan e Randfish do SEOmoz se deveria ou não colocar not follow nos links de parceiros. Sullivan é contra os links pagos, Randfish a favor.

Eu, particularmente, não gosto muito da compra de links por um motivo lógico: vai contra a filosofia de que o buscador, no caso o Google, deve mostrar conteúdos que sejam relevantes para o termo procurado e não porque alguem está comprando links. Até pq, vai chegar uma hora que nem todos poderão comprar links, somente alguns. Quanto custa um link?

E mais: se é pra ganhar dinheiro com os links, não justifica não termos mais diretórios. Óbvio seria continuar com eles e não desenvolvermos um complexo sistema de algorithmo que visa gerar resultados relevantes. Concorda?

O fato de não concordar com a compra de links não significa que seja contra o link building. Sim, podemos fazer um sites com páginas ótimas, bem estruturada semânticamente, com uma boa estrutura de links internos e pedir que parceiros colocaquem links visíveis pro seu site em suas páginas. Isso é só bom para os dois lados. O resto deixa que a própria rede se forma. Sempre foi assim. Se o seu site for bom, as pessoas vão linkar.

terça-feira, 19 de junho de 2007

A audiência do YoutTube nas residências brasilerias aumentou 4 vezes

Só para completar o post abaixo.

Os dados são do Ibope//NetRatings e diz que o número de visitantes nas residências brasileiras passou de 1,4 milhão em maio de 2006 para 6,3 milhões em maio deste ano.

E mais: o perfil do usuário é composto por 60% de homens e 40% de mulheres. E ao contrário de quê muitos imaginam os adolescentes não os principais usuários do site. Quem mais usam são os jovens e adultos: 51% dos usuários tem entre 16 e 34 anos e 26%mais de 35 anos.

O tempos médio mensal duplicou em uma ano. Mês passado eram 30 minutos, contra 16 em maio de 2006.

Fonte: IDGNow

O YouTube está no Brasil

Sim!!!
O Google lançou a versão brasileira do site YouTube, com página principal e destaque de vídeos em português.

A ideia principal de criar versões localizadas (também foram lançadas versões do serviço para França, Irlanda, Itália, Japão, Holanda, Polônia, Espanha e Reino Unido) é gerar receita a partir desta audiência, já que mais da metade do tráfego do site de vem de fora dos EUA.

Por enquanto, a base de dados é a mesma, mas a ideia é personalizar o acervo para cada país.

Noticia: IDGNow

segunda-feira, 11 de junho de 2007

"Seo is dead..."

Esta é a primeira frase do título de Mike Grehan em seu artigo desta segunda-feira no Click Z. O resto do título é "...Long Live, er, the Other SEO"

Parece Nietzsche falando sua mais famosa frase "Deus está morto", quebrando todos os paradigmas de uma era. Em outros tempos seria chocante, mas agora nem tanto. Já li alguns textos com argumentos de que devemos ver SEO com outros olhos, que não devemos só nos preocupar com tags h1, PR, title e Zzzzzz ( achei ótima essa tirada do Mike); mas nenhum foi tão enfático quanto: SEO está morto.

Achei ótimo o texto. Vale a pena ler e começarmos a ver SEO de outro ponto de vista.

quarta-feira, 6 de junho de 2007

Long Tail: dá certo

Cada vez mais acredito nas chamadas long tails.
Em um mês, elas podem ser responsáveis por 85% das visitas de um site.
Sinistro, como falam lá na minha terra!

Cada vez mais tenho certeza que devemos pensar diferente na hora de otimizar um site. Ao invés de ficarmos presos a um lista de de palavras-chave, devemos pensar por página. Assim, conseguiremos alcançar mais palavras não genéricas, que levam visitas e retorno.

Veja bem, isso não significa que abriremos mão das palavras mais comuns, só não colocar as forças em somente uma ou duas palavras.

É só um outro modo de ver as coisas. Temos mais para oferecer do que um relatório de posicionamento.

sexta-feira, 1 de junho de 2007

Por essa Chávez não esperava

Não quero entrar no debate sobre a liberdade de expressão, posta em cheque desde que Hugo Chávez não renovou a concessão da emissora de televisão privada RCTV.

Mas, em tempos de internet, TV não fica sendo o único meio de expor seu ponto de vista.

Hoje saiu nos jornais que a RCTV driblou Chávez e transmite seu telejornal "El Observador" via internet, pelo YouTube. :)


E agora Chávez?

quinta-feira, 31 de maio de 2007

Street View do Google

Discussões sobre privacidade a parte...




Sem palavras....
:)

quinta-feira, 24 de maio de 2007

Recorde na internet brazuca

Saiu a pesquisa do Ibope NetRatings com mais um recorde na internet brazuca: liderança total no tempo médio de navegação residencial:21h44min.

E sabe como essas pessoas encontram as coisas na web?
Pelos buscadores! :)

quinta-feira, 17 de maio de 2007

Busca Universal: a nova interface de busca do Google

Já era esperado.

O Google anunciou a sua nova interface de busca, chamada de busca universal, que irá apresentar resultados nas páginas de busca não só de sites, mas em todas as suas fontes de conteúdo: mapa, livro, noticia, vídeo, imagens, etc. Veja como fica a busca por 'Darth Vader'.




Além do quesito interface super limpa e bem elaborada muito bem observado pelo Gilberto da Desta.ca, a idéia de apresentar vários tipos de resultados em um único lugar é uma forma de simplificar a vida do usuário. Tem relação direta com a questão de usabilidade. Pra quê ter vários sites de busca que procuram por formas de conteudos diferentes? Busca não é só por sites, certo? Então junta tudo num site.

Foi o que o Google fez. A novidade é resumida em um paragrafo escrito pela VP Search Products & User Experience no blog Oficial do Google:

"With universal search, we're attempting to break down the walls that traditionally separated our various search properties and integrate the vast amounts of information available into one simple set of search results."


Essa nova versão de busca universal ainda não está disponível na versão brasileira do Google. :(

Busque endereços no Brasil no Google Maps

Atenção, atenção!
Agora já podemos buscar por endereços brasileños no Google Maps!
A notícia vem no blog do Google Brasil.

Busquei o Hotlist no mapa...veja lá!



Pensando um pouco no lado mercadológico da coisa: mais uma mídia? um espaço para anunciar? ;)

domingo, 13 de maio de 2007

The Ghost in the Browser (O Fantasma no Browser)

Este é o nome da pesquisa realizada pelo Google que teve como objetivo de identificar sites que instalam, automaticamente e sem consentimento do usuário, códigos que podem infectar os computadores.

São ao todo 450 mil sites, 1 em cada 10, que se aproveitam da vulnerabilidade do Explore e da curiosidade do usuário -atraído facilmente por links pornográficos ou de download de programas protegidos por direitos autorais.

A fim de proteger e chamar a atenção para este problema, o Google deve começar a identificar esses sites com o seguinte alerta no resultados de busca "este site pode prejudicar o seu computador".


:)
Fonte:O Globo

sexta-feira, 4 de maio de 2007

Como aparecer no Google, segundo o próprio Google

Como já escrevi várias vezes de como indexar seu site no Google e fazê-lo aparecer na página de busca, deixo agora a palavra com o próprio buscador.

Em um post recente, os caras do Google escrevem sobre qualidade links, preocupação excessiva com o Page Rank, relevância de conteúdo, troca de links, programas de afiliação e uso do AdSense de forma correta.

;)

quarta-feira, 2 de maio de 2007

Y!mail e seus SPAMs

Tenho Y!Mail faz anos. Quase dez pra ser precisa.

Gosto dele: é fácil de usar e, principalmente, o login me agrada bastante.

A única coisa que sempre me incomodou foi os inúmeros SPAMs que lotam a minha caixa de e-mail. Sempre foi assim. Sempre.

De uns tempos pra cá piorou 1000%. De cada 10 mails que recebo, 8 são SPAMs. Sim, sim, sei que esse meu e-mail já deve estar espalhados pelos quatro cantos da web e por isso os SPAMs só aumentam. Mas é dever e obrigação do Y! evitá-los, ou não?

Relutei para ter o Gmail. Por não querer deixar de usar o Y! que gosto tanto e deixar de lado meu login tão apropriado e ficar conferindo duas vezes só por causa de 1 giga. Não recebia tanto e-mails assim. Não criei antes um conta no Gmail. Há dois anos fiz uma conta no Gmail, arrependida por não ter feito antes e ter perdido o meu login igual a do Y!. Fiz o login mais para usar o GTalk do que o e-mail mesmo.

Só que o que mais me deixa feliz no Google é que, ao contrário do Y!, tem uma ótima ferramente anti spam, não passa nada e qd passa vai pra sua devida caixa . E o Google tb se mostrou de igual efeciencia em acabar com os malditos scraps SPAM do Orkut. Cansei de receber 'compre seu kit design'.

Somando os SPAMs ao fato do Y! ficar fora do ar váááárias vezes já pensei em receber todos meus e-mail do Y! pelo Gmail. Por sorte não consegui finalizar a operação. É uma pena, gostava mesmo do Y!. As vezes me pego perguntando como eles podem deixar de lado uma ferramente que já foi tão boa. E se quiserem usar os e-mails para qq ação de marketing de busca, vão ter que rever seus conceitos de SPAM.

E mais, o Google não só sabe que o Y! patina nos SPAMs, mas como utiliza isso para levar pessoas a usarem o gmail:

sexta-feira, 27 de abril de 2007

Page Rank não é tudo

Há tempos sustento a tese de que Page Rank não significa muita coisa. Já foi o tempo de glamour. Da mesma forma que foi-se o tempo de que os links que apontam para seu site decide o peso do site para o Google.

Hoje li no Search Engine Roundtable o post de que mts discutem que sites que antes tinham um PR considerável de acordo com a barra do Google, hoje aparecem com zero. Será um possível bug?

Os participantes ainda discutem que se aconteceu em seu site, isso não influenciou no numero de visitas em seu site, o que comprova a teoria que o Page Rank apresentado não influencia tanto assim no posicionamento do ranking.

Minha visão pessoal da barra do Google é de uma excelente estratégia de mkt para divulgação da marca que de quebra consegue pegar várias informações.

Quando começou toda a especulação sobre o Page Rank, os caras do Google tiveram a grande sacada: vamos então mostrar numa escala pequena a quanto o Google dá relevância. Como? Por uma barra que tenha o PR e que é preciso instalar em cada computador. E assim como o Alexa, de quebra pegam informações sobre o comportamento dos usuários na hora em que esta navegando.

Durante um bom tempo o PR era algo mt avaliado pelos search engine mkt, assim como a popularidade do site. Talvez pela falta de métricas que temos para avaliar o desempenho de um projeto de SEO, não sei. O problema que sempre achei é que não podemos ter como métrica algo que não temos controle. Por isso que temos muito mais a oferecer como resultados do que um simples relatório de posicionamento. Aumento de tráfego, tempo de permanência do site, o retorno dos usuários, os conteúdos mais vistos, etc, são algumas coisas que podem ser oferecidas. Acredito em SEO para agregar valor ao site. Ter em mente as praticas na hora de construir um site é importantíssimo.

Só para fechar a tampa: é muito claro que a escala de variação do PR é muuitooo maior do que de 0 a 10, e que os fatores que levam o Google a dizer que um site é mais relevante do que o outro vai muito além do que pode supor nossa vã imaginação.

domingo, 22 de abril de 2007

Google comprou a Double Click

Ganhou quem apostou no Google novamente.
Comentários ótimos sobre esta nova compra do Google têm no blog Search Now escirto pelo Alexandre Kavinski e Marcelo Sant'Iago.

sábado, 21 de abril de 2007

Nova pesquisa sobre os fatores de posicionamento de ranking

Esta dica fiquei sabendo através do mais novo blog sobre search engine marketing brasileiro: o Daily Search, escrito por Gustavo Bacchin, um dos fundadores da Cadastra Search Engines Promotion. :)

A agência de search engine marketing americana, SEOMoz, uma das mais conceituadas do ramo, atualizou seu famoso relatório sobre fatores de posicionamento de ranking. O documento conta com a participação de várias feras do mercado de search, o que torna o material ainda mais rico e interessante.

Quem lida diariamente com otimização deve concordar com o resultados do relatório, principalmente se compararmos com a versão 1, escrita em 2005. De lá para cá, muita coisa mudou, inclusive o algoritimo dos buscadores. Os top 10 de 2007 foram:



As titles continuam no topo da lista, claro. Além da extrema relevância que o spider dá, há também o ponto de vista do marketing: uma title bem feita pode decidir o click.

A segunda, terceira e quarta posicições me deixaram extremamente feliz. Ao contrário que muitos podem pensar, conta a popularidade total do site, e não de uma página somente. Logo não precisamos ficar nos preocupando se a página X tem pouca popularidade externa. Note que em 2005 os links externos ficavam no TOP 5 da lista, e hoje fica em 9.

Em contra-partida há uma maior importância dos links internos do site. O que sustenta a importância de que o site precisa ter uma boa arquitetura, ser navegável para ser encontrável. Por isso que os links âncoras continuam lá em cima na lista.

Outro ponto importante em relação aos links externos está na qualidade do link: relação do assunto da página onde se encontra o link externo com o assunto da página para qual ele se direciona. O que mostra que nem sempre quantidade de links é tudo para o buscador.

Note que tudo gira em torno do conteúdo e dos links dentro e fora do site, mas sempre preservando a relevância do mesmo. Mas o que mais gostei nesta lista foi o TOP 7: Popularidade do site dentro de comunidades. Isso mostra o quanto o usuário é importante para os critérios do buscador. Se um site é muito comentado em uma comunidade é porque ele é relevante para os usuários que buscam informação. E porque não utilizar isto como critério de busca?!?!

Eu adorei. Leitura obrigatória para quem curte search engine marketing.

terça-feira, 3 de abril de 2007

Os retornos de uma campanha de Social Media Marketing para o seu negocio

Já comentei varias vezes no blog sobre Social Media Marketing(SMM).

Ontem na coluna Let´s Get Social do Search Engine Land tem um post super interessante sobre os 4 retornos que uma campanha de SMM pode trazer para seu site:

*Link
*Branding e MindShare
*Venda
*Interação com o usuário

Em cada item tem um exemplo de sucesso.

São alguns exemplos de como uma campanha de SMO pode gerar resultados. Mas é um negocio bem recente,que ainda está crescendo. Por isso que Cameron Olthuis, autor do artigo, diz que não enumerou todos os benefícios da campanha de social media makerting. Faço o mesmo pedido que ele. Se vc tem outro tipo de resultado obtido em uma campanha de SMM, comente! Queremos saber!

sexta-feira, 30 de março de 2007

Yahoo! retira links de diretório do resultado de busca orgânica

Um participante do Search Engine RoundTable reparou a mudança e contou para todos: o Yahoo! removeu da sua busca orgânica os links que levavam para o diretório do buscador.

O diretório continua, porém não aparece mais no resultado de busca orgânica, como confirma as prints que os blogs Search Engine Land e Search Engine Roundtable fizeram.

Os representantes do Yahoo! confirmam a mudança e o principal motivo foi para não evitar cluster e melhorar a experiência do usuário.

Update de algorithmo, retirada do diretório da busca orgânica....e o Yahoo! não desiste de suas origens. :)

quinta-feira, 29 de março de 2007

Google faz update de canonalização

Já comentei aqui no blog sobre o problema de URL canonicais.
De forma bem resumida, canonalização é um processo onde o buscador escolhe a melhor URL quando existem varias semelhantes. Semelhantes, porém não iguais.

Para o Google as URL

www.example.com
example.com/
www.example.com/index.html
example.com/home.asp

são diferentes. URL diferentes que tem o mesmo conteúdo. Daí já temos dois problemas: canonical+ duplicação de conteúdo.

Não é que o Google irá identificar isso como SPAM. Problema canonical é muito comum, assim como a duplicação de conteúdo.

Quando o buscador tem que escolher um URL, ele automaticamente não dá relevância para as outras. Isso significa que estamos perdendo relevância. Se tivéssemos foco em uma URL a relevância poderia ser maior.

Nesta atualização que Matt Cutt anunciou em seu blog é para melhorar a forma de como o spider irá canonalizar um numero pequeno de URL. Isso não irá afetar o Page Rank da página, salvo para URL canonicais diferentes.

Agora, se você quer evitar o problema canonical em seu site, Matt tem duas dicas:

* Escolha uma URL para utilizar em seu site e links
* Você pode ter mais de uma URL, porém precisa fazer o redirect 301, para que o Google entenda.

Como fazer o redirect 301? O site Beyong ink explica como fazer no Apache, IIS, PHP, ASP e couldfusion.

sexta-feira, 23 de março de 2007

Os buscadores não lêem pop up?

Vamos acabar com este mito.

Os buscadores lêem pop up sim, desde que esteja bem feito.
Pop up são páginas web, então pode ser lido pelos buscadores.

O que faz o buscador chegar até essa página são os link, que devem estar em a href ou src, o que o spider consegue seguir. Se seguir essas regras, o buscador chega no pop up e le normalmente, como se fosse uma página web normal.

Agora, se este link estiver em javascript, não. O spider não entende como link, pula essa informação e ignora seu pop up.

terça-feira, 20 de março de 2007

Conteúdo Duplicado: o que é verdade e o que é mito.

Às vezes acho que as pessoas enxergam os buscadores como o próprio demonio que vive conspirando para os sites fiquem lista de SPAM.

Por exemplo, a questão do conteúdo duplicado, muito que se pensa é mito. Não que os conteúdos duplicados não sejam um problema para os buscadores. São, sem duvida nenhuma. Há muitas tentativas de enganar os buscadores. Mas, na grande maioria das vezes, são somente filtros, não penalidades. Filtros que existem para que a seleção das páginas nos resultados de buscas sejam mais relevantes para o usuário. Não podemos nos esquecer que este é o principal objetivo dos buscadores: gerar melhores resultados para as buscas. As vezes pensamos que estamos sendo punidos, mas não, são filtros somente.

As penalidades são reservadas para páginas que, de uma forma ou de outra, tentam enganar os buscadores. Para surpresa de muita gente, conforme escreve Jill Whalen na sua coluna no Search Engine Land, penalidades raramente acontecem. E quando ocorrem tem um motivo real para ter acontecido.

Os buscadores não são do mal. Eles têm filtros que tem como único objetivo de gerar melhores resultados, nada além disso. Se seu site não tem nada que tem engane os buscadores, então não tema. São só filtros. Os conteúdos duplicados não são SPAM, os SEs só querem apresentar para o usuário uma maior vairedade de resultado para o usuário. Os buscadores não conspiram contra os sites.

Deixo claro que não sou a favor da duplicação de conteúdos. Mas tê-los não é o fim do mundo. Vale muito a pena usar os redirects para URLs que levam para o mesmo conteudo, para evitar problemas canonicais, como afirma Matt Cutts.

Ah, toda quinta-feira tem um post na nova coluna do Search Engine Land, chamada de 100% Organic, escrita por Jill Whalen.

No blog do Google há um post muito interessante sobre o que o buscadores considera conteudo duplicado.

segunda-feira, 12 de março de 2007

Google testa novas formas de apresentar os resultados de busca

Marcelo Sant'Iago da Midia Click postou em seu blog sobre os testes que o Google está fazendo para apresentar os resulatos da busca orgânica.
Bem interessante!

Google alerta contra os tipos de páginas que são indexadas

Com o intuito de melhorar qualidade dos resultados de busca, o Google alerta para a nova regra de indexação de páginas no seu banco de dados.

Páginas que somente mostram como resultado um punhado de resultados de procura, devem receber a tag robot.txt, uma vez que não tem conteúdo relevante para os usuários.

Darei o mesmo exemplo que Danny Sullivan, mas para os resultados no Google Brasil.
Quando faço uma busca por "dvd Payer":




Repare nos resultados da pesquesas nos primeiros resulados: Bondfaro eAmericanas. Essas páginas têm algo em comum. O conteudo são simples listas de DVD players que estão a venda nessas lojas.

Matt Cutts sugere que o Google faça esforços para ir contra este tipo de conteúdo, uma vez que só são simples listas de resultado de busca.

No novo Guide Line do Google diz:

"Use robots.txt to prevent crawling of search results pages or other auto-generated pages that don't add much value for users coming from search engines."

Então, já que o Google está se preparando para evitar de indexar essas páginas que são simples resultados de busca, é legal prevenir usando o robots.txt conforme reza a regra.

Agora, fazendo uma analise sobre isso tudo.

Acho genial a atitute do Google em apurar ainda mais os resultados de busca. Como usuária que sou do buscador, me incomodava profundamente sempre que procurava por palavras cujo resultados gerados eram páginas com outros resultados de busca.

Há pouco tempo passei por esta situação. Só queria saber mais sobre a configuração do lap top que estava para comprar. E só vinha resultados de páginas de busca de sites e-commerce.

Como profissional de search engine marketing acho interessante este tipo de atitude tanto pro SEO quanto para Links Patrocinados.

Para SEO teremos ate menos resultados, em contra partida serão resultados mais relevantes, informativos. É a vez e hora de otimizar as páginas desses sites.

Para Links Patrocinados, pode aumentar o numero de anuncios, sim, pq não?

Ah, e nada impede do buscador indexar páginas onde tem informações sobre os produtos. Por exemplo, quero comprar um livro e procuro no Google o nome do livro. Se o resultado for uma página onde traz informação sobre ele, ok! Satisfaz a minha procura e o buscador tb!

quinta-feira, 8 de março de 2007

Blog do Google traz série sobre como controlar o acesso e indexação do seu site no buscador

No blog do Google tem uma serie de post sobre The Robots Exclusion Protocol .
O primeiro post da série recebeu o titulo de "Controlling how Search Engines Acess" dá dicas de como implementar o arquivo robot.txt e rotots meta tag para avisar o buscador que você não deseja que sua página seja indexada no banco de dados.

O segundo é "The Robots Exclusion Protocol" traz mais detalhes e exemplos dos mecanismos de de controle de acesso e indexação no seu site pelo Google.

A série é bem legal e vale a pena ser lida.
;)

Erros no Google afetam o posicionamento das palavras na busca orgânica

Desde do dia 23 de fevereiro usuários do mundo todo relatam erros nos dados fornecidos por alguns serviços do Google como Analytics, Finanças e GMail. Estes dois últimos o impacto foi menor que o primeiro.

De acordo com o blog techrunch as interrupções afetaram um subconjunto de servidores do Google e só esses servidores que são responsáveis por coletar dados analíticos e porções tanto de Finanças, como no Gmail. Esse deve ser o motivo dos erros ou lentidão da coleta de dados. Devido ao tamamho e popularidade do Google as menores das interrupções é sentida com certa intesidade por todos. O Google Analytics , por exemplo, tornou-se muito popular, principalmente entre os blogueiros.

Não há ainda uma resposta oficial do Google sobre esses problemas. No blog do Analytics, serviço mais afetado, foi postado um aviso que o sistema estava em manutenção. Nada além disso. O Techrunch pediu que as pessoas que tenham tido problemas com alguns serviços do Google que deixasse o nome para que pedissem uma explicação formal do Google.

Fato é que esses erros do Google também afetou as buscas orgânicas. Muitos sites perderam posicionamento e tráfego se nenhuma explicação logica para isso. Erros na busca orgânica acabam afetando o AdSense e logo as conversões.

quarta-feira, 28 de fevereiro de 2007

Qualidade dos Diggs Brasileiros

Ontem escrevi um post comentando do sobre a pratica do Link Bait como forma de promover determinado assunto nas redes socais. O legal do link bait é pode gerar assunto interessante entre os leitores. Só que é um risco fazer está pratica somente pelo fato de gerar tráfego.

Coincidentemente, o Fábio Seixas publicou um post onde ele faz reflexões sobre os Diggs Brasileiros. O ponto interessante desta analise foi onde ele defende que as divulgação das coisas nos Diggs nacionais devem ser interessantes para as pessoas e não simplesmente pelo fato que gera tráfego: "Estes sites (Diggs nacionais) deveriam criar meios para que os Top Users não fossem os usuários interessando em divulgar seus sites, mas sim usuários interessados em divulgar coisas muito interessantes, mesmo que não sejam os autores"

Essa é uma preocupação que, segundo Seixas, os Diggs Brasileiros precisam ter se quiserem ter sucesso e conquistar a liderança.

..."precisam entender qual a motivação dos usuários em postar conteúdo nestes sites. É preciso perceber que existem os usuários que postam conteúdo com a intenção de angariar tráfego para seus próprios sites e existem os que geram conteúdo pelo prazer de fazê-lo e pela notoriedade que existe por trás disso."

Foi o que o Digg fez ao retirar os TOP Users do site. Existem outros meios de encontrar pessoas que querem contribuir com conteúdo que seja interessante para os leitores.

Fonte: Fabio Seixas, TNow

terça-feira, 27 de fevereiro de 2007

Link Bait ou Link Baiting: especialistas indicam

Já tinha lido sobre link baiting no blog do Danny Sullivan e Matt Cutt. Lá eles deixam suas opniões sobre este método recente usado por nós, SEO. Recente em termos, ne?!?

Apesar do nome, bait, não há mal nenhum em aplicar esta prática, uma vez que pode gerar algo interessante que pode prender a atenção das pessoas. Há várias formas de fazer isso, o Gilberto Alves da Desta.ca escreveu um post com as 10 dicas de fazer link bait. Mt legal! Ele deixa claro que não há nada de novo nessas dicas, nada. Todo blogueiro já deve ter feito, sem saber que estava fazendo. O objetivo é gerar buzz, barulho, comentários. Pedro Cabral, presidente da Agencia Click, escreveu no ano passado uma coluna na Gazeta Mercantil que o que as pessoas querem quando escrevem um blog é ter audiencia. Ser conhecido. É isso que o link bait faz.

No seu blog Matt Cutt, engenheiro do Google, recomenda o link bait.

Danny Sullivan escreve em seu blog:

"A more recent method is link baiting, which typically takes advantage of Web 2.0 social content websites. One example of this new way of generating links is to submit a handcrafted article to a service such as http://digg.com. Another example is to earn a reputation in a certain field by building an authority through services such as http://answers.yahoo.com."


O link bait se confude com o que chamamos de SMO- Social Media Optimization - que nada mais é do que tornar um site conhecido nas redes socais. As pessoas utilizam as redes socais para se informar, trocar idéias, opniões, sugestões. Então, nada melhor do que estar onde seu publico está. Em dezembro passado, escrevi um texto no Web Insider sobre Social Media Optimization.

Certo ou errado?

É uma questão delicada utilizar link bait, da mesma forma que fazer a otimização do site tambem é. A preocupação maior seria em manter a credibilidade do site. Fazer um link bait de qualquer maneira só para promover o seu site, pode ser arriscado, principalmente se tratando de redes sociais.
Já viu como as informações correm rápido no orkut, no you tube, no yahoo respostas, etc?


Particularmente, acho a estratégia de link bait melhor e mais inteligente do a estratégia de Link Bulding pelo simples fato de usar conteudo para se promover na rede. E como sempre prezo a credibilidade do site, a marca, então pode sim gerar um buzz legal.

E do ponto de vista de SEO, gera conteudo, o que os buscadores mais gostam. ;)

quinta-feira, 22 de fevereiro de 2007

As pessoas interpretam diferente os resultados de busca

Há algum tempo adio um post sobre os diferentes tipos de busca que as pessoas podem fazer. Pois então, de forma bem resumida as buscas podem ser divididas em três grandes grupos:

-Pessoas que buscam por uma empresa: por exemplo, quero ir no site uma empresa, mas não sei direito a URL, ou não quero digitar no browser, vou no buscador e busco pelo o nome da empresa. Essas pessoas sabem o que querem encontrar. Parece meio obvio estar posicionado para o nome da empresa, mas não é. Já tive experiências em que o não consegui encontrar sites de empresas pelo próprio nome.

-Pessoas que procuram por informações: aí entra o grupo de pessoas que desejam tornar conhecimento sobre determinado assunto.

-Pessoas que desejam comprar produtos online: são aquelas pessoas que desejam comprar algo na web. Pesquisam mais, buscam mais, perdem mais tempo.


Um pesquisa realizado pela De Vos & Jansen Market Research and Search Engine Mediabureau Checkit mostrou exatamente isso, que as pessoas têm comportamentos diferentes quando procuram e olham os resultados de busca.

Fica claro na pesquisa que as pessoas que buscam com a intenção de comprar e pessoas que buscam por informações têm hábitos diferentes quando analisam o resultado de procura.

Outras conclusões do estudo:
1)Consumidores olham os resultados de busca em 1,1 segundo;
2)98% olham o resultado de busca orgânica;
3)96% olham os 3 primeiros resultados dos links patrocinados;
4)31% olham os resultados patrocinados localizados no lado direito;
5)Compradores olham mais resultados (10) e demoram mais vendo a lista de resultados (11,4 segundos). Eles focam nos nomes das marcas que lhes são familiares.
6)Pessoas que buscam por informações olham menos resultados de busca (8) e gastam menos tempo (9,4 segundos). Eles prestam mais atenção no conteúdo do que nos nomes das marcas.

Como recomendação para Search Engine Marketing a pesquisa mostra que:
1)Colocar seu site em boas posições nos resultados de busca. Seu site será notado e seu conteúdo e o conteúdo dos resultados de busca serão relevantes.
2)Tente ganhar boas posições porque estes resultados orgânicos,uma vez que esses resultados são mais vistos pelos consumidores.
3)Utilize os elementos: nome da marca, nome do webiste, descreve as características que seu site possui, coloque preços, utiliza palavras-chave, fale da variedade de produtos do seu site. Esses elementos são fundamentais para ganhar o click do usuário.
4)Evite letras maiúsculas, anúncio exagerado e pontos de exclamação. Isto irrita bastante.

A pesquisa está disponível em PDF. Vale a pena ler!;)

Noticia no Pandia Search

quinta-feira, 8 de fevereiro de 2007

Mercado de pesquisa de preço

Até o próximo semestre o Google deve lança no Brasil o Froogle, um mecanismos de busca pro preços. O Froogle é usado no mercado norte americano.

O Yahoo! tb tem planos de lançar um mesmo serviço por aqui. Seria o Kelkoo, mas não tem data de lançamento.

Isto tudo é fato. O burburinho fico por conta da proposta que o maior acionista do BuscaPé, líder no mercado de pesquisa de preços do Brasil, teria recebido do fundo norte-americano Great Hill Partners.

E não pára por aí. A idéia é passar o controle do Buscapé para uns dos grandes do setor de busca. Na lista estão o Google e o Yahoo!.

Quem levar, entra no Brasil como líder no mercado de pesquisa de preço, já que hoje este posto é do Buscapé.

segunda-feira, 5 de fevereiro de 2007

"Content is the king"

Você já deve ter lido esta frase em algum lugar.

Pra mim está frase é a tradução fiel do que é um otimização de site.

É por conteúdo que os spiders procura quando rastreia a web. Uma tecnologia simples, sem barreiras para os spdiers e uma estrutura de links para ajuda-lo a navegar e dar relevância são mais do que bem vindos.

Então o que você deve fazer é otimizar o conteúdo da sua página para que o usuário encontre informações completas sobre o seu site. Um site amigável para o usuário, é também amigável para os buscador.

Ai que entra as palavras chaves. Toda página tem um conteúdo chave, que pode e deve ser explorado.

Na hora de criar ou otimizar um conteúdo lembre-se de que você sabe do que se trata seu site, mas o usuário não. ;)

sexta-feira, 2 de fevereiro de 2007

Scrap do Orkut via celular

O grande beneficio do Orkut em nossas vidas foi a possibilidade de re-encontrar amigos. E partir do Orkut trocamos mensagens, telefones, marcamos encontros.

Depois de agregar o Gtalk ao Orkut, agora é possível enviar um scrap para o celular!

O serviço é pago para quem recebe e envia mensagem, é necessário se cadastrar e, por enquanto, só funciona para a operadora Claro.

É possível definir quantos scraps serão enviados por mês pelo celular. Escolher os horários para recebê-los também é um recurso oferecido.

Bom, legal mesmo seria escolher de quem você quer receber esses scraps. Se eu pago para receber, pelo menos que seja de um amigo, não?

quinta-feira, 1 de fevereiro de 2007

Pagar ou não pagar pelos links

Existe uma discussão entre os profissionais de SEO sobre a questão de ser ou não a favor dos Links Pagos ( não os links patrocinados, mas pagar para ter um link na sua página).

O ultimo bate-boca começou quando o Google colocou sua posição quanto aos links pagos: se o link fosse de origem comercial, então deveria colocar a tag nofollow, que faz com que o spider não siga ele como referência.

Danny Sullivan concordou com o Google e escreveu um post no seu blog sobre o assunto: Stop The Freak Out Over Linking.

Randfish do SEOmoz (aliás, otimo blog sobre SEO), foi totalmente contra a posição do Google e Danny quando a questão dos links pagos. Escreveu um post cujo o título era: I Disagree with Danny & the Google Engineers About Link Buying Practices.

Um ótimo post de Rand, onde diz que a tag nofollow significa que o link não garante qualidade para a página, e não que exista algum interesse financeiro no link. Em cima deste argumento, Rand redige sua defesa com as compras de links.

Pelo que parece a discussão vai dar pano para manga.

Hoje Sullivan postou sobre o programa de parcerias em seu blog, Search Engine Land. E deixa claro: os links proveniente desta parceria deverão estar, obrigatoriamente, em JavaScript, para o spider não seguir. Ah, não pode usar javascript? Tudo bem, então seu link deverá ter a tag nofollow. E completa que cada um segue o caminho que acha mais certo. O dele é colocar nofollow.

A discussão sobre link bulding é antiga no mercado de search. O que é, ou não é, justo ser feito. Eu, particularmente, não gosto muito da estratégia de comprar links. Primeiro, por ser arriscado demais. Segundo, que vai na contra mão da proposta dos mecanismos de busca. A popularidade foi a forma que os buscadores encontraram para dar relevância e credibilidade para o conteúdo da página. Se pagar for mais importante que isto, toda a teoria torna-se obsoleta.

A cadeia de links deve ser feita de modo natural, um site linka o outro para favorecer o usuário, e não para o buscador. O buscador é uma consequência de todo o processo. Se focarmos os links no ponto de vista do usuário - usabilidade-, as coisas vão ficar mais simples.

Por outro lado, entendo o ponto de vista de Randfish sobre definir um link comercial ou não. SEOmoz é a favor dos links pagos.

Link Bulding é uma tarefa que demanda tempo e paciência. Aumenta tráfego. Aumenta o numero de links que apontam para sua página. Mas se isso aumenta o peso para o algoritimo do Google, ai são outros quinhentos. Quase um jogo de azar.

A pergunta que deixo no ar é: qual é realmente o peso que o Google dá para os links?

Redes Socais não são buscadores

Existe uma confusão entre redes socais e buscadores.Alguns defendem que as redes socais, no futuro, irão substituir os tradicionais buscadores: Google, Yahoo! e MSN.

Discordo totalmente!

Acredito sim, as redes socais tem cresccido, tem sua força, e as "buscas socais" serão mais relevantes para determinados tipos de negocios. Mas isto não significa que os buscadores não sigam como principal referencia. A tendencia, sim é que os buscadores se tornem cada vez mais especificos para determinadas buscas, e aí que entra as redes socais.

Danny Sullivan afirma isto em diversos artigos. As redes sociais ficaram cada vez mais relevantes e devemos usá-las como estratégia de otimização de busca. Mas as redes socais não são buscadores, são fontes de pesquisa e entretenimento. O que já faz uma grande diferença.

quarta-feira, 31 de janeiro de 2007

Let´s Get Social - Continuação do Alfabeto das Redes Sociais

Semana passada escrevi um post falando da coluna Let´s Social, do Serch Engine Land, dedicada exclusivamente para as redes sociais.

Na coluna de estreia, Neil Patel apresenta o alfabeto da Social Media falando do DNRS:
Digg, Netscape, Reddit e Stumble Upon.

Agora, Neil Patel apresenta outras letras alfabeto das redes sociais, DFMY, ou seja, Delicious, Flickr, MySpace and YouTube.

Neil conclui dizendo que as redes sociais estão cada vez mais populares, o que já sabemos, mas para o marketing é importante estar familiarizado com os vários sites de redes sociais e descobrir qual a melhor estratégia numa campanha de marketing.

Social Media, além de gerar o boca a boca, trabalha branding, links, tráfego e aumenta vendas.

No fim do ano passado escrevi um texto para o web insider falando sobre essas vantagens da Social Media (SMO). O título do artigo é "Social Media Optimization: marketing nas redes sociais". ;)

segunda-feira, 29 de janeiro de 2007

O posicionamento não importa. Os clientes querem é conversão

Há tempos que defendo que em SEO temos muito mais para vender do que simplismente posicionamento de palavras-chave. O que mais interessa aos clientes são as conversões.

Quando um cliente procura uma agência de search, certeza que ele busca trabalhar brand e aumentar o tráfego. É isto que ele quer: aumento de visitas para seu site. E é nisso que deve ser o principal foco de um projeto de SEO: nas conversões, o ranking fica em segundo plano.

O que me deixa feliz é que não estou sozinha nesta linha raciocínio. Vários blogs comentam sobre isso: Aaron Wall no seu SEO Book responde a pergunta "What should I do to promote my SEO site and services?" com uma simples resposta: "Rankings do not matter".

No post em que ele defende que a busca personalizada será o fim do SEO, Aaron diz que clientes não se importam com relatórios de posicionamento. Eles querem conversão.

Outras fontes tambem defendem esta mesma linha de pensamento. É sempre bom saber que estamos no caminho certo! ;)