picture picture
janeiro 17, 2013 PHP 0 Comments

Saiba quais tipos de ataque seu site pode sofrer

Existem vários tipos de ataque que um site pode sofrer, que vai desde uma alterção de COOKIES até um SQL Injection. É muito importante ficar sempre atento à toda possibilidade de invasão que o site pode ter, porque ninguém quer perder seu banco de dados ou ficar com o website offline, correto ?!

Tipos de ataques

Estarei citando alguns tipos de ataques que são um tanto “comuns” na internet:

SQL Injection

Na maioria dos casos ocorre com um injeção SQL dentro de um formulário (sem filtros), sendo inserida diretamente na consulta feita ao banco de dados.

Exemplo:

<form action=”login” method=”post”>

Usuário: <input type=”text” name=”usuario” /> <br />

Senha: <input type=”password” name=”senha” /> <br />

<input type=”submit” value=”Acessar”  />

Query SQL:

SELECT * FROM usuarios WHERE usuario = ‘$usuario’ AND senha = ‘$senha’

Se inserirmos os valores 1′ OR 1= ’1 no campo usuário e senha a query ficará:

SELECT * FROM usuarios WHERE usuario = ’1′ OR 1= ’1′ AND senha = ’1′ OR 1= ’1′

Assim então retornando ao script com todos os usuários da tabela ‘usuarios’, e o invasor conseguirá entrar no sistema.

Para filtrar tal invasão aconselho o uso das funções mysql_real_escape_string e addslashes

Cookie Theft

É feito pela captura de COOKIES da máquina da vítima e usando para acessar um local específico.

Fique sempre atento às medidas de segurança e utilize sempre um navegador “menos vulnerável”.
Um site interessante para ficar sabendo das vulnerabilidades é: PHP Security 

Session Hijacking

 Ocorre quando o invasor obtém acesso à sessão do usuário autenticado. Quando os dados do cliente é armazenado em uma sessão é gerado um ID, caso alguém descubra poderá navegar pelo site como se fosse um usuário real.

Exemplo:

pagina.php?PHPSESSID=1234

Para evitar é possível fazer algumas verificações como comparar o IP e o User-Agent do usuário.

 

janeiro 10, 2013 CTR, SEO 0 Comments

CTR dos Resultados Orgânicos do Google

O estudo analisou 100 website e cerca de 2710 keywords, revelando a quantidade de cliques por posição baseado nas informações do Google Webmaster Tools, como podemos ver abaixo:

CTR dos Resultados Orgânicos do Google

O estudo mostrou que o primeiro lugar do Google, recebe em média 46% dos cliques, enquanto o segundo lugar recebe 29%. É interessante notar que o valor somado passa dos 100% pois o autor está considerando cada posição como um valor de cliques individual, por exemplo, o primeiro lugar recebe 46% dos cliques em relação aos 100%. O segundo lugar recebe 29% em relação aos 100%.

O estudo ainda mostrou a evolução de cliques no primeiro lugar, quando aumentamos o tamanho da consulta (em termos):

CTR da primeira posição do Google

Novos Estudos de CTR do Google – Chitika

Esta semana, a empresa Chitika, publicou em seu blog um estudo realizado em sua rede de anunciantes, onde foram analisadas mais de 8 milhões de impressões da sua rede em Maio de 2010. Segundo o estudo, o primeiro lugar do Google recebe o dobro de cliques do segundo lugar, com 34% e 17% dos cliques respectivamente.

CTR dos Resultados do Google - Maio de 2010

Os autores do estudo, ressaltam um importante dado, o décimo lugar possui cerca de 143% mais cliques do que o décimo primeiro lugar. Algo que antigamente, segundo os dados da AOL em 2006, era diferente.

Google Result Impressions Percentage
1 2,834,806 34.35%
2 1,399,502 16.96%
3 942,706 11.42%
4 638,106 7.73%
5 510,721 6.19%
6 416,887 5.05%
7 331,500 4.02%
8 286,118 3.47%
9 235,197 2.85%
10 223,320 2.71%
11 91,978 1.11%
12 69,778 0.85%
13 57,952 0.70%
14 46,822 0.57%
15 39,635 0.48%
16 32,168 0.39%
17 26,933 0.33%
18 23,131 0.28%
19 22,027 0.27%
20 23,953 0.29%

Vale ressaltar que como estes dados são de Maio, temos a primeira análise de CTR da nova interface do Google.

janeiro 10, 2013 Uncategorized 0 Comments

O que é a Rel=Author?

Como implementar a Rel=Author do Google

Visando cada vez mais entregar o melhor conteúdo aos seus usuários, o Google modificou seu algoritmo e implementou uma nova instrução que permite-o saber quem é o autor de um certo texto disponível na internet.

Em seus estudos, o google percebeu que certas pessoas são reconhecidas por serem bons autores e que as pessoas confiam mais em seus textos por já terem lido outros textos anteriores deste mesmo autor ou porque este autor é uma referência em um determinado tema, por exemplo o Fábio Ricotta em SEO.

De posse dessa informação agora é possível para o google informar em seus resultados o perfil da pessoa que escreveu o texto juntamente com a foto, dando assim muito mais destaque aos resultados de bons autores. Veja um exemplo abaixo:

Exemplo de Rel=Author

Na imagem acima sublinhei em verde as principais mudanças, onde a Foto aparece em destaque, o nome de quem publicou e tambem “More by” que é saiba mais sobre a pessoa.

Como Implementar a Rel Author

Antes de tudo é fundamental que você possua uma conta no Google Plus. Se tiver dúvidas sobre o funcionamento, veja mais sobre o funcionamento do Google Plus aqui neste tutorial.

Uma vez que sua conta já está criada, é necessário configura-la.

Editar perfil no Google Plus

Dentro do seu perfil no Google plus, clique no botão de perfil no alto e depois no botão Editar perfil a direita. Agora procure pela caixinha Colaborador de, e após clicar sobre ela você estará editando-a. Agora clique emAdicionar Link Personalizado e você preencherá o endereço de seu site conforme visto na imagem:

Cadastrando site colaborador

Existem dois meios de implementar a rel autor. Em sites com apenas um autor e em sites com vários autores.

Sites com apenas um autor

Sites que possuem apenas um autor podem atribuir a este autor todo o conteúdo daquele site, ou seja, uma pessoa será a autora de tudo que existir em um determinado site. Esta implementação é mais simples e pode ser feita facilmente da seguinte forma:

Você precisa criar um link contendo a rel=author em todas as páginas do site para o seu perfil no Google Plus, o mesmo perfil onde você mais cedo criou o link mostrando o site o qual você é um colaborador.

O link deve ser da seguinte forma:

<a rel="author"
href="https://plus.google.com/115790889988444601243/">Eduardo Gasparetto no Google+</a>

Como obter a url do seu perfil no Google Plus

Primeiramente clique no botão de perfil no alto da janela, aqui mostrado em (1), após isso copie a url como mostrado em (2) até antes da barra (/). Esta é a url do seu perfil do Google Plus.

Obtendo a url com um autor

Dica de como colocar o link em todas as páginas

Uma dica de como colocar rapidamente o link em todas as páginas sem ter que editar texto por texto ou o html é colocando na barra lateral o link, como por exemplo:  ”Siga-nos no Google Plus”, e desta forma todas as páginas do site terão o link.

Outro meio é colocar na sua Bio, aquele espaço no final do artigo onde existe um texto falando sobre a pessoa que escreveu o artigo. Caso seu site não tenha isso, existe um plugin de wordpress que facilita muito, o nome dele é Author Bio Box. Preenchendo seu perfil na aba usuários do wordpress, este plugin colocará esta descrição ao final de seus textos.

Pronto! Se você fez tudo certo, linkando o perfil do Google Plus para seu site e seu site para o perfil do Google Plus, já deve estar tudo funcionando. No final do artigo ensinarei como testar se a implementação está correta.

Mas e quando você escreve para vários sites ou no caso de sites possuem contribuição de vários autores é necessário um processo diferente para a atribuição da autoria.

Implementando em sites com muitos autores

Este é o processo um pouco mais complexo. Antes de partir para a prática, acho importante explicar o que o Google espera encontrar:

URL em sites de vários autores

Normalmente sites em que possuem vários autores possuem uma página onde é possível visualizar todos os posts de determinado autor, esta é sua página de biografia ou BIO. Todos os seus posts devem possuir umrel=”Author” para esta página de BIO, e esta página deve possuir um rel=”me” apontando para o Google Plus. Este por sua vez deve ter a entrada Colaborador de (explicado mais acima) apontando para sua página de BIO do site em que você escreve.

Vamos aprender na prática:

Em cada post você precisa referenciar com a rel=”author” a sua página de autor do site, veja um exemplo. Para automatizar esta tarefa pode-se colocar na assinatura do autor que é inserida ao final dos artigos.

Referenciando o Rel=Author

Exemplo:

<a rel="author" href="http://www.cnet.com/profile/iamjaygreene/">Jay Greene</a>

O segundo passo é colocar a Rel=”me” apontando para o seu perfil do Google Plus na sua página de autor. Veja:

Usando o Rel=me

Exemplo:

<a rel="me" href="https://plus.google.com/105240469625818678725/">
<img src="//www.google.com/images/icons/ui/gprofile_button-16.png"> </a>

Não esqueça de ir no seu perfil do Google Plus e referenciar a página de autor como um site que você éColaborador de, desta forma fechando o ciclo. Este modo de identificar seus textos em vários sites é muito bom para jornalistas que usam SEO em seu trabalho.

Como testar a Rel=Author

O Google disponibiliza uma área dentro do Google Webmaster Tools para que você possa testar se está funcionando sua autoria. Acesse o seguinte endereço:

http://www.google.com/webmasters/tools/richsnippets

Você deverá ver uma resposta parecida com a imagem abaixo, mostrando sua foto de perfil do Google Plus com a confirmação em verde:

Resultado positivo no teste

Caso você receber algo parecido com a imagem abaixo, você fez alguma coisa errada.

Erro no teste da Rel=Author

Conclusão

Assumir a autoria por aquilo que você escreve pode ser o diferencial para trazer mais tráfego a seu site ou mesmo para trabalhar a sua marca pessoal. Acredito que cada vez mais o Google pretende tornar as buscas pessoais usando o que ele aprende sobre seus usuários no Google Plus.

janeiro 10, 2013 Google 0 Comments

Pedido de Reconsideração no Google

Pedido de Reconsideração no Google

Cada vez mais os webmasters e donos de negócios online buscam formas de aumentar o faturamento dos seus sites. Seja por um trabalho em mídias sociais, em links patrocinados ou SEO, a vontade é sempre a mesma: crescer os acessos e aumentar a receita online gerada pelo site.

Na sede pelo sucesso, estes webmasters e/ou donos de negócios entram em áreas negras de SEO, fazendo uso de técnicas que violam as diretrizes para webmasters presentes no Google. Isto, resumidamente, é o chamado black hat.

O problema é que cada vez mais os mecanismos de busca e, principalmente o Google, estão caçando e penalizando sites que usam e abusam destas estratégias que violam suas diretrizes.

Ao violarem as diretrizes e receberem uma penalização, só resta uma saída: corrigir o site e fazer um pedido de reconsideração. Mas esta não é uma tarefa simples, vamos entender como ter sucesso no seu pedido de reconsideração e tirar as principais dúvidas sobre o assunto.

Esclarecimento Inicial

Antes de começarmos a detalhar o assunto do pedido de reconsideração é muito importante que você saiba que o Google só aceita pedidos de reconsideração para casos em que o site tenha recebido alguma ação manual. Para casos onde algum algorítimo, como o caso do PandaPenguim ou o Page Layout, atuou sobre o site, somente alterações gerais podem dar chances ao seu site de voltar a ter uma mlehor visibilidade nas páginas de resultado.

Um pedido de reconsideração não é válido para estes tipos de casos. Para os casos onde você sofre uma penalização manual, temos o pedido de reconsideração. Vamos aprender um pouco sobre isto?

Entendendo as Diretrizes para Webmasters

O Google possui diretrizes que regem o seu índice, orientando os webmasters para recomendações de conteúdo e designrecomendações técnicas e por fim recomendações de qualidade. O Google reforça a ideia de que mesmo que você decida não implementar as sugestões de conteúdo e design, além das técnicas, é recomendado que você preste atenção às “Diretrizes de qualidade”, que destacam algumas práticas ilícitas que podem levar à remoção do seu site do índice do Google ou a outro tipo de penalidade.

Caso o seu site seja penalizado, ele não será mais exibido nos resultados no Google.com.br ou em qualquer site parceiro do Google. Desta forma, para um webmaster ou profissional de SEO é fundamental ler e entender todas as diretrizes descritas pelo Google.

Meu site foi penalizado?

Praticamente todas as manhãs abrimos a nossa ferramenta de web analytics e observamos o nosso tráfego. O que esperamos é que ele esteja subindo, trazendo mais conversões, mas em alguns casos você pode deparar com uma grande queda ou alguma anomalia, trazendo um certo ar de espanto. Com isto, a primeira coisa a se pensar é: “acho que fui punido pelo Google!”. Muitos webmasters que conheço já passaram por esta sensação e em todos casos eu recomendo calma. Precisamos realmente analisar se a queda foi do Google ou se é oriunda de outros fatores. Para isto, siga a receita:

Passo 1 – Verifique a origem do seu tráfego

Quantos % o Google (ou outros mecanismos de busca) era responsável antes da queda de visitas? Quantos % é agora? É bem discrepante os valores ou não teve uma alteração muito grande? Compare com o mesmo dia da semana anterior para uma melhor precisão.

Passo 2 – Faça a seguinte consulta site:meusite.com.br

Caso o item 1 represente uma queda muito grande, faça a seguinte consulta site:meusite.com.br. Esta consulta deve retornar algumas das suas páginas indexadas no Google. Caso não retorne você pode estar banido do índice do Google.

Passo 3 – Averiguar o seu posicionamento

Caso você tenha passado pelo passo 2 e encontrado páginas indexadas, você pode ter caído no posicionamento para alguns ou vários termos. Pesquise por diversos termos que você figurava na primeira página. Caso encontre-os sempre depois da posição 30, 50 ou 95, você pode ter sofrido uma punição. Uma forma prática de se executar esta tarefa é utilizar ferramentas de rank tracking como a WebXTool ou Advanced Web Ranking.

Passo 4 – Procure por Meta Robots com o valor NOINDEX

Em alguns casos raros, uma implementação errônea pode levar ao seu site ou algumas páginas desaparecerem do Google. Confira se as suas páginas que não recebem mais tráfego possuem a meta tag robots com valor atribuído NOINDEX. Caso elas possuam, você pode ter encontrado o problema. Caso não, pode ser um grande indício de penalização.

Identificando e Corrigindo os Problemas

Obviamente, o primeiro passo é “deixar a casa em ordem.” Se você realmente tomou parte de alguma ação que viola as diretrizes, a primeira coisa a se fazer é desfazer as alterações que causam a punição. No caso de você não tem certeza se alguma alteração feita viola as diretrizes, achar o erro fica mais difícil, mas continua sendo essencial, tanto encontrar, como corrigir o problema.

1 – Title, Meta Description e H1′s

Verifique os títulos e meta descriptions de suas páginas. Estão realmente descritivos e condizentes com os respectivos conteúdos ou estão spammados? De qualquer maneira, faça-os da maneira o mais descritiva e breve possível, sem focar tanto na repetição da palavra-chave da página, deixe algo limpo e somente voltado para usuários.

2 – Conteúdo

Da mesma maneira que o item anterior, o ideal é verificar a qualidade do conteúdo. Mesmo que o conteúdo seja relevante, é bom verificar de maneira criteriosa o quanto ele está otimizado para favorecer o aparecimento de palavras-chave e textos âncoras para links para outras páginas.

Outro item que deve ser levado em consideração é o conteúdo duplicado. Se você é conhecido por copiar conteúdo de outros sites, é uma boa hora para reescrever esses conteúdos.

3 – Meta Keywords

Embora atualmente elas sejam irrelevantes para os mecanismos de busca, procure não utilizar um excesso de palavras neste campo ou ainda utilizar termos que não estejam conectados ao seu assunto. Se atenha ao necessário à página, somente; ou nem use.

4 – Links

Caso você ainda não tenha feito, coloque o atributo rel=”nofollow” em links de parcerias (que podem ser caracterizados como troca de links). Se você tem um site e foi pago para inserir links para outros sites, coloque rel=”nofollow” nesses links também.

Em casos onde você compra links, o ideal é solicitar o cancelamento remoção destes links. Caso você não tenha como cancelá-los, solicite a inclusão do atributo rel=”nofollow” em todos eles.

5 – Outros Problemas

Naturalmente, qualquer forma de violação das diretrizes deve ser investigada e tratada da melhor maneira possível. Tipicamente estas técnicas violam as diretrizes, podem até acontecer acidentalmente e, por isso, é importante conhecê-las, para saber onde procurar os erros. Depois de corrigidos os problemas, hora do pedido de reconsideração.

Fazendo o Pedido de Reconsideração

Após revisar o seu site e identificar os problemas que infringem as diretrizes para webmasters você deve corrigi-los. Só depois disto você poderá fazer o pedido de reconsideração.

Para fazer este pedido, acesse o Google Webmaster Tools e em seguida acesse o formulário de pedido de reconsideração.

Neste formulário você deve escrever quais problemas foram detectados e como você os corrigiu. Você deve descrever claramente que o seu site já não está violando as diretrizes de qualidade e que você está comprometido a continuar com o bom trabalho do seu site.

É muito importante que você não coloque a culpa no seu servidor ou em um “estagiário”. É fundamental admitir o erro, mostrando conhecimento sobre o caso e, em seguida, mostrar quais ações foram realizadas. Você pode ainda fornecer um arquivo do Google Docs, com visibilidade pública, com mais detalhes do caso. Nada impede você em dar mais detalhes sobre o caso. Use e abuse dos detalhes, desde que eles sejam úteis para o profissional que está revisando o seu pedido de reconsideração.

Quem irá ler o meu Pedido de Reconsideração?

O Google indica que se o seu website não recebeu uma penalização algoritmica, em 100% dos casos o seu pedido será revisado por um profissional. Desta forma, seja atento ao preencher o pedido de reconsideração pois este é um pedido sério e é sim analisado manualmente por pessoas designadas para essa tarefa.

Vale lembrar que este profissional tem como tarefa revisar centenas ou milhares de pedidos por mês, então não tente enganá-lo, ocultando comentários sobre outras violações que você comete no seu site. Você deve corrigir TODOS os problemas que infringem as diretrizes de qualidade para conseguir a reconsideração.

Em quanto tempo o meu site irá voltar?

Se dentro de algumas semanas não ocorrer nenhuma diferença no tráfego seu site, você pode considerar a possibilidade de refazer o pedido. Entretanto, seja coerente, antes disso revise o site novamente e verifique se realmente ele está livre de motivos para não ter sido reconsiderado.

Com o pedido realizado resta apenas aguardar, mantendo o bom trabalho no site e continuar o acompanhamento de posicionamento e visitas.

Não é garantida rapidez na resposta nem certeza de que o site volta ao índice, mas é certo que o melhor é manter o trabalho de qualidade no site.

Fonte

janeiro 10, 2013 Redes sociais, SEO 0 Comments

Buffer App – Aplicativo para Atualizar Redes Sociais

Buffer App

Conheci há alguns dias atrás uma plataforma muito bacana, chamada Buffer App, e gostaria de compartilhar minhas impressões com vocês. Se você é daqueles que tem contas bem ativas ou quer fornecer um bom conteúdo ao seu público mas não tem muito tempo para entrar no Facebook, Twitter e/ou Linkedin, esta é a plataforma ideal para você. O Buffer App é um local onde você pode centralizar todas as suas postagens, definindo horários padrão para os posts e ainda consegue ver todas as estatísticas das postagens. É uma forma bem prática e confiável para gerenciar os seus perfis.

Começando

Criar uma conta no Buffer App é simples. Basta acessar a página inicial do projeto e clicar em uma das formas de login:

Buffer App

Em seguida, basta conectar suas contas de Twitter, Facebook e/ou Linkedin:

Conectando contas no Buffer App

Criando uma Postagem

Postar é uma tarefa muito simples com o Buffer App. Eu instalei aqui a extensão para Chrome e com isto eu tenho um botão na minha toolbar, onde, se eu gostar de um artigo, eu posso clicar no botão e uma caixa se abre:

Postagem no Buffer App

Nesta caixa, posso selecionar em qual rede social desejo compartilhar a postagem. Eu prefiro fazer um texto único para cada rede social, mas se você desejar, pode compartilhar o mesmo conteúdo em todas as plataformas.

Agendamento de Postagens

Uma das funcionalidades que eu mais gostei foi a de configurar horários para postagem. Dentro do Buffer App você pode escolher, por perfil de rede social, qual os horários que você deseja que a plataforma publique conteúdo. Por exemplo, para o meu Twitter, eu escolhi alguns horários chave:

Agendamento de Post no Buffer App

O que isto faz é funcionar como uma torneira, onde eu enfileiro todo o conteúdo que desejo compartilhar naquele perfil e ele libera este conteúdo nos horários definidos. Isto facilita que você não sobrecarregue os seus usuários com postagens excessivas.

Mensuração

Além da plataforma facilitar, e muito, as nossas postagens, ela ainda possui uma aba de métricas, onde conseguimos ver as postagens e como elas se comportaram nas mídias sociais. Por exemplo, consigo ver quais foram os tweets mais retweetados ou favoritados:

Mensuração no Buffer App

Colaboradores

Se você desejar, a plataforma oferece um suporte para colaboradores. Esta funcionalidade está disponível apenas para contas pagas, que no caso custa 10 dólares por mês. É bem fácil liberar acesso para outros colaboradores, como você pode ver abaixo:

Colaboradores no Buffer App

Para aqueles que trabalham diversos perfis de clientes e precisam trabalhar com colegas na atualização dos perfis, esta é a aplicação ideal para vocês!

Aplicativos de Integração

Um dos pontos positivos do Buffer App é ter a integração com diversos aplicativos. Alguns conhecidos como o Pocket, IFTTT, Instapaper, WordPress e os tradicionais navegadores Chrome e Firefox estão integrados com a plataforma. Basta baixar cada um dos aplicativos e usá-los de forma integrada ao Buffer App.

Integrações do Buffer App

Botões do Buffer App

Quando você instala a extensão do Chrome ou o plugin do Firefox diversos botões começarão a aparecer em suas redes sociais. No Twitter você encontra em forma de um link abaixo de um tweet:

Integração Twitter e Buffer App

Já no Facebook, quando você clica em um post para compartilhá-lo, o botão aparece:

Integração do Facebook e Buffer App

Conclusões e Recomendações Finais

De modo geral, achei a plataforma sensacional e bem fácil de utilizar. Uma ressalva que tenho que fazer é com relação aos posts no Facebook. Ainda não estou certo se eles tem o mesmo alcance do que uma postagem diretamente na plataforma, mas já vale o teste pela facilidade de uso.

 

Fonte

janeiro 10, 2013 Google Analytics, SEO 0 Comments

10 dicas de SEO essenciais para melhoria do seu site

1. Pesquisa de palavra chave é o primeiro passo

Não construa seu site sem antes fazer uma pesquisa de palavras chave usadas pelas pessoas que querem visitar seu site. Gaste um bom tempo nessa tarefa, este não é o primeiro item por acaso, essa pesquisa é de fundamental importância. Utilize ferramentas para pesquisa de keywords, elas vão te dar uma melhor sugestão na hora da escolha. Cuidado com keyword cannibalization.

2. Obtenha informações pela de fontes pela web

Visite os principais sites sobre informações de SEO, um estudo permanente sobre o assunto é importante, novas ferramentas sempre estão sendo criadas e sempre está rolando alguma discussão interessante nos blogs do assunto. Visite o Mestrseo, Brasilseo, Matt Cutts’ blog, Search Engine Journal, SEOmoz e Search Engine Land.

3. Atenção ao seu código fonte

Contrua seu site com um código que seja de fácil entendimento pelo motor de busca, quanto mais simples melhor. Utilize Cascading Style Sheets(CSS) para diminuir a formatação da página e leia sobre limpeza de codigo fonte.

4. Construa uma navegação fácil

Faça isso através de links com textos para todas as partes do seu site, os motores de busca não podem seguir links dentro de flash, nem mesmo dentro de javascripts. Os motores de busca gostam de navegação simples.

5. Receba links de sites relevantes

Cada link é um voto, logo quanto mais links apontados para você melhor, porem estes links tem que ter relevância ao assunto, não pode ser qualquer link e quanto mais importante o site linkando para você melhor também, este voto tem um peso maior que os outros. Leia sobre link building.

6. Contrua o sitemap

Contruir um sitemap ajuda os motores de busca a alcançar e indexar sua página, tenha certeza que todas as paginas estão no sitemap. O sitemap também auxilia o usuário a alcançar a página desejada. Veja dicas de sitemap para wordpress também.

7. Não esqueça os detalhes técnicos

Contrate um serviço de hospedagem bom com servidores rápidos e estáveis. Os motores de busca não ficam esperando muito para carregar sua página. Pior ainda, eles odeiam quando sua página esta fora do ar, se isso se repetir várias vezes você irá cair de rank com certeza.

8. Acompanhe seu site com web analytics

Há varias opções de web analytics, como o Google Analytics que é grátis, fácil de usar e versátil. Com essa análise você vai descobrir muito sobre seus visitantes, as páginas mais procuradas e as que precisam de melhoria, e vai ajudá-lo a re-otimizar seu conteúdo.

9. Diga aos motores de busca onde você está

Faça a submissão do seu site, isso não fará rankear melhor, mas facilitará os motores de busca chegar até seu site. Google, Yahoo e MSN tem mecanismos para submissão de sites.

10. O conteúdo é o mais importante

Os motores de busca gostam de sites com conteúdos e que são atualizados frequentemente. Por isso escreva bem seu conteúdo e utilize as palavras chaves para cada página.

Fonte e http://www.mestreseo.com.br/seo/10-dicas-de-seo-essenciais-para-melhoria-do-seu-site

janeiro 10, 2013 SEO 0 Comments

Técnicas de Black Hat: Fique longe delas

Como dissemos no nosso post sobre os diferentes tipos de Hats de SEO, práticas de Black Hat podem acabar com seu site em pouquíssimo tempo. Não se iludam com as promessas de ranqueamento rápido que suas práticas podem sugerir, no final existem grandes chances do Google acabar percebendo o que seu site está fazendo e cortar o mal pela raiz – se preferir de uma maneira mais direta, eliminar seu site do ranqueamento.

Para termos certeza de que você ficará bem longe dessas técnicas, trazemos hoje uma lista com as técnicas de Black Hat mais comuns na web. Prestem bastante atenção para não acabar praticando nenhuma delas, heim!

Textos Hidden

Textos Hidden, ou Textos Escondidos, são os textos em uma página que os visitantes do site não conseguem ver. O intuito desta prática é inserir palavras-chave ao longo da página sem que elas sejam visíveis aos visitantes. Geralmente são colocadas da mesma cor do fundo da página, para que acabem camufladas. Mesmo que os visitantes não consigam vê-los, os robôs de busca ainda conseguem.

site black hat texto hidden Técnicas de Black Hat: Fique longe delas
Exemplo de Tittle Hidden

Vamos imaginar que você tem um site com fundo preto. Você conheceu essa técnica de Textos Hidden, achou boa e quer usá-la no seu site. Para que “dê certo”, você iria inserir palavras-chave de cor preta na página, para que elas fiquem camufladas com o fundo também em preto. Os visitantes não irão enxergá-las, mas sua técnica será pega pelos robôs de busca.

Esta prática até costumava dar certo antigamente, quando os robôs de busca consideravam a quantidade de palavras-chave dentro das páginas. Porém, com as mudanças no algoritmo do Google, esta ação é completamente ineficaz.

Meta Tag Stuffing

Aposto que você já encontrou um site que enchia de palavras-chaves as tags meta description e keyword. Sim, isso na verdade é bem comum de se ver, mas não deixa de ser uma prática de Black Hat. Neste tópico falamos de pessoas que enchem de palavras-chave, e às vezes até palavras repetidas, as meta tags description e keywords.

Nunca viu essa prática? Bom, funciona da seguinte maneira: em nossas buscas na internet, encontramos um site que queira ranquear bem para as palavras-chave “Bolo de chocolate”. Se o dono do site faz essa técnica, a meta description ou meta keywords dele ficaria da seguinte forma:

<meta name=”keywords” content=”BOLO DE CHOCOLATE, bolo de chocolate, Bolo de Chocolate, CHOCOLATE, BOLO, Bolos de CHOCOLATE, BOLO CHOCOLATE, BOLO de CHOCOLATE, bolo, chocolate”/>

Quem usa esse tipo de prática acha que irá conseguir alguma coisa, mas na verdade o Google não considera as meta tags na hora de ranquear um site. No lugar de melhores posições, este site ganhará uma punição!

Title Tag Stuffing

O Title Tag Stuffing é uma variação do Meta Tag Stuffing e acontece quando alguém exagera no uso das palavras-chave no título de uma página ou do site. O certo, neste caso, seria colocá-las somente uma vez.
Quando várias palavras são colocadas, o peso de cada uma delas vai diminuindo. Além disso, o site fica muito vulnerável a uma punição do Google.

title tag stuffing Técnicas de Black Hat: Fique longe delas
Exemplo de Title Tag Stuffing

Alt Image Tag Stuffing

Outra das variações do Meta Tag Stuffing, agora com o atributo ALT das imagens.

Percebemos logo que a pessoa que colocou essa imagem do repolho (cabbage em inglês) gostaria que seu site ranqueasse bem para as palavras-chave “cabbage soup diet” (sopa diet de repolho). Pela quantidade enorme de vezes que ele colocou a palavra “cabbage”, não resta dúvidas de que foi uma tentativa de Black Hat.

alt image tag stuffing Técnicas de Black Hat: Fique longe delas
Exemplo de ALT Image Tag Stuffing

Para os que não lembram ou não sabem, o atributo ALT de uma tag de imagem existe para mostrar o texto que está presente neste atributo, surgindo quando a imagem, por algum motivo, não abre na página. Pessoas que tem problemas de visão conseguem entender a imagem justamente por causa da descrição contida neste atributo. No caso da imagem que vimos acima, o texto correto para o ALT seria “cabbage soup diet graphic”.

Doorway

Uma “doorway page” é uma página criada especialmente para que um bom posicionamento seja conseguido nos sites de busca. Ela só existe para que o visitante seja direcionado para outras páginas ou página. Geralmente não apresentam qualquer conteúdo de relevância ao visitante, são bastante otimizadas para determinadas palavras-chave e, na grande maioria das vezes, possuem vários links para outras páginas. Em alguns casos, existe também um direcionamento automático para um outro site através de Meta Refresh ou JavaScript.

Assim como todas as outras práticas mostradas neste artigo, esta também é condenada pelo Google e gera punição para quem a usa.

Cloaking

O Cloaking nada mais é do que apresentar um conteúdo para os robôs de busca e outro bem diferente para seus usuários com o intuito de aumento do ranking. Vale lembrar que os robôs de busca criam seus rankings a partir de sua base de dados, que é gerada conforme os robôs vão visitando os sites e links que encontram.

Usando do Cloaking, o site está apresentando um conteúdo falso para os robôs de busca, já que os visitantes não tem acesso a ele.

 

Fonte: http://www.seomaster.com.br/blog/post/tecnicas-de-black-hat-fique-longe-delas

dezembro 13, 2012 SEO 0 Comments

ImportXML – Guia de Uso e Exemplos

Introdução ao ImportXML

O ImportXML é uma função existente no Google Docs que lhe permite ler informações de arquivos xml, html, csv, tsv, e até feeds RSS ou Atom. Desta forma, através de uma planilha criada no Google Docs, você pode chamar um arquivo externo e combinar com um sistema de navegação do conteúdo, chamado XPath, para conseguir entender e analisar os dados de arquivos.

Um exemplo simples de chamada do ImportXML é o seguinte:
=importXml(“www.google.com”; “//a/@href”).

Este código, basicamente, retorna todas as URLs contidas em todas as tags “a” na página inicial do Google.

O XPath

XPath é uma sintaxe de navegação de elementos e atributos de um arquivo XML reconhecido pela W3C. Com este tipo de navegação é possível abrir um arquivo XML, por exemplo, e navegar entre os nós pais, filhos e filhos dos filhos.

Os Nós

No XPath, existem diversos tipos de nós, os quais compõe um arquivo XML formando uma árvore. O nó no topo da árvore é chamado de raiz (aqui no caso, pense em uma árvore invertida). A partir da raiz, podemos aprofundar mais e mais, analisando cada uma de suas ramificações.

Por exemplo, observe o seguinte código XML:

<?xml version="1.0" encoding="ISO-8859-1"?>

<bookstore>
  <book>
    <title lang="en">Harry Potter</title>
    <author>J K. Rowling</author>
    <year>2005</year>
    <price>29.99</price>
  </book>
</bookstore>

Deste código, podemos visualizar os seguintes nós do XML:

<bookstore> (elemento raiz)

<author>J K. Rowling</author> (elemento)

lang="en" (atributo)

Valores Atômicos

Os valores atômicos são os nós que não possuem filhos ou pais. Por exemplo, considerando ainda o código do XML inicial, podemos identificar os seguintes valores atômicos:

J K. Rowling

"en"

Relacionamento entre Nós

Conforme venho comentando, a estrutura de um arquivo organizado, como o XML, é composta de relacionamento entre os nós da árvore. Para cada passo mais profundo na árvore estabelecemos uma relação de parentesco. Considerando o código de exemplo abaixo, o nó “book” é o pai dos nós title, author, year, e price.

<book>
  <title>Harry Potter</title>
  <author>J K. Rowling</author>
  <year>2005</year>
  <price>29.99</price>
</book>

Ainda no exemplo acima, mas com outra visão, os nós title, author, year, e price são nós filhos do nó “book”.

Outra nomeclatura importante além de nós pais e nós filhos, é a de ancestrais e decendentes. No exemplo acima, os ancestrais do nó “title” são os nós “book” e “bookstore”. Por outro lado, os decendentes do nó “bookstore” são book, title, author, year, e price.

Sintaxe do XPah

Para explicar a sintaxe do XPath, vamos considerar o seguinte trecho de um XML:

<?xml version="1.0" encoding="ISO-8859-1"?>

<bookstore>

<book>
  <title lang="eng">Harry Potter</title>
  <price>29.99</price>
</book>

<book>
  <title lang="eng">Learning XML</title>
  <price>39.95</price>
</book>

 

Selecionando Nós

O XPath utiliza expressões para conseguir navegar entre os nós do documento XML. As expressões mais comuns para fazer a navegação são:

Expressão Descrições
nome do nó Seleciona todos os nós filhos do nó especificado
/ Seleciona a partir do nó raiz
// Seleciona nós no documento a partir do nó corrente que correspondem com a seleção, não importando onde eles estão
. Seleciona o nó atual
.. Seleciona o nó pai do nó atual
@ Seleciona atributos

Tendo em vista as expressões acima, o resultado da aplicação delas em nosso XML de exemplo seria:

Expressão Resultado
bookstore Seleciona todos os nós filhos do elemento “bookstore”
/bookstore Seleciona o elemento raiz “bookstore”.Nota: Se a expressão iniciar com uma barra ( / ) ela irá sempre representar o caminho absoluto it para um elemento!
bookstore/book Seleciona todos os elementos “book” que são filhos da “bookstore”
//book Seleciona todos os elementos “book” no importando onde eles estejam no documento.
bookstore//book Seleciona todos os elementos “book” que são descendentes do elemento “bookstore”, não importando onde eles estejam dentro do elemento “bookstore”.
//@lang Seleciona todos os atributos que estão nomeados como “lang”.

Exemplo de Leitura de Página

Para entender melhor como podemos combinar o XPath com o ImportXML no Google Docs, crie uma planilha simples no Gdocs. Para o nosso exemplo vamos fazer uma solicitação na página inicial da MestreSEO. Vamos buscar pelo título da página.

Pois bem, para isto, vamos chamar a seguinte função na nossa planilha:
=ImportXML(“http://www.mestreseo.com.br”;”//title”)

Neste caso, a nossa expressão do XPath solicita que encontremos todos os nós “title” não importando a localização no documento, ou seja, tanto faz, no início, meio ou fim do documento. Ao chamar esta função, a planilha irá retornar a resposta:
MestreSEO – Otimização de Sites (SEO)

Um outro exemplo, ainda em cima da página inicial da MestreSEO, seria solicitar todos os links existentes na página. Um detalhe para este caso é que desejamos saber apenas o texto âncora, ou seja, o conteúdo do nó. Para isto, devemos chamar a seguinte função na nossa planilha:
=ImportXML(“http://www.dweb.com.br”;”//a”)

Com isto, a planilha irá nos mostrar todos os textos âncoras existentes em todos os links. Agora imagine que precisamos das URLs que os links apontam. Para isto, temos que chamar a seguinte função:
=ImportXML(“http://www.dweb.com.br”;”//a/@href”)

Na função do XPath, solicitamos todos os nós “a”, em qualquer parte do documento, e, em seguida, pedimos todos os conteúdos dos atributos “href” destes nós “a”. Assim, a função retorna todas as URLs de links da página.

Conclusões e Recomendações

Como pudemos ver o ImportXML é uma função muito interessante do Google Docs, onde podemos utilizá-lo para a leitura de arquivos estruturados. Seja uma página HTML, seja um XML, seja um feed RSS, podemos utilizar esta função para obter dados e analisá-los dentro de uma planilha do Gdocs.

Nos próximos artigos estaremos cobrindo diversas aplicações utilizando o ImportXML, tais como análise On Page, de backlinks e até mesmo de métricas para social media.

Espero que vocês tenham gostado desta primeira abordagem e até o próximo artigo!

 

Fonte: http://www.mestreseo.com.br/seo/importxml-guia-de-uso-e-exemplos-praticos

dezembro 13, 2012 Google Adwords 0 Comments

10 Dicas Para Campanhas Google Adwords de Sucesso

Google Adwords é um sistema de links patrocinados, que funciona com PPC e tem feito muita diferença na publicidade de grandes empresas. Vamos conferir algumas dicas de como montar sua campanha para que ela seja bem sucedida.

1. Trace um objetivo. Não adianta iniciar uma campanha de Adwords com o pensamento “quero vender mais”. É preciso estabelecer uma quantidade, uma proporção, algo plausível para análise de desempenho. É preciso também saber em quanto tempo esse “aumento de vendas” deve ser alcançado. Por exemplo, tenho um site que vende meias. Uma média de 300 visitas diárias e 2 vendas. Quero passar a 3000 visitas ao dia em 4 meses. Isso influencia diretamente no investimento financeiro a ser feito.

2. Se situe. Para que as pessoas se interessem pela sua campanha, é preciso que ela seja muito objetiva e exponha o melhor do seu produto. Identifique precisamente o que seu produto ou serviço oferece e suas maiores qualidades. Meu site de meias, por exemplo, não vou vender meias de seda ou algodão. Vendo pernas bonitas e pés quentes.

3. O ponto de partida. Recolha o maior número de informações sobre a sua situação atual que for possível. Com o Google Analytics, você pode obter informações do tipo: quantas visitas tenho atualmente, de onde elas vem, quanto tempo ficam no site, pelo que mais procuram, por onde entram no meu site, quanto cada cliente gasta em média… Quanto mais dados recolher, melhor. Conheça sua clientela.

4. Conheça os concorrentes. Seu site pode ser muito bom e seu produto de muita qualidade e, mesmo assim, não conseguir os clientes que queria. O problema pode ser a concorrência. Recolha informações do tipo: Quem são seus concorrentes no Google? O que, como e quando anunciam? Onde se posicionam? Os anúncios são sempre os mesmos ou mudam? Onde levam os anúncios?

5. Trace uma estratégia. Talvez, para alcançar seus objetivos, você não precise aparecer em primeiro lugar para todas as buscas, ou fazer uma campanha PPC por muito tempo. Analisando todas as informações recolhidas, estabeleça a estratégia a ser seguida.

6. Comece a campanha. Organize sua campanha por tópicos, cada produto ou serviço pode ser melhor explorado com uma campanha específica. Aproveite também os recursos de localização geográfica, idioma e tipo deanúncio para mostrar uma propaganda para o público que realmente está interessado no seu produto.

7. Não use palavras-chave duplicadas. Mesmo o Google desaconselha fazer campanhas diferentes focando a mesma keyword. Isso apenas fará seus anúncios concorrer entre si. Além disso, o Google mostra apenas um anúncio de cada anunciante em cada página de resultados.

8. Atenção aos detalhes. Menor número de keywords, mas mais específicas, dão mais resultado nas campanhas do que uma lista enorme e genérica de propagandas. Coloque a keyword no texto do seu anúncio. Coloque os aspectos exclusivos do eu produto/serviço no anúncio.

9. Não se engane. Direcionar seus clientes apenas para a sua página inicial não é um bom negócio. Manda-los para as páginas específicas dos produtos nos quais clicaram nos anúncios pode trazer uma taxa de conversão melhor. Unir uma campanha SEM a uma otimização do SEO de sua página pode melhorar muito os resultados.

10. Acompanhe seu desempenho. Você estudou, recolheu informações, estabeleceu objetivos e montou suas campanhas. Ótimo. Só não se esqueça de acompanhar e monitorar de perto o resultado de suas campanhas. Elas também o ajudarão a definir o melhor caminho a seguir.

Fonte: http://www.mestreseo.com.br/google-adwords/10-dicas-para-campanhas-google-adwords-de-sucesso

dezembro 13, 2012 SEO 0 Comments

Cloaking com Cross Domain Canonical Tag

A Canonical Tag

A Canonical Tag nada mais é do que uma tag HTML capaz de indicar para os mecanismos de busca que existe um conteúdo duplicado de uma página A com relação a uma página B. Por exemplo, se faço o seguinte código em uma url-B.html:

<head> 
<link rel="canonical" href="url-A.html" /> 
</head>

Eu indico para os mecanismos de busca que a página B em questão possui um conteúdo idêntico, ou muito similar, a página B e desta forma, todas as propriedades de link juice e trust devem ser transferidos para a página A. O único ponto da Canonical Tag é que ela poderia ser utilizada apenas entre páginas do mesmo domínio, fazendo com que, em alguns casos, você não possa indicar realmente de onde era aquele conteúdo duplicado.

Cross-Domain Canonical Tag

Conforme eu ilustrei no artigo, a Canonical Tag entre domínios surge para resolver o problema ilustrado no parágrafo anterior. Imagine um cenário onde você deseja distribuir o seu conteúdo nos seus sites de parceiros, algo que é muito comum com websites de jornais. O grande ponto é que ao pensar em SEO você acabaria com um grande problema de conteúdo duplicado, onde diversos sites, com diversas páginas teriam o mesmo conteúdo.

Pois bem, o Google anunciou então o suporte da Canonical Tag entre páginas de dois domínios, dando a possibilidade de indicar que qualquer página na internet possa ser a original do conteúdo que você apresenta. Por exemplo, para dizer que o conteúdo que estou exibindo na página X no domínio B é idêntico ao conteúdo na página Y no domínio A, basta fazer o código:

<head> 
<link rel="canonical" href="http://www.dominioA.com/paginaY.html" /> 
</head>

Cloaking com Cross-Domain Canonical Tag

Uma idéia de cloaking surgiu com a Cross-Domain Canonical Tag e pode ser um grande problema para os mecanismos de buscas que adotarem a tag. Pense no seguinte caso: Imagine um website de uma universidade de farmácia.

Nela com certeza encontraremos informações sobre materiais químicos, pesquisas e informações sobre remédios e pílulas. Agora pense em um website de farmárcia, que vende viagra e outros tipos de pílulas. Este website é um daqueles que faz spam em comentários, blogs e possui mais de 1 milhão de links com a âncora viagra. Diante deste cenário, pense na seguinte hipótese: um website de viagra paga um determinado aluno para fazer um artigo falando sobre viagra e publicá-lo na página da universidade, o que é muito comum, pois é fácil obter acesso ou criação de páginas em domínios de universidades.

Em seguida o dono do website de viagra fala para o estudante criar uma Canonical Tag, apontando para uma página do website de viagra, a qual possui o mesmo conteúdo, mas o dono pode alterar todas as imagens e manipular Calls to Action. Pronto! Temos um belo cloaking formado! Desta forma, basta fazer linkbuilding para a página da universidade, o que não é muito difícil, por ser uma boa pesquisa e desta forma todo o trust e juice adquirido para a página da universidade será passada para a página que está dentro do website de viagra.

Pense nas possibilidades! Não é preciso acesso direto ao servidor da universidade ou de um website relacionado, basta explorar falhas já conhecidas em blogs wordpress e apenas adicionar a Canonical Tag para uma página de spam. Desta forma, o problema de spam só aumenta.

Conclusões

Este artigo tem como idéia, discutir uma técnica de Black Hat que será comum neste mundo da nova Canonical Tag. Este é um problema que os mecanismos de busca terão que resolver e provavelmente já estão pensando em solução. Enquanto isto não é resolvido, mantenha o seu blog ou servidor web atualizado, desta forma você diminui o risco de “roubarem” o seu juice através da Canonical Tag. Um abraço e até a próxima!

Fonte: http://www.mestreseo.com.br/black-hat/cloaking-com-cross-domain-canonical-tag



Produtos
Empresa
Suporte