Nos dias 11 e 12 de outubro ocorreu o News & Editorial SEO Summit (NESS) 2023, evento voltado para profissionais de SEO que atuam em portais de notícias. Organizado por John Shehata e Barry Adams, o evento on-line contou com palestras de nomes como Glenn Gabe, Jes Scholz, Lily Ray, entre outros.
A Hedgehog participou dos dois dias do NESS 2023 e traz para vocês um resumo de cada uma das palestras, além de insigths para aplicar na sua agência ou redação. Confira!
A primeira palestra foi de Lily Ray, Head de Busca Orgânica e Diretora de SEO da Amsive Digital. Lilly é referência quando assunto é Google Discover e, por isso, esclareceu dúvidas sobre o que vem acontecendo com a ferramenta.
Muitos profissionais de SEO notaram uma queda nos acessos via Discover nos últimos meses, principalmente em relação aos web stories. De acordo com Lily, isso foi algo sentido em nível global. Grandes sites, como o The New York Times, foram afetados com as recentes atualizações do Discover, no que parece ser uma tentativa do Google em encontrar a melhor forma de mostrar suas indicações de conteúdo.
Então, o que fazer? Lily enfatizou a importância de seguir as diretrizes do Google para o Discover, como a dimensão das imagens de capa, uma tarefa básica que às vezes não é seguida pelos portais de notícias. Além disso, a palestrante deu algumas dicas de conteúdo que costumam ir bem no Discover. Veja alguns exemplos:
Voltando para as mudanças recentes no Discover, Lily encerrou chamando atenção para o aumento de visibilidade de vídeos – principalmente YouTube. O Google está em “guerra” com o TikTok e, provavelmente, aumentará a visibilidade da sua plataforma de vídeos, inclusive dos shorts, nas indicações do Discover.
A segunda palestra do primeiro dia foi de Richard Nazarewicz, Global SEO e Discovery Lead da BBC Studios em Nova York. Richard é especialista em SEO técnico voltado para notícias e deu insigths valiosos de como jornalistas podem se comunicar melhor com a equipe de desenvolvedores.
Naz, como é chamado, recomenda que os pedidos (tickets) sejam abertos seguindo um formato que deixe claro o impacto da mudança, propósito, deficiência técnica, prazo, entre outras informações que ajudam o desenvolvedor a atender o que está sendo pedido. Um briefing ajuda bastante.
Richard apresentou alguns formatos de tickets, mas ponderou que cada empresa ou redação deve encontrar aquele que faz mais sentido para o negócio.
Quando a demanda se tratar de algum erro técnico, por exemplo, Richard recomenda ao profissional de SEO enviar junto com o ticket as evidências do problema. Isso pode ser feito por meio de prints das diversas ferramentas que os analistas usam no dia a dia.
Por fim, o palestrante destacou a importância de compartilhar comunicados e relatórios de SEO com todas as equipes. “Dados são a chave para guiar as decisões de SEO”.
Claudio Cabrera é um premiado jornalista especialista em SEO e audiência para sites de notícias. Em sua palestra, deu dicas de como os profissionais de SEO podem influenciar e mudar toda uma redação.
Antes de tudo, Cabrera diz que a relação de profissionais de SEO com jornalistas e editores precisa se basear no que ele chama de “os 6 R’s: respect, read, reporting, relationships, recognition, readers. Em português, algo como respeito, leitura do ambiente organizacional, comunicação, relacionamentos, reconhecimento, leitores.
Em resumo, Claudio falou da importância do profissional de SEO mostrar, na prática, como o seu trabalho pode impactar positivamente na audiência do site. Por exemplo, informando qual conteúdo vai melhor no Discover, como otimizar títulos e imagens, além de explicar a importância de alguns assuntos mais técnicos, como velocidade de carregamento e redirects.
Mas, como convencer a importância de SEO em uma redação conservadora? De acordo com Cabrera, isso pode ser feito seguindo esses passos:
Tivemos muitas atualizações em 2023, como Broad Core Updates (CBU), Reviews Updates (RU), Helpful Content Updates (HCU). Glenn Gabe, uma das maiores referências em SEO técnico e marketing, mostrou como as recentes atualizações impactaram os sites de notícias e como evitar a perda de audiência com mudanças em algoritmos.
Gabe começou mostrando gráficos de como a audiência é geralmente afetada com atualizações. Apesar de demorarem em média duas semanas, já é possível perceber movimentações nos primeiros dias.
Broad Core Updates são as que mais trazem impacto, pois o Google está “reavaliando” os sites como um todo. Não só conteúdo, mas experiência do usuário (UX), excesso de publicidade, acessibilidade, etc. Isso reforça a importância de otimizar o site como um todo.
Falando em UX, o Helpful Content Update de setembro afetou bastante os sites que possuem publicidades mais agressivas (excesso de banners, por exemplo).
Um outro insight importante foi quando mostrou que o Discover costuma ser bastante afetado pelos updates. Por isso, recomenda-se que a audiência do site não dependa exclusivamente ou majoritariamente desse recurso.
Gleen Gabe demonstrou o quanto é fundamental um site construir autoridade para suas notícias conseguirem audiência. Um site pequeno, mas especialista em determinado nicho, pode ter mais visibilidade que um grande portal que escreve superficialmente sobre vários assuntos. Gabe até deixou uma dica para os sites: invista em jornalistas especializados.
Para construir autoridade, Gabe recomendou a criação de categorias (como Esporte, Saúde, Economia, etc) e, principalmente, páginas tags. No entanto, deu a dica: não exagere. Crie somente categorias e tags das quais seu site produz uma significativa quantidade de conteúdo.
Ao final, o especialista respondeu uma pergunta bastante feita no mundo do SEO: devo deletar conteúdos antigos? Gabe é enfático ao dizer que conteúdo antigo não significa ruim. Foque em qualidade, não em idade do artigo.
O primeiro dia do NESS 2023 encerrou com uma incrível apresentação de Barry Adams, um dos maiores especialistas em SEO do mundo. Ele dedicou o início de sua palestra para explicar os processos de crawling, idexing e ranking. Conceitos básicos, mas fundamentais para entender o funcionamento do Googlebot.
Começando pelo crawling, Adams explicou que existem três camadas de varredura: realtime, regular, legacy content.
Real time: notícias, páginas que são atualizadas com frequência
Regular: é o principal crawler, também busca pelos recursos da página
Legacy: páginas com pouco valor, páginas que apontaram 404 anteriormente
Para notícias é importante saber que, uma vez que o crawler passa pela página, demorará algumas horas para passar novamente. Por isso, faça as otimizações necessárias antes de publicar a notícia.
Qualquer mudança feita na notícia só vai ter efetividade horas depois, quando o regular crawler passar. Ou seja, geralmente você tem uma chance de ranquear no Google News. A exceção são os artigos-live.
Sobre o indexing, o especialista afirmou que a renderização da página requer tempo, o que não é bom para notícias. Dê preferência para HTML puro e evite excesso de Java Script.
Dicas: facilite a indexação
– Coloque todo o conteúdo crítico em HTML
– Não confie na renderização para carregar o principal conteúdo da notícia
Barry também abordou um assunto polêmico em portais de notícias: publicação de conteúdo de terceiros (syndicated content). Para os sites que permitem a publicação do seu conteúdo em outros sites, seja como parceria ou venda, o próprio Google recomenda solicitar o “noindex”.
A utilização do “noindex” garante que seu conteúdo seja o único exibido no Google News e na SERP como um todo. Isso também evita conteúdo duplicado, que, de acordo com Barry Adams, o Google é péssimo em identificar.
Ainda sobre conteúdo duplicado, o palestrante lembrou que não existe punição. O que acontece é que você tem vários conteúdos iguais competindo entre si, e isso é péssimo.
Ao final de sua palestra, Barry Adams abordou o tema mais discutido atualmente: Inteligência Artificial. O especialista recomendou bloquear o acesso de todos os bots de IA no robots.txt: CCbot, GPTBot, ChatGPT-User, Google-Extended. A intenção é evitar que as empresas não usem o conteúdo do seu site para desenvolver suas IAs.
No entanto, bloquear o Google-Extended não impede que o Google use o conteúdo do seu site para aprimorar sua IA. A única forma disso acontecer é bloqueando o Googlebot, o que faria seu site inteiro sumir da SERP.
Em breve as palestras do segundo dia
A experiência de compra online envolve a facilidade de navegação, segurança, agilidade no processo de…
Descubra como o Information Gain Score está revolucionando o SEO ao valorizar conteúdos autênticos e…
O Google November 2024 Core Update reforça a importância de focar conteúdos confiáveis e centrados…
Descubra como escolher entre uma agência de SEO e um profissional in-house para transformar sua…
O Google permanece como o principal buscador, enquanto plataformas como Instagram e YouTube continuam crescendo…
Descubra como escolher a agência de SEO certa para levar sua marca ao próximo nível,…
Este site utiliza cookies.