O Google promoveu, em 10 de maio de 2023, sua conferência anual de desenvolvedores, a Google I/O 2023. No ano em que todas as pautas do setor de tecnologia tendem a gravitar rumo a inteligência artificial, a temática do evento não poderia ser outra senão o Bard, a IA que a empresa lançou frente ao sucesso do ChatGPT, criação da concorrente, Microsoft.
Não satisfeitos em rivalizar com o concorrente, a empresa do Grupo Alphabet resolveu ir muito além, trazendo possíveis soluções e implementações que chegarão ao público ainda esse ano. A conferência também marcou o momento em que removeram a lista de espera e disponibilizaram o Bard para utilização em mais de 180 países. Infelizmente, o Brasil não é um deles.
Pelo que constatamos no evento, a ferramenta trará possibilidades infinitas para usuários e exigirá certo jogo de cintura por parte de profissionais e agências de SEO. Para ajudar, listamos os principais pontos e alguns insights sobre os impactos na área a seguir.
Quer navegar para um ponto específico? É só usar os links abaixo:
Para contextualizar, Bard inicialmente seria um modelo de IA conversacional, em estilo chat, tal como o ChatGPT. Nas palavras do próprio criador, seu objetivo é o de “potencializar a sua imaginação, aumentar sua produtividade e dar vida às suas ideias”.
Por que inicialmente?
Porque a tecnologia utilizada será adicionada ao conjunto de ferramentas do Google. A ideia é que ela impacte o Google Docs, Sheets, Presentations, GMail, Google Maps e até mesmo o Google Photos.
Após um primeiro anúncio controverso, a empresa do gigante de buscas parece ter dado a volta por cima para trazer, em uma só IA, uma unificação de várias outras que estão crescendo no mercado.
Vale destacar que o Google já utiliza alguma tecnologia de generative AI, ou Inteligência Aritficial generativa.
Generative AI, ou IA generativa, já é algo utilizado em algumas frentes e ferramentas da empresa. De forma resumida, é a inteligência artificial com tecnologia para criar, gerar ideias, textos e até mesmo imagens.
Enquanto no momento não é tão avançada, já há algumas implementações que melhoraram, nos últimos anos, a experiência dos usuários com o GMail, Google Docs e mais. Veremos mais a respeito no decorrer do conteúdo.
Antes de passarmos ao mundo de possibilidades e oportunidades que a inteligência artificial abrirá no universo dos produtos Google, destacamos alguns conceitos e ferramentas apresentados para mantermos no radar.
O Bard é a ferramenta de inteligência artificial generativa do Google, criada como resposta à onda iniciada pelo ChatGPT. Com capacidade de compreensão conversacional, promete inovar a forma como buscas são feitas e respondidas e já está disponível em mais de 180 países.
Do inglês generative AI, é a tecnologia de inteligência artificial com capacidade de criar, gerar, ideias, textos, imagens, sons e outros recursos.
O Labs é uma espécie de espaço beta, onde é possível testar novas implementações disponibilizadas pela empresa. Dentro, destacamos as seguintes áreas de teste:
São modelos de linguagem de grande escala. Esses modelos são projetados para entender e gerar texto em linguagem natural em uma ampla variedade de domínios e tarefas.
Os LLMs são treinados em grandes conjuntos de dados textuais, como livros, artigos, sites e muito mais. Eles aprendem a capturar padrões linguísticos, contextos semânticos e sintáticos, além de adquirir um conhecimento geral sobre diferentes tópicos.
Com base nesse conhecimento, os LLMs podem responder a perguntas, gerar texto coerente, traduzir idiomas, escrever histórias e realizar várias outras tarefas relacionadas ao processamento de linguagem natural.
Exemplos populares de LLMs incluem o GPT-3 (Generative Pre-trained Transformer 3) da OpenAI e o BERT (Bidirectional Encoder Representations from Transformers) do Google. Agora, acrescentamos também o PaLM 2, que explicaremos a seguir.
O PaLM 2 é um grande modelo de linguagem (LLM) desenvolvido pelo Google que se destaca em tarefas avançadas de raciocínio, tradução, geração de código e compreensão da linguagem humana.
Ele foi construído com escalabilidade otimizada de computação, uma mistura aprimorada de conjuntos de dados e melhorias na arquitetura do modelo. O PaLM 2 foi treinado em textos multilíngues.
Também foi pré-treinado e é capaz de gerar código em mais de 20 linguagens de programação. Por fim, o modelo foi estudado e avaliado para precaver contra possíveis danos, vieses e para potencializar o uso responsável.
O Gemini é o próximo modelo desenvolvido pelo Google, projetado desde o início para ser multimodal e altamente eficiente na integração de ferramentas e APIs. Ele tem o objetivo de possibilitar futuras inovações, como memória e planejamento.
Estamos falando de um modelo em processo de treinamento e o plano é que entre no mercado com capacidades até então ainda não vistas. Por enquanto, no entanto, em termos práticos, o foco fica no PaLM 2.
O Vertex é o ambiente que reune as tecnologias de Google Cloud, com tecnologia IA e APIs treinadas nas mais diversas funcionalidades. Com interface unificada e capacidade de machine learning, permite a Devs compartilharem e usufruírem de diferentes novos aplicativos e features.
Em duas horas de Google I/O 2023, obtivemos insights e informações que poderiam facilmente compor um e-book. Vamos, aqui, tentar resumir o que vem pela frente em diferentes vertentes:
Também vimos anúncios sobre novidades no Google Cloud, principalmente com o Vertex AI, já explicado acima, e no campo do Android e hardwares da empresa. Por fugir um pouco da área, as especificidades desses campos não entrarão neste conteúdo.
A promessa é pela opção de usar a IA para escrever toda a resposta de um e-mail por você por meio de uma feature chamada de “help me write”. Basicamente, digitaremos um prompt dizendo o que deve ter na resposta, ou qual o objetivo, e ela redigirá levando em consideração o e-mail original. Ou seja, a IA será capaz de ler a mensagem recebida, identificar os tópicos, e criar uma resposta coerente a eles.
Também será possível criar um e-mail. Os exemplos mostrados no evento foram de e-mails de pitch de vendas, em que foi possível, inclusive, determinar quão extenso e detalhado o corpo do texto deveria ser.
Teremos, também, a adição do Sidekick, uma barra lateral presente em todo o Google Workspace que permitirá integrar todos os Apps.
Por exemplo, na Hedgehog temos a confraternização de final de ano em Dezembro e um dos primeiros passos é uma listagem, em planilha, em que cada um manifesta se tem ou não interesse de ir, se tem acompanhante, e qual o aeroporto mais próximo.
A segunda etapa é a abertura da planilha por alguém da equipe de gestão, que então deveria encaminhar um e-mail ao financeiro para compra das passagens, indicando quantas passagens para determinados aeroportos de origem.
Com a IA, essa resposta pode ser obtida sem sair do e-mail: é só digitar, no sidekick, um pedido para que compile uma lista de quantas passagens precisam ser compradas de cada aeroporto, considerando que pessoas com acompanhante precisam de 2 passagens. A resposta virá direto no e-mail que deverá ser enviado ao financeiro.
Versão resumida:
Assim como no caso do GMail, a IA pode ajudar a escrever todo um texto a partir de um breve prompt. O exemplo fornecido no evento foi para a redação de um anúncio de vaga de emprego: se precisarmos contratar um analista de SEO, bastará digitar o prompt pedindo um anúncio de vaga para analista de SEO.
O resultado é um texto completo e estruturado com a descrição da vaga, as responsabilidades, qualificações desejadas e mais. Caberá ao profissional que digitou o prompt apenas revisar a descrição e ajustar os requisitos e responsabilidades conforme os da empresa.
Com a barra lateral, carinhosamente chamada de Sidekick, é possível gerar imagens com base no texto do Doc. Escritores de ficção podem usar o sidekick para analisar uma história e levantar perguntas sobre o plot que ainda não foram respondidas. Estudantes, para oportunidades de melhoria dos trabalhos acadêmicos.
Em tese, seria possível redigir todo o conteúdo de um artigo para blog e pedir ao sidekick que gere a imagem de capa sem precisar de prompt nenhum: o texto no Doc será o prompt.
O destaque, aqui, na verdade, foi uma implementação aparentemente única no mercado: a IA conseguirá gerar os próprios prompts. Se você precisar de ajuda com um conteúdo no documento, mas não souber como pedir, a própria IA sugerirá prompts no sidekick com base no que já está ali no doc.
Versão resumida:
No Google Sheets, a proposta é de ajudar a distribuir dados e até mesmo criar a estrutura para inserção de informações. Será possível digitar, em um prompt, o que você quer organizar e a IA gerará toda a planilha com os campos essenciais.
Vamos supor que você é um freelancer na área de SEO e precisa coordenar sua lista de clientes. Bastará digitar “preciso conseguir listar meus clientes, horários e demandas” e a IA será capaz de gerar a planilha com todos os campos que, analisando a base de dados, ela entende necessários. É possível vivermos cenários em que a ferramenta gerará planilhas mais completas do que o usuário, criador do prompt, esperava.
Como plus, as planilhas já podem vir com elementos de design, como cor de dropdowns, configurados.
Versão resumida:
O Google Slides é o queridinho de quem faz apresentações de relatórios, auditorias, consultorias e quaisquer outros temas que demandam mais storytelling. Ali cabem textos, imagens e tabelas posicionados de forma escaneável ao usuário.
É natural que as inovações em inteligência artificial atuem para melhorar a qualidade do storytelling no Google Slides.
Será possível usar os textos dos slides como prompt para geração de imagens. A ferramenta fornecerá mais de uma opção, e você poderá escolher o estilo da imagem entre tipos como fotografia, desenho, realista e outros.
Isso não é tudo: a IA terá capacidade de gerar speaker notes e resumos de todos os slides de uma apresentação. Assim como nos demais casos, a criação dos textos também é uma feature incluída.
Versão resumida:
No Google Maps, a promessa é pela implementação do Immersive View for Routes. Vamos nos mover para algo além das rotas de mapas: será possível ver toda a jornada de um ponto de partida ao ponto final de forma diferente, interativa, como uma mescla do 3D street view com a função de rotas existente atualmente.
Abrindo espaço para uma analogia mais simples, a funcionalidade, como apresentada, lembra um pouco a forma como visualizamos ruas no SimCity ou no GTA.
Mas não é só isso: é possível ver a previsão do tempo para a rota, e até mesmo uma simulação caso comece a chover ou caso o tráfego de veículos fique muito intenso. A ideia é permitir que o usuário tenha uma noção detalhada do trajeto que precisará fazer.
A previsão é que a funcionalidade fique disponível em 15 cidades até o final de 2023.
Até agora, as features prometem colocar o Google na corrida contra ChatGPT e até mesmo IAs de geração de imagens. As funcionalidades prometidas ao Google Photos, por outro lado, parecem querer colocar editores de imagem no mix de concorrentes.
Isso não vale, a princípio, para Photoshop ou Illustrator que possuem funcionalidades bem complexas, mas Pixlr e mesmo Canva podem precisar repaginar os serviços.
Isso porque temos o Magic Eraser entrando na linha como uma ferramenta capaz de deletar pontos indesejados de uma foto. Sabe aquela fotografia em ponto turístico cheio de pessoas? Será possível remover as pessoas. Ou uma bolsa que você não queria estar segurando, ou a alça de uma mochila, e muito mais.
Não paramos aí: a verdadeira notícia veio com o Magic Editor, que reposiciona, edita, apaga, e até recria partes cortadas da imagem com base em prompts escritos e, em alguns casos, no simples ato de clicar e arrastar.
Por fim, teremos uma integração com o Adobe Firefly para permitir gerar imagens inéditas do zero com comandos simples. Com o recente posicionamento da Adobe em relação aos direitos autorais das imagens geradas por IA, nos resta aguardar para saber como isso será regulamentado nas fotos geradas por meio do Google.
Aqui temos uma informação relevante: o Bard não vai se limitar a integração com os apps do Google. Eles pretendem ir além para possibilitar a conexão com diversas ferramentas pela Web, e a parceria com a Firefly é só o início da onda que pretendem criar.
Nas palavras, parafraseadas, dos apresentadores, o Google Workspace foi criado para permitir a colaboração em real time com outras pessoas. Agora podemos fazer isso com a Inteligência Artificial, que pode agir como um coach, um parceiro, uma inspiração ou um auxiliar de produtividade.
Não é de surpreender que as funcionalidades disponíveis para o workspace são só a abertura para a apresentação sobre o que vem por aí no motor de busca, certo? Primeiro produto do Google, o motor de buscas ainda é o carro-chefe quando falamos em número de usuários.
Nos últimos anos, nós da área de SEO acompanhamos toda a movimentação dos updates do Google no sentido de uma SERP mais confiável e sem informações erradas ou nocivas ao usuário. Essa tendência se mantém com a implementação da IA generativa às buscas.
Primeiro, será possível fazer buscas mais completas de uma só vez. Quando temos perguntas completas ou encadeadas, é normal precisar fazer buscas menores e unir as informações. Com a IA, isso não será mais necessário: ela é capaz de pegar uma pergunta longa e complexa e mapear as várias respostas para trazê-las de forma unificada e resumida.
A SERP será mais integrada. Veja dois screenshots tirados do evento:
Perguntas longas tendem a envolver diferentes intenções de pesquisa — mesmo que sejam do mesmo tipo. A resposta para a pergunta em si pode, por vezes, demandar um conteúdo muito específico que sequer pode estar disponível no Search Index. O que a IA faz? Compila os dados das várias buscas que faríamos, fazendo-as por nós, e trazendo a resposta.
Buscas transacionais também sofreram modificações. Agora, a IA trará informações relevantes sobre o produto, ajudando o usuário a entender o que considerar na hora de buscar.
Depois disso virá a lista de produtos em si, que será composta por uma imagem, reviews, descrição. O jogo continua para quem atua na frente de SEO para E-Commerce, mas com pequenas mudanças nas regras.
Toda a construção dos resultados tem como base o Google Shopping Graph, base de dados com mais de 35 bilhões de listings, e com updates de 1.8 bilhões de produtos por hora.
Clicando no produto, podemos ver vários varejistas, os preços, o site, o estoque e até se o frete é grátis.
Mas e os links? Continuam! No painel de respostas, chamado de Snapshot, o resultado vem acompanhado de sites de referências, que poderão aparecer inclusive em formatos mais visuais, como carrossel.
O usuário poderá ler a resposta resumida e, se quiser, clicar para navegar ao conteúdo de origem de cada tópico. O recurso também ajudará a verificar a veracidade das informações trazidas pela IA. Quem acha que o SEO vai morrer pode descartar a ideia: ele continua mantendo sua relevância.
Em todos os casos, sejam nas buscas informacionais ou transacionais, você pode clicar para pedir um ‘follow up’. O clique direciona a um modo conversacional, e pode adicionar mais detalhes sobre o que você quer e corrige a resposta. O ponto principal aqui será a compreensão do Google Search sobre sua intenção de buscas para entregar as respostas.
No Google Imagens, teremos uma relação próxima entre prompts e respostas visuais. A IA usa o Google Search e o Knowledge Graph de determinada keyword para encontrar as imagens mais relevantes para a busca.
Além disso, teremos a integração do Lens ao Bard. Será possíveol fazer o upload de uma imagem e pedir à Inteligência Artificial que crie legendas, textos sobre a imagem e mais.
Por fim, teremos mais versatilidade em uma busca multicanais. Será possível, por exemplo, pedir uma lista de cinco restaurantes italianos no Rio de Janeiro ao Bard. Depois, pode solicitar que mostre em uma imagem ou mesmo em um mapa.
As buscas serão integradas, podemos enviar algo do Bard para outros Google apps: uma resposta em <table> format pode ir para o Google Sheets, por exemplo.
Resumindo os tópicos:
Também temos funcionalidades que impactam as buscas de um ponto de vista focado em acessibilidade e UX. O destaque vai para o Universal Translate, que será capaz de traduzir e dublar vídeos de um idioma para outro automaticamente. Para prevenir riscos de uso indevido, a funcionalidade só será liberada para parceiros autorizados no início.
A IA aumenta a possibilidade de obter informações, mas também aumenta o risco de confiabilidade. Nos textos, temos os links aparecendo após a resposta da IA. Mas a situaçãomuda para imagens: haverá algumas ferramentas para avaliar a informação, tanto de textos quanto de imagens.
Haverá duas formas de avaliar imagens: a ferramenta “sobre a imagem” mostrará outros locais nos quais a imagem apareceu.
O Google Lens também entra como possibilidade de verificar a veracidade de uma imagem.
No futuro, criadores poderão adicionar metadados específicos de criação da imagem, créditos ao portal em que foi retirada e mais.
Aliás, é bem importante ter em mente que todo o posicionamento do Google foi no sentido de que a IA deve complementar o trabalho humano, não substituí-lo. Uma frase interessante de Cathy Edwards no evento, parafraseada aqui, foi: mesmo em um mundo buscas e respostas de IA generativa, as pessoas ainda valorizarão e precisarão de insights humanos.
É com essa perspectiva que temos a introdução do Perspectives, uma página de resultados com conselhos e opiniões em primeira mão de quem já viveu ou conhece sobre o assunto da sua busca. O formato parece se adequar às preferências da geração que migrou, em peso, para TikTok ou mesmo para o Reels, do instagram, e parece um pouquinho com o feed do Pinterest em termos de navegação.
Além dos pequenos insights distribuídos ao longo do texto, é hora de trazermos uma visão mais aprofundada sobre os impactos da IA do Google no trabalho de otimização para mecanismos de buscas.
Para isso, é hora de passar a palavra ao C.S.O da Hedgehog Digital, Felipe Bazon.
Muitas funcionalidades apresentadas e prometidas no Google I/O 2023 estarão disponíveis apenas no final do ano. No nosso caso, no Brasil, resta torcer para que ao menos o Bard seja disponibilizado logo, já que não integramos o grupo de 180 países aos quais a IA foi liberada no dia 10 de maio.
Não há espaço para o clichê de que o ‘SEO vai morrer’. As pessoas sempre buscarão informações, e o que é SEO, senão a otimização para aparecer nos resultados de uma busca? Como vimos, ainda haverá espaço para sites, conteúdos, produtos e mais na SERP mesmo com a IA.
O foco será em conseguir se adaptar às novidades, algo que os profissionais da área já têm feito consistentemente, principalmente desde os grandes Core Updates como Panda, Penguin e todos os que vieram em sequência.
Uma coisa, no entanto, se mantém: o objetivo de todo SEO de gerar demanda para os clientes. Para ler mais sobre isso, veja um conteúdo sobre como conectamos SEO, Marketing e Geração de Demanda na atuação da agência.
A experiência de compra online envolve a facilidade de navegação, segurança, agilidade no processo de…
Descubra como o Information Gain Score está revolucionando o SEO ao valorizar conteúdos autênticos e…
O Google November 2024 Core Update reforça a importância de focar conteúdos confiáveis e centrados…
Descubra como escolher entre uma agência de SEO e um profissional in-house para transformar sua…
O Google permanece como o principal buscador, enquanto plataformas como Instagram e YouTube continuam crescendo…
Descubra como escolher a agência de SEO certa para levar sua marca ao próximo nível,…
Este site utiliza cookies.