O Google adiciona novos recursos para melhorar sua pesquisa, e eles são legais | TechRadar
O Google lançou uma série de anúncios, todos com o objetivo de aprimorar seu principal produto: a busca. Na sua Pesquisa no evento, a empresa deixou claro que se concentrará no uso de IA para ajudar seus usuários. Os novos recursos incluem um novo algoritmo para lidar melhor com os erros de ortografia nas consultas do usuário, a capacidade de detectar músicas cantaroladas e novas ferramentas para ajudar os alunos com os deveres de casa.
A empresa também anunciou atualizações para o Google Lens e outras ferramentas relacionadas à pesquisa.
Mipsellings ‘podem não importar
O evento do Google, que foi transmitido ao vivo, era “para compartilhar vários novos avanços no ranking de busca, possibilitados por nossas últimas pesquisas em inteligência artificial”.
Um dos destaques foi a busca do Google que melhorou sua capacidade de lidar com erros de digitação. O Google disse que 1 em cada 10 consultas contém erros ortográficos. Mesmo que atualmente seja endereçado com seu ‘você quis dizer?’ função, o Google está melhorando. “Hoje, estamos introduzindo um novo algoritmo de ortografia que usa uma rede neural profunda para melhorar significativamente nossa capacidade de decodificar erros ortográficos. Na verdade, essa única mudança é uma melhoria maior na ortografia do que todas as nossas melhorias nos últimos cinco anos.” Prabhakar Raghavan, vice-presidente sênior de pesquisa e assistente do Google, Geo, Ads, Commerce, Payments and NBU, disse.
O novo algoritmo de grafia ajuda o Google a entender o contexto de palavras com erros ortográficos, para que possa ajudar os usuários a encontrar os resultados corretos, tudo em menos de 3 milissegundos.
O Google espera que sua nova tecnologia melhore 7 por cento das consultas de pesquisa em todos os idiomas à medida que for implementada globalmente.
Dados importantes agora disponíveis
O Google também está integrando e disponibilizando na Pesquisa várias fontes de dados que antes estavam disponíveis apenas como parte do Open Data Commons do Google.
“Agora, quando você faz uma pergunta como ‘quantas pessoas trabalham em Chicago’, usamos o processamento de linguagem natural para mapear sua pesquisa para um conjunto específico de bilhões de pontos de dados no Data Commons para fornecer as estatísticas corretas de uma forma formato visual, de fácil compreensão. Você também encontrará outros contextos e pontos de dados relevantes, como estatísticas de outras cidades, para ajudá-lo a explorar facilmente o assunto com mais profundidade “, disse o Google
Momentos-chave no conteúdo de vídeo
À medida que o mundo está adotando cada vez mais o conteúdo de vídeo, o Google criou reconhecimento de computador avançado e reconhecimento de voz para marcar momentos importantes em vídeos.
“Com uma nova abordagem baseada em IA, agora podemos entender a semântica profunda de um vídeo e identificar automaticamente os momentos-chave. Isso nos permite marcar esses momentos no vídeo, para que você possa navegar por eles como capítulos de um livro. você está procurando por essa etapa em um tutorial de receita ou o home run vencedor do jogo em um rolo de destaques, você pode encontrar esses momentos facilmente. Começamos a testar essa tecnologia este ano e, no final de 2020, esperamos 10 por cento de As pesquisas do Google usarão essa nova tecnologia. “
Hum e pegue
O Google disse que agora pode detectar zumbidos e assobios de voz para mostrar qual música o usuário deseja pesquisar. Na pesquisa do Google, os usuários podem tocar no ícone do microfone e dizer “Que música é esta?” ou clique em “Encontrar uma música” e comece a cantarolar por 10 a 15 segundos. No Google Assistente, os usuários podem dizer: “Ok Google, que música é esta?” e então cantarole a melodia.
Lens se presta a múltiplos usos
Outra coisa legal é no Google Lens, onde você pode pedir ao aplicativo para ler um trecho de uma foto de um livro, independente do idioma. Com o Google Lens, os usuários podem clicar em qualquer imagem que encontrarem e ela, por sua vez, exibe itens semelhantes e sugere maneiras de criar roupas.
Com o recurso Google Lens, os usuários podem tirar uma foto de um problema de lição de casa e converter a imagem de uma questão de lição de casa em uma consulta de pesquisa. Os resultados mostrarão como resolver o problema passo a passo.
Mapas têm mais sobre eles
No que diz respeito às compras, se você estiver procurando, digamos, um carro, o Google agora poderá fornecer uma visualização de RA para que você possa ver como ele se parece. “O distanciamento social também mudou drasticamente a maneira como compramos, e é por isso que facilitamos a compra visual do que você procura online, esteja você procurando um suéter ou queira ver um carro novo mais de perto, mas você pode.” “Visite um showroom”, disse o Google.
No Google Maps, o Google exibirá informações ao vivo diretamente no mapa, para que você não precise pesquisar especificamente por elas. “Também estamos adicionando informações de segurança COVID-19 à frente e ao centro dos perfis de negócios na Pesquisa Google e no Maps. Isso ajudará você a saber se uma empresa exige que você use uma máscara, se você precisa fazer uma reserva antecipada ou se a equipe está tomando precauções de segurança adicionais, como verificações de temperatura. E usamos nossa tecnologia de bate-papo Duplex para ajudar as empresas locais a manter suas informações on-line atualizadas, como o horário de funcionamento da loja e o estoque “, disse o Google. .
Para jornalistas também
Como parte do Journalist Studio, o Google está lançando o Pinpoint, uma nova ferramenta que leva o poder da Pesquisa Google aos jornalistas. “O Pinpoint ajuda os jornalistas a navegar rapidamente em centenas de milhares de documentos, identificando e organizando automaticamente os indivíduos, organizações e locais mencionados com mais frequência. Os jornalistas podem se registrar para solicitar acesso ao Pinpoint a partir desta semana”, disse o Google.
Fonte: Google