SEO (Search Engine Optimization) é um conjunto de estratégia...

Próximas questões
Com base no mesmo assunto
Q1307537 Noções de Informática

SEO (Search Engine Optimization) é um conjunto de estratégias feito para melhorar o ranqueamento e exibição de resultados de determinado website em motores de busca.


O mecanismo de busca seleciona sites considerados de melhor qualidade e, através desses, acessa outros sites. Este processo é conhecido como 

Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

Prezados, a questão aborda conhecimentos pertinente a Internet, Sítios de busca e pesquisa na Internet.

O que é SEO?

SEO é a sigla de Search Engine Optimization (otimização de mecanismos de busca) e é o conjunto de técnicas usadas, geralmente divididas entre tecnologia, conteúdo e autoridade, para alcançar bom posicionamento de páginas de um site no Google e em outros buscadores, gerando tráfego orgânico.

 

Como funcionam os motores de busca?

Os mecanismos de pesquisa funcionam por meio de três funções principais:

- Rastreamento/Crawling: Vasculha a Internet em busca de conteúdo, examinando o código/conteúdo de cada URL que encontrar. Assim, seguindo links para descobrir as páginas mais importantes da web.

- Indexação/Indexing: armazena e organiza o conteúdo encontrado durante o processo de rastreamento. Depois que uma página está no índice, ela está em execução para ser exibida como resultado de consultas relevantes. Assim, armazenando informações sobre todas as páginas recuperadas para recuperação posterior.

- Classificação/Ranking: Fornece as partes do conteúdo que melhor responderão à consulta de um pesquisador, o que significa que os resultados são ordenados do mais relevante para o menos relevante. Assim, determinando sobre o que é cada página e como ela deve ser classificada para consultas relevantes.

Conclui-se que a dentre as funções, aquela que melhor se encaixa na questão é Rastreamento/Crawling.

Gabarito do Professor:  Letra B

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

Errei.

Mas a a resposta é Crawling

Crawler, também conhecido como Spider ou Bot, é um robô usado pelos buscadores para encontrar e indexar páginas de um site. Ele captura informações das páginas e cadastra os links encontrados, possibilitando encontrar outras páginas e mantendo sua base de dados atualizada.

Correta, B

O web crawler, ou rastreador web, são robôs que navegam pela internet, trabalhando para os principais buscadores. Também chamados spiders e bots.

CRAWLER:

São uma das bases das Search Engines, eles são os responsáveis pela indexação dos sites, armazenando-os na base de dados dos motores de busca. Também são conhecidos como Spider ou Bot (robô). O processo que um Web crawler executa é chamado de Web crawling ou spidering.

Gabarito letra B. Não conhecia, achei essa matéria abaixo interessante.

Crawler: É um software desenvolvido para realizar uma varredura na internet de maneira sistemática através de informação vista como relevante a sua função. Eles capturam os textos das páginas e cadastram os links encontrados e assim possibilitam encontrar novas páginas. São uma das bases das Search Engines, eles são os responsáveis pela indexação dos sites, armazenando-os na base de dados dos motores de busca. Também são conhecidos como Spider ou Bot (robô).

O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML. Os crawlers também podem ser usados para obter tipos específicos de informação das páginas da Web, como minerar endereços de email (mais comumente para spam).

Spider: Também conhecido como Robô, Robot, Bot ou Crawler. São programas usados pelos mecanismos de busca para explorar a internet de maneira automática e fazer download de conteúdo web de sites web. De forma metódica, não expões o conteúdo que julga irrelevante no código fonte dos sites, e armazena o resto em seu banco de dados. Deste modo, os mecanismos de busca baseados em robôs (spider ou crawlers) que vasculham a Internet atrás de informações e classificam as buscas de acordo com os links e também os conteúdos encontrados nas páginas de busca, como é o caso do maior portal de buscas da web, o Google.

Deste modo, qualquer página precisa ser rastreada pelo robô e assim, poder aparecer nos resultados de busca dos mecanismos em questão.

fonte: https://www.oficinadanet.com.br/artigo/otimizacao__seo/qual-a-diferenca-entre-robo-spider-e-crawler

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo