Considerando os mecanismos de busca baseados em robôs, o pro...

Próximas questões
Com base no mesmo assunto
Q642683 Design Gráfico
Considerando os mecanismos de busca baseados em robôs, o processo de busca de páginas em sítios da internet e a construção de uma lista de palavras e frases encontradas em cada página, é denominado
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

A alternativa A é a correta, pois descreve o processo de Spidering ou crawling. Este é o procedimento essencial realizado por motores de busca para explorar a web. Nesse contexto, os 'spiders' ou 'crawlers' são programas que percorrem a internet de maneira sistemática, acessando páginas web e coletando informações de forma automatizada. Estas informações incluem o conteúdo textual de páginas, que posteriormente é usado para indexação, permitindo pesquisas eficazes pelos usuários.

Alternativa A - Spidering ou crawling: Esta alternativa é correta porque descreve precisamente o processo pelo qual robôs de busca navegam e coletam dados na internet. Ao 'rastrear' a web, eles obtêm informações necessárias para a construção de um índice que será usado para facilitar a busca de informação.

Alternativa B - Indexing: A indexação é a etapa subsequente ao crawling. Após coletar dados através do crawling, as informações são organizadas em um índice que permite localizar rapidamente o conteúdo durante uma busca. Portanto, não descreve o processo inicial de busca e coleta de informações.

Alternativa C - Query processing: Refere-se ao processamento de consultas, quando o usuário realiza uma busca e o sistema interpreta e executa esta solicitação com base no índice previamente criado. Esta etapa ocorre após o crawling e indexação.

Alternativa D - Network sneefing: Está relacionada à interceptação e análise de pacotes de dados em uma rede de computadores. Não possui relação direta com o processo de busca e indexação de páginas web por motores de busca.

Alternativa E - Proxy processing: Envolve o uso de servidores intermediários para processar solicitações de clientes em uma rede. Não está relacionado ao processo de busca de informações na web por um motor de busca.

Gostou do comentário? Deixe sua avaliação aqui embaixo!

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

Um Web crawler é um tipo de robô de Internet ou agente de software.[2] Em geral, ele começa com uma lista de URLs para visitar (também chamado de seeds). À medida que o crawler visita essas URLs, ele identifica todos os links na página e os adiciona na lista de URLs para visitar. Tais URLs são visitadas recursivamente de acordo com um conjunto de regras.

Fonte: Wikipedia

O termo spidering (“agir como aranha”) refere-se à forma de navegação de indexadores automáticos de páginas, que visitam recursivamente todos os links de páginas na Web (“teia”) para descobrir novos sites e atualizações de sites conhecidos.

Stallings.

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo