Considerando os mecanismos de busca baseados em robôs, o pro...
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
A alternativa A é a correta, pois descreve o processo de Spidering ou crawling. Este é o procedimento essencial realizado por motores de busca para explorar a web. Nesse contexto, os 'spiders' ou 'crawlers' são programas que percorrem a internet de maneira sistemática, acessando páginas web e coletando informações de forma automatizada. Estas informações incluem o conteúdo textual de páginas, que posteriormente é usado para indexação, permitindo pesquisas eficazes pelos usuários.
Alternativa A - Spidering ou crawling: Esta alternativa é correta porque descreve precisamente o processo pelo qual robôs de busca navegam e coletam dados na internet. Ao 'rastrear' a web, eles obtêm informações necessárias para a construção de um índice que será usado para facilitar a busca de informação.
Alternativa B - Indexing: A indexação é a etapa subsequente ao crawling. Após coletar dados através do crawling, as informações são organizadas em um índice que permite localizar rapidamente o conteúdo durante uma busca. Portanto, não descreve o processo inicial de busca e coleta de informações.
Alternativa C - Query processing: Refere-se ao processamento de consultas, quando o usuário realiza uma busca e o sistema interpreta e executa esta solicitação com base no índice previamente criado. Esta etapa ocorre após o crawling e indexação.
Alternativa D - Network sneefing: Está relacionada à interceptação e análise de pacotes de dados em uma rede de computadores. Não possui relação direta com o processo de busca e indexação de páginas web por motores de busca.
Alternativa E - Proxy processing: Envolve o uso de servidores intermediários para processar solicitações de clientes em uma rede. Não está relacionado ao processo de busca de informações na web por um motor de busca.
Gostou do comentário? Deixe sua avaliação aqui embaixo!
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
Um Web crawler é um tipo de robô de Internet ou agente de software.[2] Em geral, ele começa com uma lista de URLs para visitar (também chamado de seeds). À medida que o crawler visita essas URLs, ele identifica todos os links na página e os adiciona na lista de URLs para visitar. Tais URLs são visitadas recursivamente de acordo com um conjunto de regras.
Fonte: Wikipedia
O termo spidering (“agir como aranha”) refere-se à forma de navegação de indexadores automáticos de páginas, que visitam recursivamente todos os links de páginas na Web (“teia”) para descobrir novos sites e atualizações de sites conhecidos.
Stallings.
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo