Questões de Banco de Dados - Big Data para Concurso
Foram encontradas 238 questões
Kappa, uma arquitetura de software usada para processar dados, fornece acesso a métodos de processamento em lote e processamento de fluxo com uma abordagem em quatro camadas.
No ecossistema Apache Hadoop, as tabelas HBase são distribuídas no cluster por meio de regiões, as quais são automaticamente divididas e redistribuídas à medida que seus dados crescem.
Com relação às arquiteturas de big data, analise as afirmativas a seguir.
I. As arquiteturas de big data suportam um ou mais tipos de carga de trabalho, por exemplo, processamento em lote de fontes de big data em repouso; processamento em tempo real de big data em movimento; exploração interativa de big data e análise preditiva e aprendizado de máquina.
II. A arquitetura kappa aborda o problema da baixa latência criando dois caminhos para o fluxo de dados. Todos os dados que entram no sistema passam por dois caminhos: a camada de lote (caminho frio) que armazena os dados de entrada em sua forma bruta e executa o processamento os dados em lote, e a camada de velocidade (hot path) que analisa os dados em tempo real. Essa camada é projetada para ter baixa latência, em detrimento da precisão.
III. A arquitetura lambda, posterior à kappa, foi proposta para ser uma alternativa para mitigar os problemas da baixa latência. Lambda tem os mesmos objetivos da kappa, mas com uma distinção importante: todos os dados fluem por um único caminho, usando um sistema de processamento de fluxo de dados. Semelhante à camada de velocidade da arquitetura lambda, todo o processamento de eventos é realizado através de um fluxo único de entrada.
Está correto o que se afirma em
Leia o fragmento a seguir.
“Atualmente, no contexto do Big Data e Data Analytics, faz-se referência às características enunciadas por pesquisadores e produtores de soluções como sendo um conjunto de cinco Vs. Originalmente, a definição clássica de Big Data fez referência a três Vs fundamentais: _____, _____ e _____ de dados que demandam formas inovadoras e rentáveis de processamento da informação, para melhor percepção e tomada de decisão.”
Assinale a opção cujos itens completam corretamente as lacunas do fragmento acima, na ordem apresentada.
Julgue o próximo item, a respeito de ETL, ELT e data lake.
Data lake é um tipo de repositório que armazena grandes
volumes de dados, sob um esquema de banco de dados
comum, unificado, visando responder perguntas específicas
do negócio; esse sistema de armazenamento também oferece
uma visão multidimensional dos dados atômicos e
resumidos.
O HDFS fornece acesso de alto rendimento a grandes conjuntos de dados; o sistema armazena, separadamente, metadados do sistema de arquivos e dados de aplicativos: enquanto os metadados são armazenados em um servidor dedicado, denominado NameNode, os dados da aplicação são armazenados em outros servidores, denominados DataNodes.
Acerca das noções de Big Data, julgue o item.
O Big Data é definido unicamente como uma tecnologia
de ponta que proporciona, por meio de uma pequena
quantidade dados, uma mudança nas formas
tradicionais de análise de dados.
Acerca das noções de Big Data, julgue o item.
No Big Data, o tratamento dos dados é realizado com o
apoio de algoritmos inteligentes, com a finalidade de
chegar a uma conclusão sobre que tipo de ação tomar.
Acerca das noções de Big Data, julgue o item.
Os 5 Vs do Big Data representam os fatores de
sustentação em que a abordagem de Big Data está
apoiada. Esses fatores são os seguintes: volume;
variedade; velocidade; veracidade; e visibilidade.
Acerca das noções de Big Data, julgue o item.
Um dos desafios para as ferramentas de Big Data é a
manipulação de dados semiestruturados e não
estruturados, com o intuito de extrair valor destes por
meio de correlações e outros processamentos de
análise.
Acerca das noções de Big Data, julgue o item.
A premissa básica para que se tenha sucesso com o uso
de Big Data é que se deve considerar somente um
grupo/fator homogêneo nas tomadas de decisões.
I. Hadoop e Elasticsearch são exemplos de tecnologias que permitem a computação em nuvem.
II. BIG Data é o termo em tecnologia da informação que tem a capacidade de trabalhar com grandes conjuntos de dados.
III. O Conceito de BIG DATA pode ser subdividido em 5 categorias ou “5 v’s”, VOLUME, VALOR, VELOCIDADE, VERACIDADE e VARIEDADE.
IV. Um dos maiores desafios em trabalhar com soluções de BIG DATA é o volume dos dados.
Essa condição para o rollover de um índice baseado no nível de espaço em disco ocupado foi definida em EspacoPolicy, por Lucas, para a fase do ciclo de vida de índices:
A fim de estruturar a entrada do SPipeline com o uso de expressões regulares, Pedro deve adicionar ao SPipeline o filtro do Logstash:
Acerca das noções de Big Data, julgue o item.
Por mais que a tecnologia do Big Data possua recursos destinados ao tratamento de dados, somente os dados estruturados
é que são tratados por ela. O Big Data, por exemplo, não incorpora dados de e-mail e mídias sociais.
Acerca das noções de Big Data, julgue o item.
O Big Data utiliza uma infraestrutura física diferente da dos dados tradicionais, com a finalidade de suportar um volume de
dados inesperado ou imprevisível.
Acerca das noções de Big Data, julgue o item.
Capturar e Integrar são partes do ciclo de gestão do Big Data.