Questões de Banco de Dados - Big Data para Concurso
Foram encontradas 218 questões
Julgue o item subsecutivo, a respeito de integração de dados e big data.
A atomicidade é um dos recursos da propriedade de
variedade do big data, e garante que todas as alterações
sejam efetivadas no banco de dados, sem permitir
atualização parcial.
Acerca de técnicas de modelagem de BI (business intelligence), de big data e de linguagem de manipulação de dados (DML), julgue o item que se segue.
Variedade, uma das métricas de big data, é caracterizada por
armazenar e processar uma quantidade de dados muito maior
do que os bancos de dados tradicionais foram projetados
para suportar, incluindo os bancos de dados relacionais
paralelos.
1. Data Warehouse.
2. Data Mart.
3. Data Lake.
4. Big Data.
5. Business Intelligence e Analytics.
6. Mineração de Dados.
( ) Ambiente de armazenamento de dados centralizado que integra informações de várias fontes para suportar a análise de negócios.
( ) Conjunto de ferramentas, técnicas e processos para coletar, organizar e analisar informações para fins estratégicos.
( ) Subconjunto de um Data Warehouse, geralmente focado em um único departamento ou área de negócios.
( ) Processo de descoberta de padrões, tendências e informações úteis em conjuntos de dados.
( ) Abordagem flexível e escalável para armazenar grandes volumes de dados de diferentes tipos.
( ) Conjuntos de dados extremamente grandes e complexos, muitas vezes além da capacidade de ferramentas de processamento de dados tradicionais.
A sequência está correta em
( ) Existem diversas tecnologias para processamento e análise de Big Data, mas a maioria possui algumas características comuns. Ou seja, adotam técnicas de escalonamento e processamento paralelo; utilizam dados não relacionais, e aplicam análises avançadas e visualização de dados.
( ) Existem três tecnologias de Big Data que se destacam: MapReduce, Hadoop e NoSQL. O Hadoop é uma técnica popularizada pelo Google que distribui o processamento de dados em grandes arquivos de dados multiestruturados em um grande cluster que pode ser alcançado dividindo o processamento em pequenas unidades de trabalho que podem ser executadas em paralelo.
( ) O MapReduce é um modelo de programação e uma implementação associada para processar e gerar grandes conjuntos de dados. Os programas escritos neste estilo funcional são automaticamente paralelizados e executados em um grande cluster de máquinas de alto desempenho. O modelo que programadores sem qualquer experiência com sistemas paralelos e distribuídos utilizem facilmente os recursos.
As afirmativas são, respectivamente,