Questões de Banco de Dados para Concurso
Foram encontradas 12.811 questões
Quais tipos de conhecimento podem ser descobertos empregando técnicas clássicas de mineração de dados?
1. Regras de Associação
2. Hierarquias de classificação
3. Padrões sequenciais ou de série temporal
4. Conhecimento implícito, emergente e não estruturado
5. Agrupamentos e segmentações
Assinale a alternativa que indica todas as afirmativas corretas.
Sobre restrições no modelo relacional, associe o tipo de restrição à sua respectiva descrição.
Coluna 1 Tipo de restrição
1. Restrições implícitas
2. Restrições explícitas
3. Restrições semânticas
Coluna 2 Descrição
( ) Não podem ser expressas diretamente nos esquemas do modelo de dados.
( ) São restrições inerentes ao modelo de dados e baseadas nele.
( ) Definidas pela DDL e expressas nos esquemas do modelo de dados.
Assinale a alternativa que indica a sequência correta, de cima para baixo.
Analise as afirmativas abaixo sobre modelos Entidade-Relacionamento.
1. São modelos abstratos cujo objetivo é descrever de forma conceitual um banco de dados.
2. As entidades representadas no modelo correspondem aos atores envolvidos na operação do software do respectivo banco de dados.
3. O produto da modelagem é um diagrama escrito na notação BPMN, denominado Diagrama ER.
Assinale a alternativa que indica todas as afirmativas corretas.
No contexto de modificação de valores de atributos de dimensões em modelos multidimensionais e de data warehouse, identifique o valor correto dos tipos (0, 1, 2…n) de modificação de valores de atributos de dimensão, conforme as técnicas definidas por Kimball, para:
( ) Acrescentar um novo registro
( ) Sobrescrever
( ) Reter o valor original
( ) Adicionar um novo atributo
Assinale a alternativa que indica a sequência correta, de cima para baixo.
Analise as afirmativas abaixo no contexto da modelagem multidimensional, sobre Dimensões.
1. Dimensões de perfil transacional ou junk dimensions são essenciais em toda modelagem multidimensional para representar os sistemas transacionais de modo fidedigno.
2. Tabelas de dimensão de calendário são consideradas boas práticas e acompanham tabelas fato de modo a permitir uma navegação temporal dos fatos da tabela fato.
3. Uma única dimensão pode ser referenciada múltiplas vezes em uma tabela fato, com cada referência vinculada a uma função logicamente distinta para a dimensão.
Assinale a alternativa que indica todas as afirmativas corretas.
Analise as afirmativas abaixo no contexto da modelagem multidimensional, sobre tabelas fato.
1. É possível trabalhar com tabelas fato sem nenhum fato, contendo tão somente um conjunto de dimensões por registro.
2. Tabelas fato agregadas nada mais são do que rollups de tabelas fato atômicas com vistas à otimização de performance.
3. Tabelas fato consolidadas são aquelas capazes de consolidar fatos de múltiplas tabelas fato distintas com granularidades também distintas.
Assinale a alternativa que indica todas as afirmativas corretas.
Ordene corretamente os 4 passos do processo de design dimensional de kimball:
( ) Identificar os fatos.
( ) Selecionar o processo de negócios.
( ) Identificar as dimensões.
( ) Declarar a granularidade.
Assinale a alternativa que indica a sequência correta, de cima para baixo.
Analise as afirmativas abaixo com relação ao modelo dimensional e aplicações de BI, no contexto de tabelas fato e dimensões.
1. No modelo dimensional, dimensões não podem conter referências a outras dimensões diretamente, sob risco de degradação de performance. Junções entre dimensões devem ser realizadas através da tabela fato correspondente.
2. Instruções SQL que realizam junções entre tabelas fato empregando suas chaves estrangeiras não devem ser utilizadas, uma vez que é impossível controlar a cardinalidade do conjunto resultante de tal junção em um banco de dados relacional.
3. Dimensões multivaloradas devem ser acopladas à tabela fato empregando-se uma chave dimensional de grupo associada a uma tabela ponte (bridge table) intermediária com uma linha para cada valor dimensional.
Assinale a alternativa que indica todas as afirmativas corretas.
São todos tipos de restrições ou constraints que podem ser expressos diretamente nos esquemas do modelo de dados relacional e esquemas de bancos de dados relacional, incluídas na linguagem de definição de dados (DDL).
1. De domínio
2. Integridade Semântica
3. Integridade Referencial
4. Integridade de Entidade
Assinale a alternativa que indica todas as afirmativas corretas.
Com relação aos estágios do processamento e otimização de consultas SQL em sistemas de bancos de dados distribuídos, analise as afirmativas a seguir e assinale (V) para a verdadeira e (F) para a falsa.
( ) A consulta de entrada em dados distribuídos é especificada formalmente usando uma linguagem de consultas, que depois, é traduzida para uma consulta algébrica em relações globais. A tradução refere-se ao esquema conceitual global e não leva em consideração a distribuição e a replicação de dados.
( ) Em bancos de dados distribuídos, a fragmentação resulta em relações armazenadas em sites separados com alguns fragmentos. Este estágio mapeia a consulta distribuída no esquema global para as consultas separadas em fragmentos individuais, usando informações de distribuição e replicação de dados.
( ) A otimização local da consulta consiste em construir uma estratégia com base em uma lista de candidatas que está mais próxima do ideal. A lista de consultas otimizadas pode ser obtida ao permutar a ordenação das operações em uma consulta de fragmentos geradas em estágios anteriores.
As afirmativas são, na ordem apresentada, respectivamente,
Uma regra de associação utilizada em mineração de dados é uma expressão de implicação no formato X → Y, onde X e Y são conjuntos disjuntos de itens, onde X ∩ Y = Ø. A força de uma regra de associação pode ser medida em termos do seu suporte (sup) e confiança (conf).
Assinale a opção que apresenta a definição formal da métrica confiança.
Com relação ao teorema CAP e suas propriedades aplicadas ao contexto de bancos de dados NoSQL na Web, analise as afirmativas a seguir.
I. Consistência é a garantia de o sistema devolverá a resposta correta a cada requisição de dados que atender, ou seja, os dados devolvidos serão os mais atualizados que estejam disponíveis.
II. Atomicidade é a garantia de que toda requisição recebida pelo sistema em um nó não falho, será respondida o mais isoladamente possível.
III. Performance é a garantia de que o sistema continue operante mesmo no caso da ocorrência de uma falha que isole os nós em grupos, e que os nós não consigam se comunicar com os demais do grupo.
Está correto o que se afirma em
Com relação às arquiteturas de big data, analise as afirmativas a seguir.
I. As arquiteturas de big data suportam um ou mais tipos de carga de trabalho, por exemplo, processamento em lote de fontes de big data em repouso; processamento em tempo real de big data em movimento; exploração interativa de big data e análise preditiva e aprendizado de máquina.
II. A arquitetura kappa aborda o problema da baixa latência criando dois caminhos para o fluxo de dados. Todos os dados que entram no sistema passam por dois caminhos: a camada de lote (caminho frio) que armazena os dados de entrada em sua forma bruta e executa o processamento os dados em lote, e a camada de velocidade (hot path) que analisa os dados em tempo real. Essa camada é projetada para ter baixa latência, em detrimento da precisão.
III. A arquitetura lambda, posterior à kappa, foi proposta para ser uma alternativa para mitigar os problemas da baixa latência. Lambda tem os mesmos objetivos da kappa, mas com uma distinção importante: todos os dados fluem por um único caminho, usando um sistema de processamento de fluxo de dados. Semelhante à camada de velocidade da arquitetura lambda, todo o processamento de eventos é realizado através de um fluxo único de entrada.
Está correto o que se afirma em
Com relação às características dos componentes do ecossistema Hadoop, analise as afirmativas a seguir.
I. Kafka é um gerenciador de armazenamento de dados do tipo colunar de código aberto de fácil integração com MapReduce e Spark, que utiliza o modelo de consistência forte, permite que o desenvolvedor escolha requisitos de consistência por solicitação, incluindo a opção de consistência estritamente serializável.
II. Impala, que tem forte integração com o Kudu, permite que o desenvolvedor de aplicações o utilize para inserir, consultar, atualizar e excluir dados no Kudu usando a sintaxe SQL do Impala. Adicionalmente, permite usar JDBC ou ODBC para conectar aplicativos novos ou pré-existentes escritos em qualquer linguagem, estrutura ou ferramenta de inteligência de negócios.
III. Kudu permite integrar seu próprio catálogo com o Hive Metastore (HMS). O HMS é o provedor de metadados e catálogo padrão no ecossistema Hadoop. Quando a integração está habilitada, as tabelas Kudu podem ser descobertas e usadas por ferramentas externas com reconhecimento de HMS, mesmo que elas não estejam integradas ao Kudu.
Está correto o que se afirma em