Questões de Concurso Para analista de sistemas

Foram encontradas 15.593 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q2116955 Português

Leia a tira, para responder a questão.


(André Dahmer. Malvados. Disponível em: https://www.roendolivros.com.br. Acesso em: 04.03.22)

No contexto dado, a última fala da tira expressa,
Alternativas
Q2116954 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
Assinale a alternativa caracterizada pelo emprego de palavras em sentido figurado.
Alternativas
Q2116953 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
O efeito de sentido do emprego do travessão na passagem “O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso.” é
Alternativas
Q2116952 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
O trecho destacado na passagem “O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples...” está reescrito com seu sentido preservado em: 
Alternativas
Q2116951 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
Assinale a alternativa que substitui, de acordo com a norma-padrão e respectivamente, os trechos destacados no primeiro e no terceiro parágrafo do texto:
•  O exemplo mais antigo de que se tem notícia... •  “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”.
Alternativas
Q2116950 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
Para responder a questão, considere a seguinte passagem do texto:
Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.

O trecho – Duzentos e cinquenta anos depois da invenção de Kempelen... – está reescrito de acordo com a norma-padrão de concordância em: 
Alternativas
Q2116949 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
Para responder a questão, considere a seguinte passagem do texto:
Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
A relação de sentido expressa pelo trecho em destaque, em relação ao trecho precedente, é de 
Alternativas
Q2116948 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
Um recurso utilizado pelo autor como argumento para demonstrar o potencial do mercado de vozes sintéticas é a referência
Alternativas
Q2116947 Português
Leia o texto, para responder a questão.

        Desde o fim do século XVIII, o ser humano tenta usar a tecnologia para replicar a voz. O exemplo mais antigo de que se tem notícia é o dispositivo criado por Wolfgang von Kempelen, oficial da corte austríaca e inventor amador. A máquina falante de Kempelen, como ficou conhecida, usava um fole, tubos, pedaços de madeira e uma caixa de ressonância para replicar a emissão vocal a partir da circulação de ar – é mais ou menos o mesmo processo do corpo humano. O sistema, embora primitivo, era capaz de emitir alguns fonemas e até palavras simples, como “mama” e “papa”. Duzentos e cinquenta anos depois da invenção de Kempelen, a tecnologia de reprodução da voz humana avançou tanto que, agora, é quase impossível para um leigo diferenciar um discurso real, feito por uma pessoa de carne, osso e cordas vocais, de outro criado em computador.
        O notável desenvolvimento de vozes sintéticas deu origem, por sinal, a um mercado bilionário – e perigoso. De acordo com dados do instituto de pesquisa MarketsandMarkets, o setor movimentou 8,3 bilhões de dólares em 2021 e deverá alcançar 22 bilhões de dólares até 2026. É uma área que inclui assistentes virtuais como Siri e Alexa, sistemas de atendimento virtual de bancos e até celebridades que emprestam a voz para aplicativos. O perigo reside na possibilidade de replicar vozes reais para, por exemplo, fins políticos, fraudes ou ataques a reputações.
      No vale-tudo da arena política, as vozes sintéticas podem causar enormes estragos. O cineasta Jordan Peele, do aclamado Corra!, criou um vídeo do ex-presidente Barack Obama usando a tecnologia deepfake, que mescla imagens reais com falas falsas, para alertar sobre os riscos. “Estamos entrando em uma era em que nossos inimigos podem fazer com que qualquer um pareça dizer qualquer coisa”, disse a voz fake de Obama.
       Nesse contexto, plataformas como WhatsApp e Telegram, nas quais mensagens de áudio são amplamente usadas, representam um perigo adicional.
           A tecnologia tem sido explorada também na área da saúde. Foi graças aos avanços na criação de vozes sintéticas que o ator Val Kilmer, vitimado por um câncer na garganta, recuperou parte da capacidade de se expressar. As novas tecnologias, vale ressaltar, são capazes de realizar feitos únicos – e positivos. O que não é certo é usá-la para propagar mentiras. Cada vez mais será preciso manter os ouvidos bem atentos.

(André Sollitto, Voz ativa. Veja, 23.02.2022. Adaptado)
É correto afirmar que o texto apresenta ao leitor
Alternativas
Q2107790 Banco de Dados

Considere a tabela EMPREGADOS definida abaixo em SQL.


Create table EMPREGADOS

(CODEMP INT PRIMARY KEY,

NOMEEMP VARCHAR(300) NOT NULL UNIQUE,

FUNCAO INT CHECK(FUNCAO BETWEEN 1 AND 5),

SALARIO FLOAT NOT NULL,

DEPTO INT NOT NULL);


Sobre esta tabela, foi definido um índice primário (codemp – chave primária), e dois índices secundários, um sobre nomeemp, e outro sobre funcao


Uma pessoa do desenvolvimento reclamou à DBA que algumas de suas consultas sobre essa tabela estavam muito demoradas, e pediu apoio para melhoria do desempenho. A DBA examinou o plano de execução das consultas e, em vez de uma solução sobre o esquema da base de dados, sugeriu a reescrita das consultas. 


56_.png (642×285)


Qual, dentre as consultas reescritas, melhorou o desempenho da consulta original porque resultou, no plano de consulta, em uma operação (mais eficiente) sobre um índice? 

Alternativas
Q2107789 Banco de Dados
Suponha que um programador tenha especificado a seguinte sequência de comandos SQL:  
set transaction isolation level repeatable read; Select max(salario) from funcionarios; Update funcionarios set salario = salario*10 where salario < (select avg(salario) from funcionarios); commit;
Ao definir esse nível de isolamento para sua transação, o programador está sujeito à ocorrência de problemas de acesso concorrente com outras transações. Analise cada assertiva abaixo, assinalando V, se verdadeira, ou F, se falsa.
( ) Leitura suja. ( ) Leitura não repetitiva. ( ) Registro fantasma.
A ordem correta de preenchimento dos parênteses, de cima para baixo, é:
Alternativas
Q2107788 Segurança da Informação
O objetivo A10, listado no Anexo A da Norma ABNT NBR ISO/IEC 27001:2013, estabelece como objetivo “Assegurar o uso efetivo e adequado da criptografia para proteger a confidencialidade, autenticidade e/ou a integridade da informação”. Considerando o tópico criptografia, analise as assertivas abaixo: 
I. Embora a criptografia de chave pública tenha sido usada no passado, hoje ela foi totalmente substituída pela criptografia de chave privada. II. Ataques de canal lateral (em inglês, side-channel attacks ou SCAs) podem obter chaves secretas de criptografia sem usar pesquisa exaustiva e sem conhecer quaisquer detalhes da estrutura da chave. III. Dado um algoritmo de criptografia, quanto maior a chave de criptografia usada, maior a segurança obtida no processo de proteção de dados contra ataques de força bruta.
Quais estão corretas?
Alternativas
Q2107787 Governança de TI
Relacione a Coluna 1 à Coluna 2, associando uma prática da Gestão de Serviços (ITIL v4) a um indicador chave de desempenho (KPI – Key Performance Indicator) adequado para avaliar o desempenho da prática na organização. 
Coluna 1 1. Gestão de Capacidade e Desempenho. 2. Gestão de Disponibilidade. 3. Gerenciamento de Implantação. 4. Validação e teste de serviço. 5. Gerenciamento de Continuidade de Serviços.
Coluna 2 ( ) Percentagem de Teste de Aceitação de Serviços não foram aprovadas pelo cliente. ( ) Número de interrupções de serviço. ( ) Tempo de resolução para gargalos de capacidade identificados.
A ordem correta de preenchimento dos parênteses, de cima para baixo, é:
Alternativas
Q2107786 Governança de TI
Assinale a alternativa que NÃO faz parte da prática Gestão de Incidentes no ITIL v4. 
Alternativas
Q2107785 Banco de Dados
Considere o diagrama Entidade-Relacionamento abaixo, desenhado de acordo com a notação proposta em Heuser (2009), baseada na proposta por Peter Chen com as extensões mais populares. As caixas representam as entidades, os losangos os relacionamentos, as cardinalidades dos relacionamentos são representadas por pares (min-max), e os “pirulitos” representam os atributos. Quando pintado de preto, um “pirulito” representa uma restrição de identificação. 
51_.png (466×197)

Foi solicitado à projetista que fizesse um modelo lógico relacional correspondente a este DER. A projetista mapeou as entidades A, B, C e D nas tabelas A, B, C e D, respectivamente, cada qual com sua chave primária (atributos a1, b1, c1 e d1, respectivamente) e demais atributos (a2, b2, c2 e d2, respectivamente).
Considere as seguintes assertivas sobre o mapeamento dos relacionamentos:
I. Deve ser criada uma tabela própria para representar o relacionamento AB, na qual deve haver colunas (chaves estrangeiras) referenciando as chaves primárias das tabelas A e B. II. O relacionamento BD pode ser modelado como uma coluna adicional na tabela B (chave estrangeira referenciando a chave primária da tabela D). III. O relacionamento BC pode ser modelado como uma coluna adicional (chave estrangeira) na tabela C ou B, sendo essas escolhas equivalentes. Se incluído na tabela C, esse atributo deve referenciar a chave primária da tabela B, e se incluído na tabela B, deve referenciar a chave primária da tabela C.
Quais estão corretas?
Alternativas
Q2107784 Banco de Dados
Considere que uma empresa deseja controlar os pedidos que clientes fazem de seus produtos. Clientes são identificados por um CPF único, produtos por um código único (codpro) e pedidos por um número único (nro). Existem produtos que não fazem parte de pedidos, e clientes que não fizeram pedidos. Ao registrar um pedido de um cliente, no qual podem ser incluídos um ou mais produtos, deve ser possível gerar o recibo exemplificado abaixo.  
50_.png (371×198)

Foi solicitado a um estagiário fazer um projeto conceitual utilizando o modelo EntidadeRelacionamento (ER). Recebeu como recomendação que o projeto deveria conter os dados necessários para gerar este recibo, considerar o emprego correto do modelo de dados ER, e evitar redundâncias de dados que possam levar a problemas de integridade na base de dados.
Utilizando a notação gráfica proposta por Heuser (2009), baseada na proposta por Peter Chen com as extensões mais populares, o estagiário desenhou vários diagramas ER (DER). As caixas representam as entidades, os losangos os relacionamentos, as cardinalidades dos relacionamentos são representadas por pares (min-max), e os “pirulitos” representam os atributos. Quando pintado de preto, um “pirulito” representa uma restrição de identificação.
Qual DER melhor atende às recomendações recebidas?
Alternativas
Q2107783 Banco de Dados
Considere as seguintes assertivas sobre o protocolo de bloqueio em duas fases (2PL - Two Phase Lock) em sistemas de gerência de banco de dados: 
I. 2PL garante possibilidade de serialização (serializability). II. 2PL evita deadlocks. III. 2PL não permite intercalação de lock e unlock.
Quais estão corretas?
Alternativas
Q2107782 Banco de Dados
O desaninhamento de subconsulta é uma otimização disponível no Oracle que converte uma subconsulta em uma junção na consulta externa, permitindo que o otimizador considere a(s) tabela(s) de subconsulta durante o caminho de acesso, método de junção e seleção de ordem de junção. As consultas (a) e (b) exemplificam respectivamente uma subconsulta ALL e uma subconsulta EXISTS. Os atributos dessas tabelas usadas podem ser inferidos a partir dessas consultas SQL:  
(a) SELECT C.sobrenome, C.renda  FROM clientes C  WHERE C.codc <> ALL (SELECT V.codc FROM vendas V WHERE V.valor > 1000);
(b) SELECT C.sobrenome, C.renda  FROM clientes C  WHERE NOT EXISTS (SELECT 1 FROM vendas V WHERE V.valor > 1000 and V.codc = C.codc);
Considere as assertivas abaixo sobre a otimização baseada em desaninhamento de subconsultas no Oracle: 
I. O recurso fundamental do desaninhamento de subconsultas é a conversão da subconsulta com processamento relacionado em outra equivalente com processamento não relacionado. II. No caso de uma subconsulta ALL, o desaninhamento explora semi-join. III. No caso de uma subconsulta NOT EXISTS, o desaninhamento explora o anti-join.
Quais estão corretas?
Alternativas
Q2107781 Banco de Dados
Um histórico (schedule) S de n transações ordena uma sequência de operações sobre objetos do banco de dados, entre elas, de leitura (r) ou gravação (w). Dado um histórico parcial Si: rj(A), wk(A), pode-se dizer que ele ordena duas operações, onde rj(A) representa operação de leitura sobre o objeto A na transação Tj, seguida da operação wk(A) representando uma operação de escrita sobre o objeto A na transação Tk. Considere um banco de dados com objetos X e Y, duas transações T1 e T2, e os históricos parciais S1, S2, e S3 descritos abaixo.  
S1: r2(X), r1(X), r2(Y), r1(X), r2(Y), w2(Y) ... S2: r2(X), r2(Y), r1(X), r1(Y), w1(X) ... S3: r2(Y), r2(Y), r1(X), r1(Y), w1(X), w2(X) ...
Quais históricos apresentam operações conflitantes?
Alternativas
Q2107780 Banco de Dados
Uma empresa de logística, que possui carros e bombas de combustível, deseja controlar o abastecimento de sua frota. Ela deseja poder gerenciar cada abastecimento realizado em um de seus veículos. O analista identificou os dados importantes, apresentados abaixo na forma de nome de atributo e sua semântica. Projetou então uma tabela ABASTECIMENTO, descrita abaixo em SQL padrão, que apresentou ao DBA. 
46.png (693×171)

Create table ABASTECIMENTO (nbomb int not null, capac int not null, data_hora timestamp not null, placa char(7) not null, descr varchar(50) not null, ano_fab date not null, litros int not null, primary key (nbomb, data_hora));
A DBA analisou essa proposta e observou que não seguia as formas normais. Com base na descrição dos atributos acima, assinale com V, se a dependência funcional é responsável pelo fato da tabela não estar na terceira forma normal, ou com F, em caso contrário.
( ) nbomb, data-hora → capac ( ) nbomb, data-hora → placa ( ) nbomb, data-hora → ano-fab 
A ordem correta de preenchimento dos parênteses, de cima para baixo, é:
Alternativas
Respostas
3981: E
3982: D
3983: D
3984: C
3985: C
3986: A
3987: E
3988: B
3989: D
3990: D
3991: C
3992: D
3993: A
3994: D
3995: B
3996: E
3997: C
3998: C
3999: D
4000: C