Questões de Concurso Sobre complexidade de algoritmos em algoritmos e estrutura de dados

Foram encontradas 166 questões

Q3072546 Algoritmos e Estrutura de Dados
Na área de Análise de Algoritmos, a notação assintótica é fundamental para descrever a complexidade de algoritmos. Considere as seguintes definições e propriedades da notação assintótica: O-notation (O grande), Ω-notation (Ômega grande), e Θ-notation (Theta grande). Qual das afirmativas a seguir é a mais correta em relação à análise assintótica de algoritmos?
Alternativas
Q3072545 Algoritmos e Estrutura de Dados
Na computação, várias disciplinas aplicam conceitos matemáticos avançados para resolver problemas complexos. Uma dessas disciplinas é a Teoria da Complexidade Computacional, que estuda a eficiência dos algoritmos e a dificuldade dos problemas. Considere os conceitos de classes de complexidade, problemas NP-completos e algoritmos aproximados. Qual das seguintes afirmações sobre essas disciplinas é a mais correta?
Alternativas
Q2589846 Algoritmos e Estrutura de Dados

Um problema computacional é dito NP-completo quando

Alternativas
Q2518301 Algoritmos e Estrutura de Dados
O problema de previsão numérica de tempo em escala global é de altíssima dimensionalidade, envolvendo, por exemplo, representações de estados com centenas de milhões de variáveis.

Essa alta dimensionalidade impõe grandes dificuldades para a aplicação de filtros de partículas (PF) em problemas de assimilação de dados com muitas observações independentes, porque nessas situações o número de partículas necessárias para representar as distribuições de probabilidade cresce exponencialmente.

Técnicas recentemente desenvolvidas que visam contornar essas dificuldades baseiam-se em combinar filtros de partículas e filtros de Kalman por conjunto (EnKF), criando-se soluções híbridas PF-EnKF.

Assinale a opção que indica a principal vantagem de se utilizar filtros híbridos PF-EnKF.
Alternativas
Q2518300 Algoritmos e Estrutura de Dados
A reamostragem em filtros de partículas pode ser realizada por meio da criação de novas amostras retiradas das distribuições de probabilidade discretas correspondentes a conjuntos de partículas e suas configurações de pesos. No entanto, o fato de as novas amostras serem criadas exatamente nos mesmos pontos do espaço em que se localizam as partículas anteriores é inconveniente, pois facilita o empobrecimento das partículas (i.e., o chamado particle impoverishment).

Uma forma de produzir um novo conjunto de partículas em pontos distintos é substituir as distribuições discretas de probabilidade por aproximações contínuas e, somente então, realizar a reamostragem. A criação dessas aproximações se dá por meio de uma operação matemática entre a distribuição de probabilidade discreta e um kernel contínuo.

Nesse contexto, o processo de reamostragem em distribuições de probabilidade contínuas, que aproximam distribuições discretas correspondentes às configurações de partículas, é chamado de
Alternativas
Q2518298 Algoritmos e Estrutura de Dados
Filtros de Partículas são implementações não paramétricas de filtros Bayesianos em que as distribuições de probabilidade não são explicitamente definidas, sendo, portanto, representadas por um conjunto de amostras provenientes delas próprias (denominadas partículas).

Com relação aos filtros de partículas, analise as afirmativas a seguir e assinale (V) para a verdadeira e (F) para a falsa.

( ) As partículas representam observações (ou medidas) obtidas por sensores aplicados ao sistema em análise, e a elas são associados pesos proporcionais às suas probabilidades de coincidirem com medidas correspondentes ao estado verdadeiro do sistema.
( ) Quando aplicados à assimilação de dados, a cada passo de assimilação, novos pesos são atribuídos às partículas. Caso não seja realizado nenhum processo de reamostragem, o conjunto de partículas costuma degenerar-se, com uma das partículas recebendo peso normalizado próximo de 1 e as outras partículas recebendo pesos normalizados próximos de 0.
( ) São capazes de representar distribuições de probabilidade multimodais, isto é, cujas densidades de probabilidade possuem mais de um máximo local.

As afirmativas são, respectivamente,
Alternativas
Q2518080 Algoritmos e Estrutura de Dados
O cálculo da complexidade computacional é essencial para verificar a viabilidade do algoritmo. Observe o código a seguir, em Python, para o problema da torre de Hanoi.

def hanoi(n, o, d, a):
if n==1:
print("D1 de "+o+" p/ "+d)
else:
hanoi(n-1, o, a, d)
print("D"+str(n)+" de "+o+" p/ "+d)
hanoi(n-1, a, d, o)

A complexidade desse algoritmo no pior caso é:
Alternativas
Q2518068 Algoritmos e Estrutura de Dados
O analista José precisa escolher entre dois algoritmos, Abusca e Cbusca. José sabe que, sendo N o tamanho da entrada do algoritmo, Abusca requer 2N + log2(N) operações para ser executado. Já o Cbusca requer N4 + N operações para ser executado. José determinou, na notação O-grande, a complexidade de tempo no pior caso para cada algoritmo e, por fim, deve escolher o algoritmo que apresenta a menor ordem de complexidade no pior caso.

José deve escolher o algoritmo:
Alternativas
Q2475445 Algoritmos e Estrutura de Dados
No desenvolvimento de uma aplicação, uma etapa fundamental e primordial durante todo o processo é a construção de algoritmos. O algoritmo é uma sequência de raciocínios, instruções e operações que trabalham conjuntamente para alcançar um objetivo. Um sistema é constituído de diversos algoritmos que recebem múltiplas entradas de dados, manipulando-as através de processamento, para que sejam geradas saídas com informações úteis e relevantes para os usuários. Sobre essas estruturas, marque V para as afirmativas verdadeiras e F para as falsas.

( ) A propriedade finitude afirma que um algoritmo deve ter um número finito de instruções, garantindo que ele termine sua execução em algum momento.
( ) A propriedade do determinismo afirma que um algoritmo deve produzir o mesmo resultado sempre que for executado com determinados dados de entrada, produzindo sempre um resultado correto.
( ) Um algoritmo de ordenação pode ser utilizado para organizar uma lista de elementos em ordem crescente ou decrescente.
( ) Um algoritmo guloso pode ser utilizado para resolver um problema dividindo-o em problemas menores para resolvê-los recursivamente.

A sequência está correta em 
Alternativas
Q2471739 Algoritmos e Estrutura de Dados
A análise de componente principal (PCA — principal component analysis) é uma técnica utilizada no processo de análise e classificação por aprendizagem de máquina. A PCA
Alternativas
Q2457928 Algoritmos e Estrutura de Dados
Os algoritmos de agrupamento buscam identificar padrões existentes em conjuntos de dados, podendo ser do tipo particionais, hierárquicos ou baseados na otimização da função custo. É um exemplo de agrupamento hierárquico:
Alternativas
Q2457922 Algoritmos e Estrutura de Dados
No processo de otimização de redes neurais artificiais, diferentes métodos e técnicas são utilizados para determinar os melhores parâmetros do aprendizado. Para reduzir o overfitting, uma das técnicas amplamente utilizadas é a regularização, que apresenta como características: 
Alternativas
Q2457920 Algoritmos e Estrutura de Dados
PV-DM (do inglês, Paragraph Vector Distributed Memory) é um método de aprendizado de máquina utilizado no processamento de dados textuais. A ideia central é prever uma palavra (de contexto) a partir de um conjunto de palavras amostrado aleatoriamente – palavras de contexto e ID de parágrafo. Quando aplicado sobre um conjunto de documentos textuais (por exemplo, os processos deferidos arquivados no TJ-AC), qual a vantagem desse método em relação ao método BOW, baseado em contagem de palavras? 
Alternativas
Q2457919 Algoritmos e Estrutura de Dados
Para reduzir a dimensionalidade de um conjunto de dados bidimensionais, foi executado o algoritmo PCA (do inglês, Principal Component Analysis). Se o PCA produzir como resultado dois autovalores de mesmo valor, significa que
Alternativas
Q2457914 Algoritmos e Estrutura de Dados
Uma rede neural foi implementada a partir da arquitetura Multilayer Perceptron (MLP) e o conjunto de dados foi dividido em holdout com 50% para conjunto de treinamento, 30% para conjunto de validação e 20% para conjunto de teste. Se, durante o treinamento e a validação da referida rede ocorreu underfitting, dois fatores que podem ter condicionado tal fenômeno são: 
Alternativas
Q2457913 Algoritmos e Estrutura de Dados
Uma das métricas mais comumente utilizadas para comparar resultados de algoritmos de clusterização é obtida por meio da fórmula (b-a)/ max(a,b), em que:
a é a distância média entre os pontos dentro de cada cluster (distância média intra-cluster) e
b é a distância média para o cluster mais próximo (distância média para os pontos do cluster mais próximo). 

A métrica descrita recebe o nome de: 
Alternativas
Q2457910 Algoritmos e Estrutura de Dados
Para classificar os processos tramitados no TJ-AC em duas categorias (deferidos e indeferidos), um analista escolheu um algoritmo que divide os dados de entrada em duas regiões separadas por uma linha e resulta em uma simetria na classificação, de forma que o ponto mais próximo de cada classe está a uma distância d do ponto médio entre os dois grupos de classe (hiperplano). O algoritmo descrito é denominado:
Alternativas
Q2457909 Algoritmos e Estrutura de Dados
O ecossistema Hadoop se refere aos vários componentes da biblioteca de software Apache Hadoop, incluindo projetos de código aberto e ferramentas complementares para armazenar e processar Big Data. Algumas das ferramentas mais conhecidas incluem HDFS, Pig, YARN, MapReduce, Spark, HBase Oozie, Sqoop e Kafka, cada uma com função específica no ecossistema Hadoop. São funções dos componentes do ecossistema Hadoop: 
Alternativas
Q2414699 Algoritmos e Estrutura de Dados
O algoritmo MERGE SORT emprega a técnica “divisão e conquista” para ordenar uma lista de valores. A ordem de complexidade deste algoritmo, no pior caso, é: 
Alternativas
Respostas
1: D
2: C
3: B
4: C
5: E
6: D
7: A
8: C
9: B
10: B
11: C
12: B
13: C
14: C
15: C
16: B
17: C
18: A
19: B
20: C