Questões de Concurso

Foram encontradas 1.266 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q2457920 Algoritmos e Estrutura de Dados
PV-DM (do inglês, Paragraph Vector Distributed Memory) é um método de aprendizado de máquina utilizado no processamento de dados textuais. A ideia central é prever uma palavra (de contexto) a partir de um conjunto de palavras amostrado aleatoriamente – palavras de contexto e ID de parágrafo. Quando aplicado sobre um conjunto de documentos textuais (por exemplo, os processos deferidos arquivados no TJ-AC), qual a vantagem desse método em relação ao método BOW, baseado em contagem de palavras? 
Alternativas
Q2457915 Algoritmos e Estrutura de Dados
A camada de uma rede convolucional que tem como função primária reduzir progressivamente o tamanho espacial do volume de dados de entrada por meio do mapeamento de seções de features e diminuição dos pesos de treinamento é denominada camada de
Alternativas
Q2457913 Algoritmos e Estrutura de Dados
Uma das métricas mais comumente utilizadas para comparar resultados de algoritmos de clusterização é obtida por meio da fórmula (b-a)/ max(a,b), em que:
a é a distância média entre os pontos dentro de cada cluster (distância média intra-cluster) e
b é a distância média para o cluster mais próximo (distância média para os pontos do cluster mais próximo). 

A métrica descrita recebe o nome de: 
Alternativas
Q2457910 Algoritmos e Estrutura de Dados
Para classificar os processos tramitados no TJ-AC em duas categorias (deferidos e indeferidos), um analista escolheu um algoritmo que divide os dados de entrada em duas regiões separadas por uma linha e resulta em uma simetria na classificação, de forma que o ponto mais próximo de cada classe está a uma distância d do ponto médio entre os dois grupos de classe (hiperplano). O algoritmo descrito é denominado:
Alternativas
Q2457909 Algoritmos e Estrutura de Dados
O ecossistema Hadoop se refere aos vários componentes da biblioteca de software Apache Hadoop, incluindo projetos de código aberto e ferramentas complementares para armazenar e processar Big Data. Algumas das ferramentas mais conhecidas incluem HDFS, Pig, YARN, MapReduce, Spark, HBase Oozie, Sqoop e Kafka, cada uma com função específica no ecossistema Hadoop. São funções dos componentes do ecossistema Hadoop: 
Alternativas
Respostas
31: C
32: C
33: B
34: C
35: A