A combinação de CPU (Central Processing Unit) e GPU (Graphic...
Próximas questões
Com base no mesmo assunto
Ano: 2024
Banca:
FGV
Órgão:
Prefeitura de São José dos Campos - SP
Prova:
FGV - 2024 - Prefeitura de São José dos Campos - SP - Analista em Gestão Municipal (Tecnologia da Informação) |
Q2380778
Arquitetura de Computadores
A combinação de CPU (Central Processing Unit) e GPU (Graphics
Processing Unit), em conjunto com RAM suficiente, oferece um
excelente ambiente de testes para aprendizagem profunda e IA.
Neste contexto de computação de alto desempenho (HPC, High-performance computing), desponta a programação paralela
empregando uma ampla classe de poderosos sistemas de
computação que variam de simples (por ex., 1 CPU + 8 GPUs) até
supercomputadores com multicores, multi GPU e multi Nós.
Considerando as diferenças básicas entre as arquiteturas de CPU e GPU, analise os itens a seguir.
I. As arquiteturas a GPU e a CPU diferem de modo significativo pois foram desenvolvidas e otimizadas para dois tipos significativamente diferentes de aplicações, tendo baixa similaridade na quantidade relativa de área da pastilha (número de transistores) dedicada à cache, à lógica de controle e à lógica de processamento.
II. As GPUs podem esconder a latência da memória ao administrar a execução de mais threads do que os cores processadores disponíveis, além de simplesmente serem capazes de executar os mesmos threads de código em grandes quantidades de dados.
III. O conhecimento das nuances de várias memórias de uma GPU são importantes no desenvolvimento da programação paralela, em especial quanto aos tempos de acesso relativos, as limitações de acessibilidade e a quantidade de MMU (Memory Management Unit).
Está correto o que se afirma em
Considerando as diferenças básicas entre as arquiteturas de CPU e GPU, analise os itens a seguir.
I. As arquiteturas a GPU e a CPU diferem de modo significativo pois foram desenvolvidas e otimizadas para dois tipos significativamente diferentes de aplicações, tendo baixa similaridade na quantidade relativa de área da pastilha (número de transistores) dedicada à cache, à lógica de controle e à lógica de processamento.
II. As GPUs podem esconder a latência da memória ao administrar a execução de mais threads do que os cores processadores disponíveis, além de simplesmente serem capazes de executar os mesmos threads de código em grandes quantidades de dados.
III. O conhecimento das nuances de várias memórias de uma GPU são importantes no desenvolvimento da programação paralela, em especial quanto aos tempos de acesso relativos, as limitações de acessibilidade e a quantidade de MMU (Memory Management Unit).
Está correto o que se afirma em