Com relação a Pytorch, assinale V para a afirmativa verdadei...

Próximas questões
Com base no mesmo assunto
Q1993161 Engenharia de Software
Com relação a Pytorch, assinale V para a afirmativa verdadeira e F para a falsa.

I. Trata-se de uma biblioteca de tensores que pode ser utilizada em problemas de aprendizado profundo, podendo utilizar tanto GPU quanto CPU.
II. O pacote torch.parallel.gpu é capaz de suportar o processamento paralelo de tensores do tipo multidimensionais dimensionais e CUDA em processadores GPU.
III. O pacote torch.distributed.elasticstack é capaz distribuir um script tornando-o elástico e tolerante a falhas em diversos tipos de ambientes distribuídos.

As afirmativas são, respectivamente,
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

Alternativa correta: E (V, F, F)

Para responder a esta questão, é necessário conhecer a biblioteca PyTorch, uma das principais ferramentas para computação científica e aprendizado profundo (deep learning). É importante compreender suas capacidades de manipulação de tensores e o suporte a diferentes ambientes de execução, como CPU e GPU (Unidades de Processamento Gráfico), além de ter noção sobre os pacotes específicos mencionados e suas funcionalidades.

I. Verdadeiro: PyTorch é efetivamente uma biblioteca de tensores otimizada para cálculos que podem ser acelerados por GPUs, sendo amplamente utilizada para aplicações de aprendizado profundo. A biblioteca oferece suporte à execução tanto em CPUs quanto em GPUs, o que permite o desenvolvimento e teste de algoritmos de aprendizado profundo de maneira flexível e eficiente.

II. Falso: Não existe um pacote chamado torch.parallel.gpu no PyTorch. O processamento paralelo é suportado, mas por meio de outros módulos e métodos da biblioteca, como o torch.nn.DataParallel para uso em GPUs ou torch.nn.parallel.DistributedDataParallel para distribuir o processamento entre múltiplas GPUs ou máquinas.

III. Falso: A afirmação erra ao mencionar torch.distributed.elasticstack. O conceito de elasticidade e tolerância a falhas é parte do PyTorch, mas é implementado através do módulo torch.distributed, que fornece a capacidade de execução distribuída de treinamentos, tornando-os resilientes a falhas. No entanto, não existe um submódulo chamado "elasticstack".

É importante destacar que a precisão nas nomenclaturas é crucial em questões de concursos públicos, especialmente quando se tratam de tecnologias e ferramentas específicas como bibliotecas de programação. Erros sutis nas nomenclaturas podem alterar completamente o significado de uma afirmação.

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

I - I. Trata-se de uma biblioteca de tensores que pode ser utilizada em problemas de aprendizado profundo, podendo utilizar tanto GPU quanto CPU. V

II - O pacote torch.parallel.gpu é capaz de suportar o processamento paralelo de tensores do tipo multidimensionais dimensionais e CUDA em processadores GPU. F

Segundo a bliblioteca do Pytorch : https://pytorch.org/tutorials/beginner/former_torchies/parallelism_tutorial.html

O paralelismo de dados é implementado usando . Pode-se agrupar um módulo e ele será paralelizado em várias GPUs na dimensão do lote.

III - O pacote torch.distributed.elasticstack é capaz distribuir um script tornando-o elástico e tolerante a falhas em diversos tipos de ambientes distribuídos. F

Segundo a bliblioteca do Pytorch : https://pytorch.org/docs/stable/elastic/quickstart.html

O TorchElastic modela falhas conforme as mudanças de associação. Quando um nó falha, isso é tratado como um evento de “diminuição de escala”. Quando o nó com falha é substituído pelo agendador, é um evento de “aumento de escala”. Portanto, para tarefas tolerantes a falhas e elásticas, é usado para controlar o número total de reinicializações antes de desistir, independentemente de a reinicialização ter sido causada por uma falha ou um evento de escalonamento.

SENDO A RESPOSTA LETRA

E) V-F-F

I. V - PyTorch é uma biblioteca popular de tensores utilizada em aprendizado profundo (deep learning), e ela é projetada para funcionar tanto em GPUs quanto em CPUs.

II. F - O pacote não é "torch.parallel.gpu", mas sim "torch.nn.parallel". No entanto, a afirmação continua sendo falsa, pois o pacote é projetado para oferecer suporte a operações paralelas, mas não é diretamente relacionado à computação em GPU. A GPU é naturalmente aproveitada pelo PyTorch para acelerar o processamento de tensores.

III. F - Não existe um pacote chamado "torch.distributed.elasticstack" no PyTorch. O PyTorch Distributed é uma biblioteca que oferece suporte ao treinamento paralelo e distribuído, mas a afirmação sobre o pacote específico é falsa.

P

FGV é puro sadismo

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo