Com relação a Pytorch, assinale V para a afirmativa verdadei...
I. Trata-se de uma biblioteca de tensores que pode ser utilizada em problemas de aprendizado profundo, podendo utilizar tanto GPU quanto CPU.
II. O pacote torch.parallel.gpu é capaz de suportar o processamento paralelo de tensores do tipo multidimensionais dimensionais e CUDA em processadores GPU.
III. O pacote torch.distributed.elasticstack é capaz distribuir um script tornando-o elástico e tolerante a falhas em diversos tipos de ambientes distribuídos.
As afirmativas são, respectivamente,
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
Alternativa correta: E (V, F, F)
Para responder a esta questão, é necessário conhecer a biblioteca PyTorch, uma das principais ferramentas para computação científica e aprendizado profundo (deep learning). É importante compreender suas capacidades de manipulação de tensores e o suporte a diferentes ambientes de execução, como CPU e GPU (Unidades de Processamento Gráfico), além de ter noção sobre os pacotes específicos mencionados e suas funcionalidades.
I. Verdadeiro: PyTorch é efetivamente uma biblioteca de tensores otimizada para cálculos que podem ser acelerados por GPUs, sendo amplamente utilizada para aplicações de aprendizado profundo. A biblioteca oferece suporte à execução tanto em CPUs quanto em GPUs, o que permite o desenvolvimento e teste de algoritmos de aprendizado profundo de maneira flexível e eficiente.
II. Falso: Não existe um pacote chamado torch.parallel.gpu no PyTorch. O processamento paralelo é suportado, mas por meio de outros módulos e métodos da biblioteca, como o torch.nn.DataParallel para uso em GPUs ou torch.nn.parallel.DistributedDataParallel para distribuir o processamento entre múltiplas GPUs ou máquinas.
III. Falso: A afirmação erra ao mencionar torch.distributed.elasticstack. O conceito de elasticidade e tolerância a falhas é parte do PyTorch, mas é implementado através do módulo torch.distributed, que fornece a capacidade de execução distribuída de treinamentos, tornando-os resilientes a falhas. No entanto, não existe um submódulo chamado "elasticstack".
É importante destacar que a precisão nas nomenclaturas é crucial em questões de concursos públicos, especialmente quando se tratam de tecnologias e ferramentas específicas como bibliotecas de programação. Erros sutis nas nomenclaturas podem alterar completamente o significado de uma afirmação.
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
I - I. Trata-se de uma biblioteca de tensores que pode ser utilizada em problemas de aprendizado profundo, podendo utilizar tanto GPU quanto CPU. V
II - O pacote torch.parallel.gpu é capaz de suportar o processamento paralelo de tensores do tipo multidimensionais dimensionais e CUDA em processadores GPU. F
Segundo a bliblioteca do Pytorch : https://pytorch.org/tutorials/beginner/former_torchies/parallelism_tutorial.html
O paralelismo de dados é implementado usando . Pode-se agrupar um módulo e ele será paralelizado em várias GPUs na dimensão do lote.
III - O pacote torch.distributed.elasticstack é capaz distribuir um script tornando-o elástico e tolerante a falhas em diversos tipos de ambientes distribuídos. F
Segundo a bliblioteca do Pytorch : https://pytorch.org/docs/stable/elastic/quickstart.html
O TorchElastic modela falhas conforme as mudanças de associação. Quando um nó falha, isso é tratado como um evento de “diminuição de escala”. Quando o nó com falha é substituído pelo agendador, é um evento de “aumento de escala”. Portanto, para tarefas tolerantes a falhas e elásticas, é usado para controlar o número total de reinicializações antes de desistir, independentemente de a reinicialização ter sido causada por uma falha ou um evento de escalonamento.
SENDO A RESPOSTA LETRA
E) V-F-F
I. V - PyTorch é uma biblioteca popular de tensores utilizada em aprendizado profundo (deep learning), e ela é projetada para funcionar tanto em GPUs quanto em CPUs.
II. F - O pacote não é "torch.parallel.gpu", mas sim "torch.nn.parallel". No entanto, a afirmação continua sendo falsa, pois o pacote é projetado para oferecer suporte a operações paralelas, mas não é diretamente relacionado à computação em GPU. A GPU é naturalmente aproveitada pelo PyTorch para acelerar o processamento de tensores.
III. F - Não existe um pacote chamado "torch.distributed.elasticstack" no PyTorch. O PyTorch Distributed é uma biblioteca que oferece suporte ao treinamento paralelo e distribuído, mas a afirmação sobre o pacote específico é falsa.
P
FGV é puro sadismo
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo