A respeito de redes neurais, julgue o item que se segue. As...
As conexões entre as camadas de uma rede neural do tipo MLP são de natureza feedfoward.
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
Alternativa correta: C - certo
A questão aborda o conceito de redes neurais do tipo Perceptron de Múltiplas Camadas (MLP), que é uma classe de rede neural artificial. Um ponto fundamental para compreender sobre MLPs é a maneira como as informações fluem através da rede durante a fase de forward propagation.
MLP é uma rede neural que consiste em pelo menos três camadas de nós: uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. O termo "feedforward" significa que os dados se movem em uma única direção, para frente, da entrada para as camadas ocultas e, finalmente, para a camada de saída, sem ciclos ou loops - o que é característico de redes neurais do tipo recorrente.
Em MLPs, cada nó, também conhecido como neurônio artificial, é conectado a todos os nós na próxima camada, onde essas conexões representam pesos sinápticos. Durante a fase de treinamento, esses pesos são ajustados através de um processo chamado backpropagation, que é um método de treinamento baseado em gradiente.
A afirmação da questão é correta porque descreve precisamente a natureza das conexões em MLPs. Ao aprender sobre redes neurais em um contexto de preparação para concursos públicos, é importante ter uma compreensão clara desse conceito de "feedforward", pois ele é fundamental para diferenciar MLPs de outros tipos de redes neurais, como as recorrentes (RNNs), que permitem conexões cíclicas.
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
Correto
Nas redes MLP, cada neurônio em uma camada está conectado a todos os neurônios na camada seguinte, criando um padrão de conectividade denso e direto.
Existem vários tipos de arquiteturas feedforward, cada uma com suas próprias características e aplicações específicas. Algumas das arquiteturas feedforward mais comuns incluem:
Multilayer Perceptron (MLP):
- É a arquitetura feedforward básica composta por uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. É utilizada para uma variedade de tarefas, incluindo classificação e regressão.
Redes Neurais de Base Radial (RBF):
- Neste tipo de rede, as funções de ativação dos neurônios na camada oculta são funções radiais, como funções gaussianas. É comumente usada para problemas de aproximação de funções e reconhecimento de padrões.
Perceptron de Múltiplas Camadas (MLP) com Funções de Ativação Específicas:
- Além das funções de ativação comuns, como a sigmoide, podem ser usadas funções de ativação específicas, como a tangente hiperbólica (tanh) ou a unidade linear retificada (ReLU), dependendo do problema e dos requisitos.
Redes Neurais Convolucionais (CNN):
- Projetadas especificamente para processar dados de grade, como imagens, as CNNs utilizam camadas convolucionais para extrair características hierárquicas. Apesar de serem frequentemente associadas a tarefas de visão computacional, as CNNs também são usadas em tarefas como processamento de linguagem natural.
Redes Neurais Recorrentes (RNN):
- Embora as RNNs envolvam conexões recorrentes, elas podem ser consideradas feedforward em cada passo de tempo. São usadas em tarefas que envolvem sequências temporais, como processamento de linguagem natural e séries temporais.
fonte: chapt gpt
As principais categorias de redes neurais incluem:
1. Redes Neurais Feedforward:
- Exemplos: Multilayer Perceptron (MLP) e Redes Neurais Convolucionais (CNNs)
2. Redes Neurais Recorrentes:
- Exemplos: Long Short-Term Memory (LSTM) e Gated Recurrent Unit (GRU)
3. Redes Neurais Não Supervisionadas:
- Exemplos: Autoencoders e Restricted Boltzmann Machines (RBMs)
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo