Na arquitetura de redes neurais, diferentes funções de ativ...

Próximas questões
Com base no mesmo assunto
Q2383275 Engenharia de Software
Na arquitetura de redes neurais, diferentes funções de ativação são utilizadas nas camadas de neurônios para aplicar transformações não lineares aos dados. Uma dessas funções é a ReLU, conhecida por sua eficácia em diversos modelos de aprendizado profundo.
Ao implementar a função ReLU, um pesquisador deve seguir a fórmula:
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

Alternativa Correta: B

Vamos entender a questão e os conceitos por trás dela. O enunciado aborda a função de ativação ReLU (Rectified Linear Unit), amplamente utilizada em redes neurais devido à sua eficácia e simplicidade. A função de ativação é crucial em redes neurais porque introduz não-linearidade, permitindo que a rede aprenda e modele relações complexas nos dados.

A função ReLU é definida pela fórmula:

f(x) = max(0, x)

Essa função retorna o valor de x se ele for positivo e 0 se for negativo. Agora, vamos analisar as alternativas:

Alternativa A:
f(x) = 1 / (1 + e-x)
Essa é a fórmula da função sigmóide, não da ReLU. A função sigmóide é frequentemente utilizada em problemas de classificação binária, mas não é a função requisitada pela questão.

Alternativa B:

Esta imagem representa corretamente a função ReLU, onde f(x) é igual a max(0, x). Portanto, esta é a alternativa correta.

Alternativa C:
f(x) = tanh(x)
A função tangente hiperbólica, ou tanh, é outra função de ativação, mas não é equivalente à ReLU. Ela é simétrica em relação à origem, diferente da ReLU.

Alternativa D:
f(x) = max(0, x) - max(0, -x)
Essa expressão se equivale a x para qualquer valor de x, essencialmente uma função linear, e não uma função ReLU.

Alternativa E:
f(x) = √x2 + 1 - 1
Novamente, essa função não representa a ReLU. Ela é uma expressão diferente, sem relação com a ativação ReLU.

Resumindo, a função ReLU é uma escolha popular em redes neurais devido à sua simplicidade e eficácia. Entre as alternativas apresentadas, a Alternativa B é a correta porque representa a fórmula f(x) = max(0, x).

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

Para o caso da ReLU, basta lembrar que seu valor varia entre 0 e infinito.

Sigmoid: varia entre 0 e 1

Tanh: -1 e 1.

a) Função Sigmóide (Logística)

b) Função Rectified Linear Unit (ReLU), nossa resposta.

c) Função Hyperbolic Tangent Activation Function (Tanh) incompleta. A forma completa é: f(x) = tanh(x) = (e^x - e^-x) / (e^x + e^-x)

d) e e) Parecem ser funções quaisquer que nunca vi serem usadas para ativação (me corrijam se eu estiver errado, por favor)

Fora estas, esperando serem cobradas em provas, ainda temos as Funções de Ativação: Maxout, Signum, Softmax, Softplus, Leaky ReLU, ELU, Linear, Não-Linear, Swish, Parametric ReLU, ArcTan... e as formas derivativas delas.

Gabarito: B

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo