O treinamento em redes neurais artificiais é, essencialmente...
Próximas questões
Com base no mesmo assunto
Ano: 2024
Banca:
FGV
Órgão:
EPE
Prova:
FGV - 2024 - EPE - Analista de Gestão Corporativa - Tecnologia da Informação (Ciência de Dados) |
Q2847417
Engenharia de Software
O treinamento em redes neurais artificiais é, essencialmente, um
problema de otimização, em que se busca minimizar o erro entre
as predições do modelo neural e os valores alvo preexistentes no
conjunto de dados de treinamento.
Com respeito aos métodos relacionados à otimização de parâmetros em redes neurais artificiais, analise as afirmativas a seguir.
I. No algoritmo backpropagation, a aplicação da regra da cadeia é fundamental para o cálculo dos gradientes dos erros com respeito aos pesos (parâmetros) da rede neural artificial.
II. O método do gradiente (também chamado de método do máximo declive ou Gradient Descent – GD) escolhe aleatoriamente um pequeno número de instâncias de dados de treinamento a cada passo, aumentando a velocidade inicial de minimização das métricas de erro.
III. As técnicas de regularização L1 (Lasso) e L2 (Ridge) podem ser utilizadas para mitigar problemas relacionados a inicialização indevida de pesos (parâmetros) em redes neurais.
Está correto o que se afirma em
Com respeito aos métodos relacionados à otimização de parâmetros em redes neurais artificiais, analise as afirmativas a seguir.
I. No algoritmo backpropagation, a aplicação da regra da cadeia é fundamental para o cálculo dos gradientes dos erros com respeito aos pesos (parâmetros) da rede neural artificial.
II. O método do gradiente (também chamado de método do máximo declive ou Gradient Descent – GD) escolhe aleatoriamente um pequeno número de instâncias de dados de treinamento a cada passo, aumentando a velocidade inicial de minimização das métricas de erro.
III. As técnicas de regularização L1 (Lasso) e L2 (Ridge) podem ser utilizadas para mitigar problemas relacionados a inicialização indevida de pesos (parâmetros) em redes neurais.
Está correto o que se afirma em