Determinado parâmetro β será estimado recursivamente
com a ajuda de um método de otimização matemática com base
em uma função objetivo g(β). Para essa estimação, a base de
dados de treinamento consistirá de n observações.
Considerando essa situação hipotética, julgue os itens que se
seguem.
Em cada iteração na estimação do parâmetro β, o método do
gradiente descendente requer n observações da base de
treinamento, ao passo que o método do gradiente
descendente estocástico utiliza uma observação selecionada
aleatoriamente dessa base de treinamento.
Determinado parâmetro β será estimado recursivamente
com a ajuda de um método de otimização matemática com base
em uma função objetivo g(β). Para essa estimação, a base de
dados de treinamento consistirá de n observações.
Considerando essa situação hipotética, julgue os itens que se
seguem.
Entre as condições ideais relativas à função objetivo g(β)
para a aplicação do método do gradiente descendente
incluem-se convexidade, continuidade e diferenciabilidade.
Determinado parâmetro β será estimado recursivamente
com a ajuda de um método de otimização matemática com base
em uma função objetivo g(β). Para essa estimação, a base de
dados de treinamento consistirá de n observações.
Considerando essa situação hipotética, julgue os itens que se
seguem.
O gradiente descendente em lote é um método probabilístico
de otimização no qual, para cada iteração, encontram-se
L × n observações geradas mediante amostragem (com
reposição) da base de dados de treinamento (em que L
representa o número de lotes, com L > 1).
No que se refere a técnicas de regressão, técnicas de agrupamento
e aprendizado profundo, julgue os item seguinte.
O modelo de regressão linear é suscetível à
multicolinearidade, a qual diz respeito ao fato de o erro da
predição permanecer estável, dentro de um intervalo de
confiança aceitável, à medida que os valores de entrada
mudam.
Sobre as técnicas de classificação em aprendizado de máquina,
julgue o item a seguir.
As árvores de decisão apresentam significativa
independência dos dados de treinamento, o que garante forte
estabilidade dos caminhos em caso de mudanças nos dados.