A aplicação do algoritmo AdaBoost, utilizando classificadore...
Considerando o problema acima descrito, a técnica a ser utilizada para contornar o problema é:
Comentários
Veja os comentários dos nossos alunos
Boosting é uma abordagem para o aprendizado de máquina baseada no princípio de que é possível criar uma regra de predição altamente precisa através da combinação de muitas regras relativamente fracas e imprecisas. Dito isso, o algoritmo de AdaBoost (abreviação de Adaptative Boosting) foi o primeiro algoritmo prático de boosting e, até hoje, é amplamente estudado e aplicado nas mais diversas áreas do conhecimento.
Em uma primeira etapa, o algoritmo de AdaBoost tem por objetivo observar o desempenho de um determinado conjunto de classificadores sobre um conjunto de treinamento. Nessa etapa, todos os “acertos” e “erros” dos classificadores são registrados e, em ambos os casos, ocorre a penalização dos classificadores, sendo mais rigorosa quando é registrado um “erro” de classificação.
À medida que o processo de extração de classificadores continua, quanto mais difíceis forem os exemplos, maior serão os seus pesos. Desta forma, o algoritmo foca na seleção de novos classificadores para o comitê que, de certo modo, ainda colaboram positivamente para a classificação de exemplos classificados erroneamente
O classificador Árvore de Decisão é uma das possíveis abordagens para a tomada de decisão multiestágio. A ideia básica por trás de qualquer abordagem multiestágio é quebrar uma decisão complexa em uma série de decisões mais simples esperando que a solução final, obtida por meio dessa estratégia, se assemelhe com a solução esperada para o problema em questão.
Os principais componentes de um modelo de árvore de decisão são os nós e as ramificações (ou galhos). Já para a construção do próprio modelo em si, as principais etapas são splitting (divisão), stopping (parada) e prunning (poda)
Quando as regras de parada não funcionam como esperado, uma estratégia alternativa comumente empregada consiste em deixar que a árvore cresça bastante para, então, reduzi-la posteriormente a um tamanho ótimo através da poda (etapa de pruning) dos nós que proveem pouca informação adicional ao modelo construído. Para a seleção da melhor subárvore possível dentre muitos outros candidatos, pode-se levar em consideração a proporção de registros com erros de predição; usar uma base de dados para a validação; ou executar a validação cruzada sobre o modelo treinado.
Gabarito: Letra D
Entendo que a utilização de um classificador mais simples como a árvore de decisão resolveria o problema (por meio da poda). mas a letra A não poderia estar correta também? A compressão trabalha reduzindo a dimensionalidade e ainda assim retendo as informações mais importantes
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo