Ao avaliarmos um modelo preditivo, podemos optar por mensur...

Próximas questões
Com base no mesmo assunto
Q1759918 Programação
Ao avaliarmos um modelo preditivo, podemos optar por mensurar qual fração dos positivos nosso modelo identificou. Implementada na linguagem Python 3, a métrica fica da seguinte forma:
def metrica(positivo_verdadeiro, positivo_falso, negativo_falso, negativo_verdadeiro): return positivo_verdadeiro / (positivo_verdadeiro + negativo_falso)
É correto afirmar que o modelo acima se refere à métrica de:
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

A alternativa correta é a A - sensibilidade.

Vamos entender melhor o contexto da questão. Ao avaliar modelos preditivos, especialmente em problemas de classificação, há várias métricas que podemos usar para medir o desempenho de um modelo. A métrica implementada na função Python apresentada na questão tem como objetivo medir a fração de casos positivos que o modelo identifica corretamente.

Esta métrica é conhecida como sensibilidade, também chamada de recall. Ela é calculada pela fórmula:

Sensibilidade = Verdadeiros Positivos / (Verdadeiros Positivos + Falsos Negativos)

Na representação da função:

return positivo_verdadeiro / (positivo_verdadeiro + negativo_falso)

Neste caso, positivo_verdadeiro é o número de casos positivos que foram corretamente identificados, e negativo_falso é o número de casos positivos que foram incorretamente classificados como negativos.

Vamos agora entender por que as demais alternativas estão incorretas:

B - Acurácia: A acurácia é a proporção de todas as previsões corretas (tanto positivas quanto negativas) sobre o total de casos avaliados. Não se encaixa na função dada porque a acurácia considera todos os verdadeiros positivos, verdadeiros negativos, falsos positivos e falsos negativos.

C - Precisão: A precisão mede a proporção de verdadeiros positivos sobre todos os casos que foram classificados como positivos (verdadeiros positivos + falsos positivos). A função não se refere à precisão porque não considera os falsos positivos.

D - F1-Score: O F1-score é uma média harmônica entre precisão e sensibilidade. Já que a função não calcula a precisão, ela não pode ser usada para determinar o F1-score.

E - Desvio Padrão: O desvio padrão é uma medida de dispersão de dados em relação à média e não se aplica a métricas de desempenho de modelos preditivos dessa forma.

Espero que esta explicação tenha ajudado a esclarecer a questão e a lógica por trás da alternativa correta. Gostou do comentário? Deixe sua avaliação aqui embaixo!

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

Métricas de avaliação em Machine Learning:

Sensibilidade => VP / (VP+FN)

Acurácia => (VP+VN) / N

Precisão => VP / (VP+FP)

F-score => 2 x (PxS) / (P+S)

--

VP: verdadeiros positivos;

FN: falsos negativos;

FP: falsos positivos;

VN: verdadeiros negativos;

P: precisão;

S: sensibilidade;

N: total de elementos.

--

Gabarito A

GABARITO A

Sensibilidade - Mede qual fração dos positivos nossos modelos identificam.

GRUS, Joel. Data Science do zero: Primeiras regras com o Python. Alta Books Editora, 2016

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo