Ao avaliarmos um modelo preditivo, podemos optar por mensur...
def metrica(positivo_verdadeiro, positivo_falso, negativo_falso, negativo_verdadeiro): return positivo_verdadeiro / (positivo_verdadeiro + negativo_falso)
É correto afirmar que o modelo acima se refere à métrica de:
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
A alternativa correta é a A - sensibilidade.
Vamos entender melhor o contexto da questão. Ao avaliar modelos preditivos, especialmente em problemas de classificação, há várias métricas que podemos usar para medir o desempenho de um modelo. A métrica implementada na função Python apresentada na questão tem como objetivo medir a fração de casos positivos que o modelo identifica corretamente.
Esta métrica é conhecida como sensibilidade, também chamada de recall. Ela é calculada pela fórmula:
Sensibilidade = Verdadeiros Positivos / (Verdadeiros Positivos + Falsos Negativos)
Na representação da função:
return positivo_verdadeiro / (positivo_verdadeiro + negativo_falso)
Neste caso, positivo_verdadeiro
é o número de casos positivos que foram corretamente identificados, e negativo_falso
é o número de casos positivos que foram incorretamente classificados como negativos.
Vamos agora entender por que as demais alternativas estão incorretas:
B - Acurácia: A acurácia é a proporção de todas as previsões corretas (tanto positivas quanto negativas) sobre o total de casos avaliados. Não se encaixa na função dada porque a acurácia considera todos os verdadeiros positivos, verdadeiros negativos, falsos positivos e falsos negativos.
C - Precisão: A precisão mede a proporção de verdadeiros positivos sobre todos os casos que foram classificados como positivos (verdadeiros positivos + falsos positivos). A função não se refere à precisão porque não considera os falsos positivos.
D - F1-Score: O F1-score é uma média harmônica entre precisão e sensibilidade. Já que a função não calcula a precisão, ela não pode ser usada para determinar o F1-score.
E - Desvio Padrão: O desvio padrão é uma medida de dispersão de dados em relação à média e não se aplica a métricas de desempenho de modelos preditivos dessa forma.
Espero que esta explicação tenha ajudado a esclarecer a questão e a lógica por trás da alternativa correta. Gostou do comentário? Deixe sua avaliação aqui embaixo!
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
Métricas de avaliação em Machine Learning:
Sensibilidade => VP / (VP+FN)
Acurácia => (VP+VN) / N
Precisão => VP / (VP+FP)
F-score => 2 x (PxS) / (P+S)
--
VP: verdadeiros positivos;
FN: falsos negativos;
FP: falsos positivos;
VN: verdadeiros negativos;
P: precisão;
S: sensibilidade;
N: total de elementos.
--
Gabarito A
GABARITO A
Sensibilidade - Mede qual fração dos positivos nossos modelos identificam.
GRUS, Joel. Data Science do zero: Primeiras regras com o Python. Alta Books Editora, 2016
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo