Sejam X1, X2,..., Xn observações de uma amostra aleatória da...

Próximas questões
Com base no mesmo assunto
Ano: 2022 Banca: UFMG Órgão: UFMG Prova: UFMG - 2022 - UFMG - Estatístico |
Q1932117 Estatística

Sejam X1, X2,..., Xn observações de uma amostra aleatória da distribuição Bernoulli com parâmetro 0 < p < 1, isto é, 


P(X1 = 1) = p = 1 - P(X1 = 0)


É CORRETO afirmar que o estimador de máxima verossimilhança para o parâmetro q = p. log(p) é dado por 

Alternativas

Comentários

Veja os comentários dos nossos alunos

O estimador de máxima verossimilhança tem a propriedade de ser invariante no seguinte sentido. Se Θ é o estimador de máxima verossimilhança de um parâmetro θ e g é uma função suficientemente regular com valores reais sobre o espaço de parâmetros, então g(Θ) é o estimador de máxima verossimilhança para g(θ).

No presente caso temos g(x) = x · log(x). Como o estimador de máxima verossimilhança para o parâmetro p distribuição de Bernoulli é a média amostral M, temos que o estimador de máxima verossimilhança para o parâmetro g(p) é g(M) = M · log(M).

Resposta: M · log(M)

Referência: Para mais detalhes sobre a invariância funcional veja o livro de Casella e Berger: Inferência Estatística, Teorema 7.2.10.

O Princípio da Invariância, também conhecido como Princípio da Invariança de Fisher, é um conceito importante na teoria estatística relacionado à obtenção de estimadores de máxima verossimilhança (MLE, do inglês Maximum Likelihood Estimator). Esse princípio estabelece que estimadores de máxima verossimilhança são invariantes em relação a transformações biunívocas (um para um) dos parâmetros.

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo