Sejam X1, X2,..., Xn observações de uma amostra aleatória da...
Sejam X1, X2,..., Xn observações de uma amostra aleatória da distribuição Bernoulli com parâmetro 0 < p < 1, isto é,
P(X1 = 1) = p = 1 - P(X1 = 0)
É CORRETO afirmar que o estimador de máxima verossimilhança para o parâmetro q = p. log(p) é
dado por
- Gabarito Comentado (0)
- Aulas (2)
- Comentários (2)
- Estatísticas
- Cadernos
- Criar anotações
- Notificar Erro
Comentários
Veja os comentários dos nossos alunos
O estimador de máxima verossimilhança tem a propriedade de ser invariante no seguinte sentido. Se Θ é o estimador de máxima verossimilhança de um parâmetro θ e g é uma função suficientemente regular com valores reais sobre o espaço de parâmetros, então g(Θ) é o estimador de máxima verossimilhança para g(θ).
No presente caso temos g(x) = x · log(x). Como o estimador de máxima verossimilhança para o parâmetro p distribuição de Bernoulli é a média amostral M, temos que o estimador de máxima verossimilhança para o parâmetro g(p) é g(M) = M · log(M).
Resposta: M · log(M)
Referência: Para mais detalhes sobre a invariância funcional veja o livro de Casella e Berger: Inferência Estatística, Teorema 7.2.10.
O Princípio da Invariância, também conhecido como Princípio da Invariança de Fisher, é um conceito importante na teoria estatística relacionado à obtenção de estimadores de máxima verossimilhança (MLE, do inglês Maximum Likelihood Estimator). Esse princípio estabelece que estimadores de máxima verossimilhança são invariantes em relação a transformações biunívocas (um para um) dos parâmetros.
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo