Com relação à entropia de uma fonte de dados digitais, é INC...

Próximas questões
Com base no mesmo assunto
Q1760888 Engenharia de Telecomunicações
Com relação à entropia de uma fonte de dados digitais, é INCORRETO afirmar que
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

A alternativa C é a resposta correta, pois é a afirmação incorreta sobre a entropia de uma fonte de dados digitais.

Vamos compreender o tema central da questão:

Entropia, no contexto das telecomunicações e teoria da informação, é uma medida da incerteza ou da quantidade de informação que uma fonte de dados pode gerar. A entropia está diretamente relacionada à eficiência da codificação e compressão de dados, sendo um conceito chave para projetar sistemas de comunicação mais eficientes.

Agora, vamos analisar cada uma das alternativas:

A - é impossível codificar, sem perdas, o sinal gerado a uma taxa inferior à entropia da fonte.

Essa afirmação está correta. Isso está fundamentado no Teorema de Shannon, que estabelece o limite teórico inferior para a compressão sem perdas. Se tentarmos codificar abaixo da entropia, inevitavelmente perderemos informações.

B - a entropia é uma propriedade da fonte, e não da técnica de codificação.

Esta afirmação também está correta. A entropia é intrínseca à fonte de dados e não depende das técnicas usadas para codificação. A técnica de codificação pode mudar, mas a quantidade de incerteza no sinal original permanece a mesma.

C - a entropia de uma fonte pode ser reduzida por meio de técnicas de compressão de sinais.

Esta é a afirmação incorreta. Técnicas de compressão não reduzem a entropia da fonte; ao invés disso, elas oferecem um meio de representar as informações de forma mais eficiente, geralmente aproximando a taxa da codificação à entropia da fonte.

D - a entropia de uma fonte pode ser vista como uma medida do grau de incerteza ou da quantidade de informação contida nos dados por ela gerados.

Esta afirmação está correta e descreve precisamente o que é a entropia: uma medida da incerteza ou da informação potencial que pode ser contida em uma sequência de dados.

Para responder questões como essa, é essencial compreender os conceitos fundamentais da teoria da informação, como a definição de entropia e o teorema de Shannon. Além disso, lembre-se de que a chave para interpretar corretamente as alternativas é focar nas palavras que indicam certezas e possibilidades, como "impossível", "sempre", ou "pode ser".

Gostou do comentário? Deixe sua avaliação aqui embaixo!

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo