Com relação à entropia de uma fonte de dados digitais, é INC...
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
A alternativa C é a resposta correta, pois é a afirmação incorreta sobre a entropia de uma fonte de dados digitais.
Vamos compreender o tema central da questão:
Entropia, no contexto das telecomunicações e teoria da informação, é uma medida da incerteza ou da quantidade de informação que uma fonte de dados pode gerar. A entropia está diretamente relacionada à eficiência da codificação e compressão de dados, sendo um conceito chave para projetar sistemas de comunicação mais eficientes.
Agora, vamos analisar cada uma das alternativas:
A - é impossível codificar, sem perdas, o sinal gerado a uma taxa inferior à entropia da fonte.
Essa afirmação está correta. Isso está fundamentado no Teorema de Shannon, que estabelece o limite teórico inferior para a compressão sem perdas. Se tentarmos codificar abaixo da entropia, inevitavelmente perderemos informações.
B - a entropia é uma propriedade da fonte, e não da técnica de codificação.
Esta afirmação também está correta. A entropia é intrínseca à fonte de dados e não depende das técnicas usadas para codificação. A técnica de codificação pode mudar, mas a quantidade de incerteza no sinal original permanece a mesma.
C - a entropia de uma fonte pode ser reduzida por meio de técnicas de compressão de sinais.
Esta é a afirmação incorreta. Técnicas de compressão não reduzem a entropia da fonte; ao invés disso, elas oferecem um meio de representar as informações de forma mais eficiente, geralmente aproximando a taxa da codificação à entropia da fonte.
D - a entropia de uma fonte pode ser vista como uma medida do grau de incerteza ou da quantidade de informação contida nos dados por ela gerados.
Esta afirmação está correta e descreve precisamente o que é a entropia: uma medida da incerteza ou da informação potencial que pode ser contida em uma sequência de dados.
Para responder questões como essa, é essencial compreender os conceitos fundamentais da teoria da informação, como a definição de entropia e o teorema de Shannon. Além disso, lembre-se de que a chave para interpretar corretamente as alternativas é focar nas palavras que indicam certezas e possibilidades, como "impossível", "sempre", ou "pode ser".
Gostou do comentário? Deixe sua avaliação aqui embaixo!
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo