Questões de Concurso Para analista de controle interno

Foram encontradas 2.732 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q3236562 Legislação dos Municípios do Estado do Rio de Janeiro
Almir é servidor público efetivo do município de Nova Iguaçu, lotado na Secretaria de Administração. Após apresentar reiteradas faltas sem justificativa médica, a administração determinou que Almir fosse submetido a uma inspeção médica obrigatória para verificar sua condição de saúde e aptidão para o trabalho. Entretanto, Almir se recusou injustificadamente a comparecer à inspeção médica, mesmo após ser notificado formalmente pela chefia. Diante disso, foi instaurado um processo administrativo disciplinar para aplicação da penalidade cabível, conforme a legislação vigente. Com base no art. 108, § 1º, da Lei nº 2.378/1992, qual é a penalidade aplicável a Almir?
Alternativas
Q3236561 Legislação dos Municípios do Estado do Rio de Janeiro
De acordo com a Lei nº 2.378/1992, do município de Nova Iguaçu, o funcionário tem direito a determinadas concessões de afastamento sem prejuízo da remuneração; analise-as.
I. Dois dias para doação de sangue. II. Dois dias para se alistar como eleitor. III. Oito dias consecutivos em razão de falecimento do cônjuge, companheiro, pais, filhos e menor sob guarda ou tutela. IV. Dez dias consecutivos para mudança de domicílio.
Está correto o que se afirma apenas em
Alternativas
Q3236558 Legislação dos Municípios do Estado do Rio de Janeiro
“O prefeito de Nova Iguaçu, expedindo atos administrativos, publicou ________________ para declarar um bem de utilidade pública, para fins de desapropriação, também publicou ___________________ para a abertura um processo administrativo interno.” Assinale a alternativa que completa correta e sequencialmente a afirmativa anterior.
Alternativas
Q3236555 Legislação dos Municípios do Estado do Rio de Janeiro
“A Lei Orgânica do Município de Nova Iguaçu pode ser emendada por proposta ______________________ e aprovada pelo quórum de ______________________.” Assinale a alternativa que completa correta e sequencialmente a afirmativa anterior.
Alternativas
Q3236554 Legislação dos Municípios do Estado do Rio de Janeiro
Sobre o direito à aposentadoria dos servidores titulares de cargos efetivos do município de Nova Iguaçu, para um servidor aprovado em concurso público realizado em 2025, segundo as regras atualmente vigentes, analise as afirmativas a seguir.

I. Nova Iguaçu possui regime próprio de previdência social com caráter contributivo e solidário.
II. Estará sujeito a aposentadoria compulsória aos 70 anos de idade, com proventos proporcionais ao tempo de contribuição.
III. A Lei Orgânica do Município proíbe expressamente que Lei Municipal possa estabelecer qualquer forma de contagem de tempo de contribuição fictício.
IV. Estabelece enquanto idade mínima para aposentadoria, 64 anos para mulher e 67 para homens, observados o tempo de contribuição mínimo, formas de cálculo e requisitos estabelecidos em Lei Complementar própria.


Está correto o que se afirma apenas em
Alternativas
Q3236553 Legislação Federal
De acordo com a Lei de Acesso à Informação – Lei nº 12.527/2011, qual das afirmativas a seguir está correta em relação ao direito de acesso à informação?
Alternativas
Q3236549 Direito Constitucional
O município implementou um programa para a construção e gestão de novas unidades escolares públicas em locais que ainda não possuíam educação básica. Durante a execução do programa, foram identificadas cobrança de mensalidade, ausência de vaga para crianças abaixo de 6 anos de idade e ausência de vagas suficientes para estudantes com deficiência. Diante desse cenário, um grupo de cidadãos acionou o Ministério Público para questionar a legalidade da iniciativa municipal. Com base na Constituição Federal e nos princípios que regem o direito social à educação, assinale a afirmativa correta. 
Alternativas
Q3236548 Matemática
Em uma competição de natação organizada por determinada cidade, participaram 10 nadadores – 4 pertencem à equipe A e 6 à equipe B. Após a competição, os 4 melhores nadadores receberão as medalhas de ouro (para o 1º lugar), prata (para o 2º lugar), bronze (para o 3º lugar) e uma medalha de honra ao mérito (para o 4º lugar). Sabendo que as classificações são definidas de acordo com a ordem das melhores pontuações e que não há chances de haver empates, quais são as possibilidades distintas de que pelo menos um dos nadadores da equipe A seja premiado com uma das medalhas?
Alternativas
Q3236546 Raciocínio Lógico
João, Marcos e Pedro são amigos e possuem alturas de 1,70 m; 1,75 m; e 1,80 m, mas não necessariamente nessa ordem. Além disso, atualmente, sabe-se que o curso de graduação de um dos amigos é medicina, de outro é engenharia civil e, do amigo restante, direito. Sabe-se que Marcos estuda engenharia civil e não possui 1,75 m de altura. Além disso, o aluno de direito possui 1,70 m de altura e Pedro não estuda medicina. Com base nessas informações, quais são, respectivamente, a altura e o curso de João?
Alternativas
Q3236545 Matemática
Dois trabalhadores estão pintando uma grande parede. O primeiro trabalhador é mais rápido e o segundo é um pouco mais lento. Quando estão trabalhando juntos, eles conseguem concluir todo o serviço em 24 minutos. No entanto, se apenas um dos trabalhadores fosse responsável pelo trabalho, o trabalhador mais lento precisaria de 20 minutos a mais do que o trabalhador mais rápido para completar o mesmo serviço. Com base nessas informações, qual é a soma, em minutos, dos tempos individuais que cada trabalhador levaria para pintar a parede se trabalhasse sozinho?
Alternativas
Q3236544 Raciocínio Lógico
Carlos é analista de dados em uma empresa de tecnologia e concluiu um relatório extenso. Na empresa, ele trabalha de segunda-feira a sexta-feira e, em cada dia de trabalho, Carlos dedica 1 hora e 15 minutos exclusivamente para essa tarefa. Seguindo esse ritmo, ele levou um tempo total de 27 horas e 30 minutos para concluir o relatório. Considere que Carlos começou a elaborar o relatório em uma terça-feira e, nos demais dias úteis, trabalhou sem interrupções. Se, durante a execução do relatório, houve apenas dois dias que Carlos não trabalhou devido a feriados municipais, em qual dia da semana ele terminou o relatório?
Alternativas
Q3236541 Português
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Dentre os segmentos destacados a seguir, assinale o que utiliza estratégia argumentativa que confere legitimação à informação e/ou ideia apresentada, diferenciando-se, por esse motivo, dos demais.
Alternativas
Q3236540 Português
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Acerca das informações e ideias apresentadas no último parágrafo do texto, é INCORRETO afirmar que:
Alternativas
Q3236537 Português
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A escolha linguística para indicar o sujeito, agente da ação verbal, em “Estamos vivendo a era da datificação, [...]” (1º§) denota:
Alternativas
Q3236536 Português
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
O livre comentário a seguir, referente ao texto, que apresenta correção gramatical, está indicado em:
Alternativas
Q3236534 Português
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A forma como a temática é abordada no texto apresenta aspectos não apenas positivos, mas situações que muitas vezes apontam certa preocupação. Representa(m) o exposto anteriormente:
Alternativas
Q3221344 Auditoria
As normas brasileiras de contabilidade definem que o auditor deve modificar a opinião no seu relatório quando conclui, com base na evidência de auditoria obtida, que as demonstrações contábeis como um todo apresentam distorções relevantes ou não consegue obter evidência de auditoria apropriada e suficiente para concluir que as demonstrações contábeis como um todo não apresentam distorções relevantes. Sempre que o auditor obtiver as evidências de auditoria necessárias para sua análise e conclua que as distorções, individualmente ou em conjunto, são relevantes, mas não generalizadas nas demonstrações contábeis, deverá modificar sua opinião para:
Alternativas
Q3221343 Auditoria
População é o conjunto completo de dados sobre o qual a amostra é selecionada e sobre o qual o auditor deseja concluir. A amostragem em auditoria destina-se a possibilitar conclusões a serem tiradas de uma população inteira com base no teste de amostragem extraída dela. A abordagem realizada através da seleção aleatória dos itens da amostra e do uso da teoria das probabilidades para avaliar os resultados das amostras, incluindo a mensuração do risco de amostragem, é chamada de: 
Alternativas
Q3221342 Auditoria
Risco de auditoria é o risco de que o auditor expresse uma opinião de auditoria inadequada quando as demonstrações contábeis contiverem distorção relevante. Já o risco de distorção relevante é o risco de que as demonstrações contábeis contenham distorção relevante antes da auditoria. O risco de distorção relevante que corresponde à suscetibilidade de uma afirmação a respeito de uma transação, saldo contábil ou divulgação, a uma distorção que possa ser relevante, individualmente ou em conjunto com outras distorções, antes da consideração de quaisquer controles relacionados, é chamada de:
Alternativas
Q3221341 Auditoria
Evidências de auditoria são as informações utilizadas pelo auditor para fundamentar suas conclusões em que se baseia a sua opinião. As evidências de auditoria incluem informações contidas nos registros contábeis subjacentes às demonstrações contábeis e outras informações. Para que as evidências de auditoria sejam utilizadas pelo Auditor elas devem ser:
Alternativas
Respostas
1: C
2: B
3: A
4: A
5: A
6: B
7: C
8: C
9: C
10: B
11: D
12: C
13: D
14: D
15: D
16: C
17: D
18: B
19: A
20: E