Questões de Concurso Público Prefeitura de Nova Iguaçu - RJ 2025 para Analista de Controle Interno de Projetos

Foram encontradas 21 questões

Q3236534 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A forma como a temática é abordada no texto apresenta aspectos não apenas positivos, mas situações que muitas vezes apontam certa preocupação. Representa(m) o exposto anteriormente:
Alternativas
Q3236536 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
O livre comentário a seguir, referente ao texto, que apresenta correção gramatical, está indicado em:
Alternativas
Q3236540 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Acerca das informações e ideias apresentadas no último parágrafo do texto, é INCORRETO afirmar que:
Alternativas
Q3236541 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Dentre os segmentos destacados a seguir, assinale o que utiliza estratégia argumentativa que confere legitimação à informação e/ou ideia apresentada, diferenciando-se, por esse motivo, dos demais.
Alternativas
Q3236542 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
De acordo com a prosódia, assinale o grupo de palavras que são equivalentes quanto à classificação do acento tônico das palavras.
Alternativas
Q3236543 Não definido
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva


   Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

   Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

   Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

   Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

    A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

    No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.


(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Considerando o primeiro parágrafo do texto, é correto afirmar que no encadeamento entre os períodos que o constituem pode-se observar, na introdução dos períodos, a partir do segundo:
Alternativas
Q3236544 Não definido
Carlos é analista de dados em uma empresa de tecnologia e concluiu um relatório extenso. Na empresa, ele trabalha de segunda-feira a sexta-feira e, em cada dia de trabalho, Carlos dedica 1 hora e 15 minutos exclusivamente para essa tarefa. Seguindo esse ritmo, ele levou um tempo total de 27 horas e 30 minutos para concluir o relatório. Considere que Carlos começou a elaborar o relatório em uma terça-feira e, nos demais dias úteis, trabalhou sem interrupções. Se, durante a execução do relatório, houve apenas dois dias que Carlos não trabalhou devido a feriados municipais, em qual dia da semana ele terminou o relatório?
Alternativas
Q3236545 Não definido
Dois trabalhadores estão pintando uma grande parede. O primeiro trabalhador é mais rápido e o segundo é um pouco mais lento. Quando estão trabalhando juntos, eles conseguem concluir todo o serviço em 24 minutos. No entanto, se apenas um dos trabalhadores fosse responsável pelo trabalho, o trabalhador mais lento precisaria de 20 minutos a mais do que o trabalhador mais rápido para completar o mesmo serviço. Com base nessas informações, qual é a soma, em minutos, dos tempos individuais que cada trabalhador levaria para pintar a parede se trabalhasse sozinho?
Alternativas
Q3236546 Não definido
João, Marcos e Pedro são amigos e possuem alturas de 1,70 m; 1,75 m; e 1,80 m, mas não necessariamente nessa ordem. Além disso, atualmente, sabe-se que o curso de graduação de um dos amigos é medicina, de outro é engenharia civil e, do amigo restante, direito. Sabe-se que Marcos estuda engenharia civil e não possui 1,75 m de altura. Além disso, o aluno de direito possui 1,70 m de altura e Pedro não estuda medicina. Com base nessas informações, quais são, respectivamente, a altura e o curso de João?
Alternativas
Q3236547 Não definido
Em um leilão de antiguidades, 9 esculturas estão expostas em uma fila, organizadas em ordem crescente de valor da esquerda para a direita. O preço de cada escultura é R$ 45,00 a mais do que a escultura imediatamente anterior. Da esquerda para a direita, sabe-se que a terceira escultura tem um valor que representa 1/3 do valor da oitava escultura. Dessa forma, qual o valor da escultura mais cara?
Alternativas
Q3236548 Não definido
Em uma competição de natação organizada por determinada cidade, participaram 10 nadadores – 4 pertencem à equipe A e 6 à equipe B. Após a competição, os 4 melhores nadadores receberão as medalhas de ouro (para o 1º lugar), prata (para o 2º lugar), bronze (para o 3º lugar) e uma medalha de honra ao mérito (para o 4º lugar). Sabendo que as classificações são definidas de acordo com a ordem das melhores pontuações e que não há chances de haver empates, quais são as possibilidades distintas de que pelo menos um dos nadadores da equipe A seja premiado com uma das medalhas?
Alternativas
Q3236549 Não definido
O município implementou um programa para a construção e gestão de novas unidades escolares públicas em locais que ainda não possuíam educação básica. Durante a execução do programa, foram identificadas cobrança de mensalidade, ausência de vaga para crianças abaixo de 6 anos de idade e ausência de vagas suficientes para estudantes com deficiência. Diante desse cenário, um grupo de cidadãos acionou o Ministério Público para questionar a legalidade da iniciativa municipal. Com base na Constituição Federal e nos princípios que regem o direito social à educação, assinale a afirmativa correta. 
Alternativas
Q3236550 Não definido
O Município de Nova Iguaçu aprovou uma lei proibindo a soltura de fogos de artifício e artefatos pirotécnicos que produzam estampidos, alegando a necessidade de proteger o meio ambiente e os direitos das pessoas com hipersensibilidade a ruídos, como autistas e idosos. Um grupo de comerciantes e organizadores de eventos ingressou com uma ação judicial, argumentando que a norma municipal seria inconstitucional por violar a competência legislativa da União e dos estados sobre matéria de comércio e meio ambiente. Além disso, alegam que a proibição afrontaria o direito à livre iniciativa e à manifestação cultural. Considerando os preceitos constitucionais a respeito da organização do estado e os direitos e as garantias fundamentais, além do entendimento consolidado do Superior Tribunal Federal (STF) a respeito do assunto, assinale a afirmativa correta.
Alternativas
Q3236551 Não definido
Um gestor público está elaborando um edital de licitação e precisa garantir que todos os princípios da licitação sejam respeitados. Dentre os princípios fundamentais, qual dos a seguir relacionados deve ser assegurado para garantir a ampla concorrência e a isonomia entre os licitantes?
Alternativas
Q3236552 Não definido
Um servidor público foi acusado de praticar atos que configuram improbidade administrativa ao favorecer uma empresa em um processo licitatório. Qual das seguintes condutas é considerada ato de improbidade administrativa, conforme a Lei nº 8.429/1992? 
Alternativas
Q3236553 Não definido
De acordo com a Lei de Acesso à Informação – Lei nº 12.527/2011, qual das afirmativas a seguir está correta em relação ao direito de acesso à informação?
Alternativas
Q3236859 Não definido
Sobre o direito à aposentadoria dos servidores titulares de cargos efetivos do município de Nova Iguaçu, para um servidor aprovado em concurso público realizado em 2025, segundo as regras atualmente vigentes, analise as afirmativas a seguir.

I. Nova Iguaçu possui regime próprio de previdência social com caráter contributivo e solidário.
II. Estará sujeito a aposentadoria compulsória aos 70 anos de idade, com proventos proporcionais ao tempo de contribuição.
III. A Lei Orgânica do Município proíbe expressamente que Lei Municipal possa estabelecer qualquer forma de contagem de tempo de contribuição fictício.
IV. Estabelece enquanto idade mínima para aposentadoria, 64 anos para mulher e 67 para homens, observados o tempo de contribuição mínimo, formas de cálculo e requisitos estabelecidos em Lei Complementar própria.


Está correto o que se afirma apenas em 
Alternativas
Q3236862 Não definido
Pedro é funcionário público, concursado, em Nova Iguaçu. Seu cargo é de professor e seu horário de trabalho é diurno, com quarenta horas semanais, as quais implicam em sua atividade de 8h às 18h, fazendo duas horas de intervalo de almoço. Sobre a possibilidade de Pedro acumular esse cargo público, com uma segunda ocupação profissional, que seja técnico ou científico, analise as seguintes possibilidades de cumulação da atividade de professor com:

I. Autarquia. II. Empresa pública. III. Sociedade de economia mista. IV. Fundações mantidas pelo poder público.


Considerando que exista a compatibilidade de horário, é possível a compatibilidade em
Alternativas
Q3236864 Não definido
João foi aprovado em concurso público para o cargo de analista de controle interno jurídico no município de Nova Iguaçu e nomeado por meio de publicação no Diário Oficial, em 4 de outubro de 2024. No dia 30 de outubro de 2024, João protocolou um requerimento solicitando a prorrogação do prazo, por noventa dias, para tomar posse, alegando motivos pessoais. No entanto, o pedido foi indeferido, sob o fundamento de que ultrapassava o prazo previsto na legislação. Considerando a Lei Municipal nº 2.378/1992, assinale a afirmativa correta.
Alternativas
Q3236865 Não definido
Com base na Lei Municipal nº 2.378/1992, assinale a alternativa que apresenta correta e simultaneamente uma forma de provimento e uma forma de vacância do cargo público.
Alternativas
Respostas
1: C
2: D
3: D
4: C
5: B
6: A
7: D
8: B
9: C
10: C
11: C
12: C
13: D
14: B
15: B
16: B
17: A
18: A
19: B
20: D