Questões de Concurso Para agente de vigilância sanitária

Foram encontradas 728 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q2517462 Noções de Informática
Para Centralizar o conteúdo no documento do programa Microsoft Word 365 PT-BR, o usuário seleciona o texto e utiliza, no teclado, o atalho 
Alternativas
Q2517461 Noções de Informática
No programa Microsoft Excel 365 PT-BR, para iniciar uma fórmula, numa célula ou na barra de fórmulas, é preciso iniciar com o caractere
Alternativas
Q2517460 Noções de Informática
Ao utilizar o atalho “CTRL+T”, no navegador do Google Chrome, o usuário vai abrir
Alternativas
Q2517459 Noções de Informática

Analise a figura abaixo:


Imagem associada para resolução da questão

Figura 01


A logomarca da figura 01 refere-se ao navegador

Alternativas
Q2517458 Noções de Informática
No programa Microsoft Word 365 PT-BR, o atalho do teclado utilizado para Salvar o documento e, em seguida, imprimi-lo é:
Alternativas
Q2517457 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Analise o período a seguir.


Imagem associada para resolução da questão

Em relação à pontuação desse período,

Alternativas
Q2517456 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Analise o período a seguir. 


   Imagem associada para resolução da questão


As conjunções [1] e [2] em destaque introduzem orações que exprimem

Alternativas
Q2517455 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

No quinto parágrafo, a conjunção “apesar de” é utilizada para 
Alternativas
Q2517454 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Considere o trecho a seguir.


 Imagem associada para resolução da questão


Nesse trecho, a presença de verbos

Alternativas
Q2517453 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Se o sujeito for flexionado plural no trecho “[...] é fundamental que exista uma transparência maior nos algoritmos [...]”, a sua nova versão, de acordo com o português escrito padrão, será:
Alternativas
Q2517452 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Considere o trecho a seguir. 


Imagem associada para resolução da questão


As palavras [1], [2] e [3], em destaque, devem ser classificadas, respectivamente, como

Alternativas
Q2517451 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Considerando a organização das ideias, no terceiro parágrafo, a ideia central 
Alternativas
Q2517450 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Em relação ao uso da inteligência artificial, o autor do texto tem uma visão
Alternativas
Q2517449 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

De acordo com o texto, os perigos da inteligência artificial 
Alternativas
Q2517448 Português

A questão refere-se ao texto reproduzido a seguir.

Novos perigos da inteligência artificial 

   Após pouco mais de um ano de seu lançamento, não dá para negar que a inteligência artificial generativa – que tem como seu principal representante o ChatGPT – já revolucionou diversas áreas de trabalho. Mas essa força transformadora está mostrando, aos poucos, que também tem seu lado sombrio, levantando preocupações de todo tipo, inclusive éticas, pelo mundo.
   A recém-encerrada greve dos roteiristas e atores de Hollywood já foi uma consequência do mundo pósinteligência artificial. Entre outras reivindicações, os trabalhadores dos grandes estúdios cobravam regras mais claras para evitar que roteiros sejam totalmente escritos pela inteligência artificial, bem como restrições no uso indiscriminado da imagem dos atores coadjuvantes. Além de ter o poder de aniquilar o trabalho criativo, os sindicatos de Hollywood alertam que a automação desenfreada pode levar a uma produção de conteúdo carente da autenticidade que conecta histórias aos corações do público. 
   Outros casos recentes, dessa vez no Brasil, mostraram o aprofundamento dos perigos da inteligência artificial, tanto para pessoas públicas quanto para anônimos, e tendo principalmente mulheres como alvo. Primeiro foi a atriz mineira Isis Valverde, que teve diversas fotos adulteradas para simular o vazamento de imagens conhecidas como "nudes", como se ela estivesse sem roupa. As fotos falsas circularam pelas redes sociais como se fossem autênticas, o que levou a atriz a registrar um boletim de ocorrência na Delegacia de Crimes de Informática da Polícia Civil do Rio de Janeiro. A inteligência artificial também foi a ferramenta usada por alunos de escolas particulares de Belo Horizonte, Recife e Rio de Janeiro para criar versões falsas de imagens de colegas de sala nuas, em casos ainda mais preocupantes, já que envolvem adolescentes, ou seja, menores de idade.
   A greve dos roteiristas e os sombrios casos de pornografia falsa gerada por IA revelam uma desconsideração alarmante pelo trabalho, pela privacidade e pela dignidade das pessoas. Por isso, é imperativo que a sociedade desenvolva estruturas robustas para prevenir esse tipo de abuso, e isso deve ser feito tanto pelos governos, quanto pelas empresas. Do lado das companhias que oferecem esse tipo de serviço, é fundamental que exista uma transparência maior nos algoritmos que regem a produção de textos e imagens pela inteligência artificial. Também é necessário que existam meios de identificação simultânea de conteúdos, como marcas d'água, de modo a comprovar que determinada foto ou sequência de palavras foi gerada por uma IA.

   Falta ainda ao Brasil uma legislação clara para o uso da inteligência artificial, que leve em conta a atual mudança tecnológica. Apesar de a criação de montagens pornográficas – principalmente envolvendo menores de idade – ser crime, a autoria do produto final está em uma zona cinzenta das leis brasileiras. Para tentar coibir tais abusos, é preciso que existam regulamentações mais rigorosas e mecanismos claros de responsabilização pelo uso da IA para a produção de conteúdo criminoso. 

   A solução não reside em condenar a inteligência artificial – que é meramente uma ferramenta –, mas em estabelecer limites éticos e legais para sua aplicação. É preciso compreender que o perigo não está na IA em si, mas na ausência de diretrizes éticas. Como toda nova tecnologia, ela demanda técnicas, direitos e deveres totalmente novos, para que seja bem aplicada. Os alertas recentes já são mais do que suficientes para que esse debate se inicie, tanto nas empresas quanto no Congresso.

Disponível em: https://www.em.com.br/ 2023/11/6654195-novos-perigos-da-inteligencia-artificial.html. [Adaptado] 

Considerando o texto em sua totalidade, o objetivo principal do texto é
Alternativas
Q2511810 Legislação Estadual
O Servidor será aposentado voluntariamente quando for apresentada as seguintes situações, exceto:
Alternativas
Q2511808 Direito Sanitário
Qual dos seguintes métodos é uma forma eficaz de comunicação do risco sanitário para o público em geral?
Alternativas
Q2511807 Direito Sanitário
Qual das seguintes atividades é um instrumento comum de ação da vigilância sanitária para promover a segurança alimentar?
Alternativas
Q2511806 Direito Sanitário
Observe os seguintes instrumentos e assinale o que representa uma ferramenta comum de ação da vigilância sanitária para garantir a conformidade com as normas de saúde pública?
Alternativas
Q2511805 Direito Sanitário
Analise as seguintes práticas e assinale a que representa uma medida eficaz na gerência do risco sanitário em um ambiente hospitalar.  
Alternativas
Respostas
141: D
142: A
143: B
144: C
145: A
146: A
147: C
148: B
149: A
150: D
151: C
152: B
153: B
154: A
155: B
156: D
157: C
158: B
159: B
160: C