Questões de Concurso Comentadas para codeg - es

Foram encontradas 29 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q2498907 Segurança e Saúde no Trabalho
Considerando que ocorra um acidente sem morte, os responsáveis pela empresa têm até qual prazo para comunicar através da CAT (Comunicação de Acidente de Trabalho)? 
Alternativas
Q2498906 Segurança e Saúde no Trabalho
Qual é o critério de avaliação da exposição ocupacional ao calor adotado pela normativa responsável? 
Alternativas
Q2498905 Segurança e Saúde no Trabalho
Assinale a opção que apresenta uma das diretrizes do PCMSO (Programa de Controle Médico de Saúde Ocupacional).
Alternativas
Q2498904 Segurança e Saúde no Trabalho
Considerando a segurança e saúde no trabalho nas atividades de limpeza urbana e manejo de resíduos sólidos, marque a opção INCORRETA.
Alternativas
Q2498903 Segurança e Saúde no Trabalho
Marque a opção INCORRETA sobre atividades e operações insalubres.
Alternativas
Q2498902 Segurança e Saúde no Trabalho
A exposição a níveis de ruído superiores a qual valor em dB(A) é desautorizada para pessoas sem a devida proteção? 
Alternativas
Q2498901 Segurança e Saúde no Trabalho
Considerando a normativa sobre equipamento de proteção individual, assinale a opção CORRETA. 
Alternativas
Q2498879 Português

Texto I


No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial 


    Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.


    A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.


    O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.


    “A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.


    Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.


   Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.


    Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.


    Ela diz que o número de pessoas que utilizam o bot é preocupante e pode apontar para elevados níveis de problemas de saúde mental e falta de recursos públicos. Mas a Character.ai é um espaço estranho para sediar uma revolução terapêutica. “Estamos felizes de ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que elas e a comunidade criam, mas os usuários devem consultar profissionais certificados na área para obter aconselhamento e orientação legítimos,” disse uma porta-voz da empresa.

   

   É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.


   Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados aos pacientes ou podem trazer preconceitos de raça ou gênero. Mas em outros lugares o mundo médico começa a provisoriamente aceitar os bots de IA como ferramentas a serem utilizadas para ajudar a lidar com a alta demanda nos serviços públicos. 

  

   No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.


Adaptado de:

https://www.bbc.com/portuguese/articles/c8025nkdjd3o



Analise os itens a seguir quanto à pontuação e assinale a única opção INCORRETA acerca deles. 

I - Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin (1º parágrafo)

II - Chama-se Psychologist (psicólogo, em inglês). (2º parágrafo)

III - “O bot tem muito a dizer e rapidamente faz suposições [...]” (5º parágrafo)

IV - Character.ai – uma plataforma onde qualquer um pode criar chatbots [...] (1º parágrafo)
Alternativas
Q2498878 Português

Texto I


No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial 


    Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.


    A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.


    O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.


    “A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.


    Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.


   Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.


    Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.


    Ela diz que o número de pessoas que utilizam o bot é preocupante e pode apontar para elevados níveis de problemas de saúde mental e falta de recursos públicos. Mas a Character.ai é um espaço estranho para sediar uma revolução terapêutica. “Estamos felizes de ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que elas e a comunidade criam, mas os usuários devem consultar profissionais certificados na área para obter aconselhamento e orientação legítimos,” disse uma porta-voz da empresa.

   

   É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.


   Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados aos pacientes ou podem trazer preconceitos de raça ou gênero. Mas em outros lugares o mundo médico começa a provisoriamente aceitar os bots de IA como ferramentas a serem utilizadas para ajudar a lidar com a alta demanda nos serviços públicos. 

  

   No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.


Adaptado de:

https://www.bbc.com/portuguese/articles/c8025nkdjd3o



“O bot tem muito a dizer e rapidamente faz suposições” – A palavra destacada no excerto anterior é formada por:
Alternativas
Respostas
10: D
11: C
12: A
13: D
14: A
15: A
16: D
17: C
18: B