Questões de Concurso Público CODEG - ES 2024 para Técnico de Segurança do Trabalho
Foram encontradas 10 questões
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Sobre o texto, pode-se dizer:
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
I - “E um bot tem sido mais procurado do que os conhecidos nomes citados acima.” (2º parágrafo)
II - “O bot apresenta-se como ‘alguém que ajuda nas dificuldades da vida’.” (3º parágrafo)
III - “Um total de 78 milhões de mensagens [...] foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98” (2º parágrafo)
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
I - O trecho “para obter aconselhamento e orientação legítimos” poderia ser reescrito sem configurar desvio da norma-padrão da seguinte maneira: “para obter aconselhamento e orientação legítima”.
PORQUE
II - O adjetivo (legítimo) pode concordar apenas com o substantivo mais próximo (orientação), que está no feminino singular.
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
No excerto acima, vemos o exemplo de uma das variações da palavra sublinhada. Analise as opções a seguir e assinale aquela cuja aplicação do termo destacado foi feita de maneira INADEQUADA.
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
I - Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin (1º parágrafo)
II - Chama-se Psychologist (psicólogo, em inglês). (2º parágrafo)
III - “O bot tem muito a dizer e rapidamente faz suposições [...]” (5º parágrafo)
IV - Character.ai – uma plataforma onde qualquer um pode criar chatbots [...] (1º parágrafo)
Na língua portuguesa, há muitas palavras de grafia ou sonoridade similares ou idênticas. Observe as frases a seguir e assinale a opção que apresenta as palavras adequadas para completar a sequência dos espaços CORRETAMENTE.
Não convém olhar para _________ enquanto dirige.
Vamos ao cinema na ____________ das 19 horas?
Está chovendo muito! _________ o guarda-chuva.
A professora sempre se queixa de que sou um _________ aluno...