Questões de Concurso
Para instituto referência
Foram encontradas 973 questões
Resolva questões gratuitamente!
Junte-se a mais de 4 milhões de concurseiros!
A pesca artesanal em Guarapari é praticada ao longo da linha de costa. Sobre a realidade vivida pelos pescadores neste município, é FALSO afirmar:
Se em um baralho tradicional de 52 cartas, duas cartas
forem extraídas ao acaso, sem reposição, a probabilidade de
que as duas cartas extraídas sejam do mesmo naipe é de:
Suponha que uma pesquisa tenha revelado que a
população de um determinado município cresce 10% ao ano.
Se a população desse município é de 200 000 habitantes em
2024, a única alternativa que apresenta uma lei expressando o
número total T de habitantes desse município em função do
tempo x, em anos, a partir do ano de 2024, é:
Sabendo que um quadrado e um hexágono regular têm perímetros iguais, se a diagonal do quadrado mede 6√2 cm, a área do hexágono regular é igual a:
Na língua portuguesa, há muitas palavras de grafia ou sonoridade similares ou idênticas. Observe as frases a seguir e assinale a opção que apresenta as palavras adequadas para completar a sequência dos espaços CORRETAMENTE.
Não convém olhar para _________ enquanto dirige.
Vamos ao cinema na ____________ das 19 horas?
Está chovendo muito! _________ o guarda-chuva.
A professora sempre se queixa de que sou um _________ aluno...
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
I - Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin (1º parágrafo)
II - Chama-se Psychologist (psicólogo, em inglês). (2º parágrafo)
III - “O bot tem muito a dizer e rapidamente faz suposições [...]” (5º parágrafo)
IV - Character.ai – uma plataforma onde qualquer um pode criar chatbots [...] (1º parágrafo)
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
No excerto acima, vemos o exemplo de uma das variações da palavra sublinhada. Analise as opções a seguir e assinale aquela cuja aplicação do termo destacado foi feita de maneira INADEQUADA.
Texto I
No divã com a IA: os jovens que fazem terapia com bots de inteligência artificial
Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”. A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara. Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens.
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela. Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é
preocupante e pode apontar para elevados níveis de
problemas de saúde mental e falta de recursos públicos. Mas
a Character.ai é um espaço estranho para sediar uma
revolução terapêutica. “Estamos felizes de ver que as pessoas
estão encontrando grande apoio e conexão através dos
personagens que elas e a comunidade criam, mas os usuários
devem consultar profissionais certificados na área para obter
aconselhamento e orientação legítimos,” disse uma porta-voz
da empresa.
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Alguns psicólogos alertam que os bots de IA podem estar
dando conselhos inadequados aos pacientes ou podem trazer
preconceitos de raça ou gênero. Mas em outros lugares o
mundo médico começa a provisoriamente aceitar os bots de
IA como ferramentas a serem utilizadas para ajudar a lidar com
a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.
Adaptado de:
https://www.bbc.com/portuguese/articles/c8025nkdjd3o
I - O trecho “para obter aconselhamento e orientação legítimos” poderia ser reescrito sem configurar desvio da norma-padrão da seguinte maneira: “para obter aconselhamento e orientação legítima”.
PORQUE
II - O adjetivo (legítimo) pode concordar apenas com o substantivo mais próximo (orientação), que está no feminino singular.