Questões de Concurso Público PC-DF 2025 para Gestor de Apoio as Atividades Policiais Civis - Especialidade: Arquivista
Foram encontradas 120 questões
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Um aspecto negativo da IA mencionado pelos pesquisadores citados no texto diz respeito aos princípios éticos, uma vez que, segundo eles, as descobertas e criações científicas nem sempre serão adequadamente atribuídas a seus autores.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Infere-se da leitura do texto que os linguistas que escreveram o artigo para o jornal americano são contrários ao uso de ferramentas de inteligência artificial.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Segundo os autores do artigo publicado no The New York Times, a possibilidade de “armazenar imensas quantidades de informação” pode ser considerada um aspecto positivo dos programas de IA.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
As diferenças entre os programas de IA e a mente humana mencionadas no quarto parágrafo — ‘esses programas (...) diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem’ — são explicitadas nos parágrafos seguintes do texto.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Ao afirmarem que “imensas quantidades de informação (...) não necessariamente são verídicas” (primeiro período do quarto parágrafo), os intelectuais mencionados no texto sugerem que as ferramentas de IA podem se tornar grandes propagadores de fake news em um futuro próximo.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
O trecho “diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação” (quinto parágrafo) poderia ser reescrito, sem prejuízo dos sentidos e da correção do texto, da seguinte forma: ao contrário de mecanismos de aplicativos que operam com base na coleta de inúmeros dados, como o ChatGPT, a mente humana funciona com pequenas quantidades de informação.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No primeiro parágrafo, a correção gramatical do texto seria mantida caso se empregasse ponto no lugar da vírgula logo após “2023”, com a devida alteração da inicial minúscula para maiúscula na palavra “compartilhando”.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
A correção e a coerência do texto seriam mantidas caso a forma verbal “compartilhando” (primeiro parágrafo) fosse substituída por a fim de compartilharem.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
As aspas no trecho ‘supostamente revolucionários’ (segundo parágrafo) denotam a ironia com que a expressão foi empregada no texto.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No terceiro parágrafo, as expressões “No primeiro caso” e “no segundo”, na qual está subentendido o termo caso, remetem, respectivamente, aos motivos para ‘otimismo’ e para ‘preocupação’ (segundo parágrafo).
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No segundo período do quarto parágrafo, o termo ‘que’, em ‘que diferem profundamente’, funciona como sujeito sintático da oração por ele introduzida, sendo o seu referente semântico a expressão ‘esses programas’.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
Estariam mantidos o sentido original e a correção gramatical do texto caso o trecho “incorporar à tecnologia uma concepção fundamentalmente errônea” (terceiro parágrafo) fosse assim reescrito: incorporar a tecnologia a uma concepção fundamentalmente errônea.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No segundo parágrafo, a expressão ‘tanto (...) como’ é empregada para ligar ideias por adição.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No quinto parágrafo, o pronome relativo empregado no segmento “por meio das quais” faz referência a “pequenas quantidades de informação”.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No último período do texto, o emprego de vírgula após os segmentos ‘o que é’ e ‘o que será’ justifica-se por separar elementos em uma enumeração.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item subsecutivo, relativo ao vocabulário empregado no texto CB1A1.
A expressão ‘em voga’ (terceiro parágrafo) significa na moda.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item subsecutivo, relativo ao vocabulário empregado no texto CB1A1.
O sentido da palavra ‘inerradicáveis’ (final do quarto parágrafo) é o mesmo de inarredáveis.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item subsecutivo, relativo ao vocabulário empregado no texto CB1A1.
A expressão “ao passo que” (terceiro parágrafo) exprime contraste de ideias expressas no trecho que ela inicia e no trecho que o antecede.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item subsecutivo, relativo ao vocabulário empregado no texto CB1A1.
A substituição da conjunção “Embora” (início do quarto parágrafo) por Conquanto manteria a correção e o sentido do texto.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item subsecutivo, relativo ao vocabulário empregado no texto CB1A1.
A locução “vêm ocorrendo” (primeiro parágrafo) apresenta sentido análogo ao da locução têm ocorrido.