Questões de Concurso Público UFMG 2023 para Enfermeiro - Área

Foram encontradas 35 questões

Q2297465 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
A tese defendida no texto I está corretamente identificada em:
Alternativas
Q2297466 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
O mecanismo de desenvolvimento argumentativo está incorretamente indicado entre parênteses em:
Alternativas
Q2297467 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
A palavra SE destacada indica hipótese em:
Alternativas
Q2297468 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Assinale V (verdadeiro) e F (falso) diante de cada afirmativa a seguir, em que há interpretações sobre o texto I.

( ) O aprendizado de máquina baseia-se no princípio de correlações entre grandes conjuntos de dados, visando a detectar padrões ou regras nos dados e, assim, projetar cenários futuros que podem, inclusive, ser duvidosos.
( ) Os autores enaltecem o uso de ferramentas baseadas em inteligência artificial (IA).
( ) A explicação e o raciocínio são mecanismos fundamentais do aprendizado de máquinas.
( ) A mente humana cria explicações e inferências a partir do processamento de poucas informações.

A sequência correta é
Alternativas
Q2297469 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
O ponto de vista, expresso no título do texto I, está corroborado no seguinte trecho: 
Alternativas
Q2297470 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Leia este trecho:

“A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica.”

Assinale a alternativa em que a reescrita apresenta equivalência semântica com esse trecho. 
Alternativas
Q2297471 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
A palavra MAS, destacada nas sentenças a seguir, não introduz uma relação coesiva de oposição em:
Alternativas
Q2297472 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Assinale a alternativa em que a palavra entre parênteses não tem o mesmo sentido da palavra destacada no trecho.
Alternativas
Q2297473 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Considerando-se o ponto de vista defendido no texto II, avalie as seguintes assertivas e a relação proposta entre elas.

I. A inteligência artificial não pode pensar

PORQUE

II. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

A respeito dessas assertivas, é correto afirma que 
Alternativas
Q2297474 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Leia este parágrafo do texto I.

“Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.”

Dentre as sentenças do texto II, destacadas a seguir, a que ilustra o conceito de “explicação”, presente nesse trecho do texto I, é:
Alternativas
Q2297475 Português
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento


Noam Chomsky
Ian Roberts
Jeffrey Watumull*

     Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.

    O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.

     Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]

   A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]

    De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.

     Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.

     O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]

     Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.

     Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]

    A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]

     Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.



CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).





Texto II

Inteligência artificial


    Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.

     O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
 
    De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]

  Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina. 


HAN, Byung-Chul. Inteligência artificial. InNão coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
A partir da relação entre os textos I e II, é correto afirmar que ambos apresentam
Alternativas
Q2297476 Direito Constitucional
Segundo a Constituição Federal, a educação é um direito de todos e um dever do Estado e da família. Para que esse direito se concretize, o Estado tem as seguintes obrigações, exceto:
Alternativas
Q2297477 Direito Administrativo
O provimento de cargos públicos é o ato administrativo responsável pelo preenchimento das vagas de emprego público no país. De acordo com o previsto na Lei 8.112/1990, assinale a alternativa correta.
Alternativas
Q2297478 Legislação Federal
A Universidade Federal de Minas Gerais, comunidade de professores, alunos e pessoal técnico e administrativo, tem por objetivos precípuos a geração, o desenvolvimento, a transmissão e a aplicação de conhecimentos por meio do ensino, da pesquisa e da extensão, de forma indissociada entre si e integrados na educação do cidadão, na formação técnico-profissional, na difusão da cultura e na criação filosófica, artística e tecnológica.

A respeito dos fins da Universidade, conforme o seu Estatuto, Resolução 04/99, assinale a alternativa incorreta.
Alternativas
Q2297479 Legislação Federal
A Lei 11.091/2005 dispõe sobre a estruturação do Plano de Carreira dos Cargos Técnico-Administrativos em Educação, no âmbito das Instituições Federais de Ensino vinculadas ao Ministério da Educação. De acordo com essa lei, na gestão dos cargos do Plano de Carreira deverão ser observados os seguintes princípios e diretrizes, exceto:
Alternativas
Ano: 2023 Banca: UFMG Órgão: UFMG Prova: UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2298462 Enfermagem

Leia este texto. 



Imagem associada para resolução da questão



O texto acima está relacionado a problemas de segurança dos pacientes. Apesar dos esforços para garantir a prestação de cuidados de saúde de qualidade, no relatório To Err Is Human (IOM, 2000) observou-se que 100 mil estadunidenses morreram a cada ano por erros evitáveis nos hospitais e sofreram muitas outras lesões não fatais também por erros.


Sobre a segurança do paciente, é correto afirmar que

Alternativas
Ano: 2023 Banca: UFMG Órgão: UFMG Prova: UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2298463 Enfermagem
O capítulo II da Resolução do Conselho Federal de Enfermagem n.º 564, que estabelece o novo Código de Ética dos Profissionais de Enfermagem, discorre sobre os deveres dos profissionais da enfermagem.
São deveres desses profissionais, exceto:
Alternativas
Ano: 2023 Banca: UFMG Órgão: UFMG Prova: UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2298464 Enfermagem
O Planejamento Estratégico Situacional (PES) constitui um método voltado para a resolução de problemas, e que trabalha problemas atuais, problemas potenciais e macroproblemas, constituindo-se em uma ferramenta importante no gerenciamento do cuidado pelo enfermeiro. O PES é composto por quatro momentos que se interrelacionam: explicativo, normativo, estratégico e tático-operacional.

É correto afirmar que o momento
Alternativas
Ano: 2023 Banca: UFMG Órgão: UFMG Prova: UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2298465 Enfermagem
Considere este caso:

O enfermeiro Rafael assumiu recentemente o ambulatório de ortopedia de um hospital de ensino. Durante sua prática acerca do gerenciamento dos recursos físicos e ambientais, observou que alguns técnicos de enfermagem estavam desprezando ampolas de vidro de medicamentos analgésicos em lixeira de resíduos comum. Diante disso, decidiu realizar uma ação educativa com os profissionais do setor. Considerando-se o gerenciamento correto de resíduos de serviços de saúde e a prática educativa do enfermeiro, é correto afirmar que o enfermeiro Rafael
Alternativas
Ano: 2023 Banca: UFMG Órgão: UFMG Prova: UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2298466 Enfermagem
A influenza é uma doença respiratória viral aguda que causa, de modo previsível e periodicamente, pandemias. Estima-se a ocorrência de 23.000 mortes a cada ano associadas à influenza ou suas sequelas. Os idosos são mais susceptíveis à influenza e infecções pneumocócicas e sua incidência aumenta à medida que aumenta a proporção de pessoas idosas na população.
Em relação a essas doenças, assinale a alternativa correta
Alternativas
Respostas
1: B
2: A
3: D
4: B
5: C
6: B
7: A
8: B
9: A
10: D
11: C
12: A
13: C
14: C
15: B
16: A
17: C
18: A
19: D
20: B