Leia este trecho: “A mente humana não é, como o ChatGPT e s...
Próximas questões
Com base no mesmo assunto
Ano: 2023
Banca:
UFMG
Órgão:
UFMG
Provas:
UFMG - 2023 - UFMG - Analista de Tecnologia da Informação
|
UFMG - 2023 - UFMG - Físico |
UFMG - 2023 - UFMG - Farmacêutico - Habilitação |
UFMG - 2023 - UFMG - Engenheiro - Área: Civil |
UFMG - 2023 - UFMG - Enfermeiro - Área |
Q2297470
Português
Texto associado
Texto I
A falsa promessa do ChatGPT
Versão mais proeminente de Inteligência Artificial codifica uma
concepção errônea de linguagem e conhecimento
Noam Chomsky
Ian Roberts
Jeffrey Watumull*
Hoje, nossos avanços supostamente revolucionários em inteligência artificial são, de fato, motivo de preocupação e otimismo. Otimismo porque a inteligência é o meio pelo qual resolvemos problemas. Preocupação porque tememos que o tipo mais popular e moderno de IA – o aprendizado de máquina – degrade nossa ciência e rebaixe nossa ética ao incorporar, em nossa tecnologia, uma concepção fundamentalmente falha de linguagem e conhecimento.
O ChatGPT da OpenAI, o Barddo Google e o Sydney da Microsoft são maravilhas do aprendizado de máquina. De modo geral, eles coletam uma grande quantidade de dados, procuram padrões neles e tornam-se cada vez mais eficientes em gerar respostas estatisticamente prováveis – como linguagem e raciocínio parecidos com os de seres humanos. Esses programas foram saudados como os primeiros lampejos no horizonte da inteligência artificial geral – aquele momento há muito profetizado em que as mentes mecânicas ultrapassarão os cérebros humanos não apenas quantitativamente, em termos de velocidade de processamento e tamanho da memória, mas também qualitativamente, em termos de percepção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.
Esse dia pode chegar, mas ainda não amanheceu, ao contrário do que se lê em manchetes hiperbólicas e é recebido com investimentos imprudentes. [...]
A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e até elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre pontos de dados, mas criar explicações. [...]
De fato, tais programas estão presos numa fase pré-humana ou não humana da evolução cognitiva. Sua falha mais profunda é a ausência da capacidade mais crítica de qualquer inteligência: dizer não somente o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão –, mas também o que não é o caso e o que poderia e não poderia ser o caso. Esses são os ingredientes da explicação, a marca da verdadeira inteligência.
Aqui está um exemplo. Suponha que você esteja segurando uma maçã. Então você deixa a maçã cair. Você observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ter sido a afirmação “A maçã cairá se eu abrir minha mão”. Ambos são valiosos e ambos podem estar corretos. Mas uma explicação é algo mais: inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “Qualquer objeto parecido cairia”, além da cláusula adicional “por causa da força da gravidade” ou “por causa da curvatura do espaço-tempo”, ou coisa parecida. Essa é uma explicação causal. “A maçã não teria caído se não fosse pela força da gravidade”. Isso é raciocínio.
O ponto crucial do aprendizado de máquina é a descrição e a previsão; ele não sugere quaisquer mecanismos causais ou leis físicas. Claro, qualquer explicação em estilo humano não é necessariamente correta; somos falíveis. Mas isso faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência consiste não apenas em conjecturas criativas, mas também em críticas criativas. O pensamento no estilo humano se baseia em possíveis explicações e correção de erros, processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. [...]
Mas o ChatGPT e programas semelhantes são, por desígnio, ilimitados no que podem “aprender” (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita as línguas que podemos aprender àquelas com um certo tipo de elegância quase matemática, esses programas aprendem línguas humanamente possíveis e humanamente impossíveis com a mesma facilidade. Enquanto os humanos são limitados nos tipos de explicações que podemos conjeturar racionalmente, os sistemas de aprendizado de máquina podem aprender tanto que a Terra é plana quanto que é redonda. Eles apenas lidam com probabilidades que mudam ao longo do tempo.
Por esse motivo, as previsões dos sistemas de aprendizado de máquina sempre serão superficiais e duvidosas. [...]
A verdadeira inteligência também é capaz de pensamento moral. Isso significa restringir a criatividade ilimitada de nossas mentes com um conjunto de princípios éticos que determinam o que deve e o que não deve ser (e, é claro, submeter esses próprios princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria de seus usuários, ele deve evitar conteúdo moralmente censurável. Mas os programadores do ChatGPT e de outras maravilhas do aprendizado de máquina têm dificuldade – e continuarão tendo – para atingir esse tipo de equilíbrio. [...]
Resumindo, o ChatGPT e seus irmãos são constitucionalmente incapazes de equilibrar criatividade com restrição. Eles supergeram (ao mesmo tempo produzindo verdades e falsidades, endossando decisões éticas e antiéticas) ou subgeram (demonstrando falta de compromisso com quaisquer decisões e indiferença com as consequências). Dada a amoralidade, a falsa ciência e a incompetência linguística desses sistemas, podemos apenas rir ou chorar de sua popularidade.
CHOMSKY, N.; ROBERTS, I. e WATUMULL, J. A falsa promessa do CHAT GPT. Disponível em: https://www1.folha.uol.com.br/tec/2023/03/a-falsa-promessa-do-chatgpt.shtml. Acesso em 14. ago. 2023. (Adaptado).
Texto II
Inteligência artificial
Em um nível mais profundo, o pensamento é um processo decididamente analógico. Antes de compreender o mundo em conceitos, ele é comovido pelo mundo, afetado mesmo por ele. O afetivo é essencial para o pensamento humano. A primeira imagem mental é o arrepio da pele. A inteligência artificial não pode pensar, porque não se arrepia. Falta-lhe a dimensão afetivo-analógica, a comoção, que não pode ser captada por dados e informações.
O pensamento parte de uma totalidade que se antepõe a conceitos, representações e informações. Ele já se move em um campo de experiência, antes de se voltar especificamente para os objetos e fatos que ocorrem nele. [...]
De acordo com Heidegger, a história da filosofia é uma história da tonalidade afetiva fundamental. [...] O páthos é o começo do pensamento. A inteligência artificial é apática, quer dizer, sem páthos, sem paixão. Ela calcula. [...]
Os big data sugerem um conhecimento absoluto. As coisas revelam suas correlações secretas. Tudo se torna calculável, previsível e controlável. [...] Na realidade, estamos lidando com uma forma bastante primitiva de saber. A mineração de dados expõe correlações. [...] A inteligência mecânica não atinge aquela profundidade escura de um enigma. As informações e os dados não têm profundidade. O pensamento humano é mais do que cálculo e solução de problemas. Ele clareia e ilumina o mundo. Ele produz um mundo completamente outro. Acima de tudo, a inteligência da máquina representa o perigo de que o pensar humano se iguale a ele e se torne a própria máquina.
HAN, Byung-Chul. Inteligência artificial. In: Não coisas: Reviravoltas do mundo da vida. Tradução de Rafael Rodrigues Garcia. Petrópolis, RJ: Vozes, 2022, p. 71-83 (Adaptado).
Leia este trecho:
“A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica.”
Assinale a alternativa em que a reescrita apresenta equivalência semântica com esse trecho.
“A mente humana não é, como o ChatGPT e seus semelhantes, uma pesada máquina estatística para encontrar padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica.”
Assinale a alternativa em que a reescrita apresenta equivalência semântica com esse trecho.