Qual afirmação a seguir é uma análise CORRETAda textualidade...
Com base no Texto a seguir, publicado no Jornal da USP, em 07/03/2023, responda à questão.
Na educação, o
ChatGPT não estimula o pensamento crítico
Rogério de Almeida diz
que a ferramenta é capaz de organizar os dados de forma coerente, mas é incapaz
de um pensamento
crítico
[...]
O professor brinca e pergunta para o chatbot
como ele vê a questão da principal preocupação dos acadêmicos com o chat. O
próprio ChatGPT pontua cinco questões: a primeira seria a existência de um
viés, mediado pelos algoritmos, que pode reproduzir preconceitos; a segunda,
ética, do ponto de vista de como o chat seria utilizado; a terceira, sobre a
privacidade, já que ele funciona com o uso de diversos dados; a quarta, seria a
do controle, pois ele é imprevisível e se deve prezar pelo bem-estar das
pessoas; quinto, a transparência de como essa ferramenta funciona.
Porém, o
especialista não segue a linha de raciocínio dessa inteligência artificial: “Eu
vou por outro caminho. O que eu acho que ele nos coloca é uma questão muito
interessante daquilo que nós consideramos humano. Porque, de certa forma, a
inteligência artificial aprende conosco, ela é treinada com os textos que nós
produzimos. Isso nos coloca em xeque em relação à criatividade e ao pensamento
crítico”.
[...]
“Quando a
gente pede uma redação, um trabalho escrito, o que o professor espera do aluno:
que ele reflita, pense e crie ou meramente se adapte a um certo modelo?”,
questiona Almeida. Na área pedagógica, a construção e o investimento no
pensamento crítico, que, diferentemente das máquinas, são característicos do
ser humano, devem ser priorizados.
O professor
ainda acrescenta que o banco de dados dos chatbots é baseado nos
conteúdos on-line, ou seja, é constantemente alimentado por criações humanas.
Assim, a criticidade também é importante para evitar a disseminação de
informações errôneas, que podem influenciar, além de tudo, na educação: “Aquilo
que a gente criar de novo vai reabilitá-la, de modo que ela vai devolver isso
para nós. A tendência é que esses robôs que estimulam a linguagem humana fiquem
cada vez mais aperfeiçoados. Mas, se nós, humanos, produzimos notícias falsas
intencionalmente, a gente não tem como saber o que o chat vai fazer. Ele não
tem uma vontade própria e ele aprende com essas informações”, diz o professor.
(Adaptado).