Questões de Concurso
Para pedagogo
Foram encontradas 17.980 questões
Resolva questões gratuitamente!
Junte-se a mais de 4 milhões de concurseiros!
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No terceiro parágrafo, as expressões “No primeiro caso” e “no segundo”, na qual está subentendido o termo caso, remetem, respectivamente, aos motivos para ‘otimismo’ e para ‘preocupação’ (segundo parágrafo).
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
As aspas no trecho ‘supostamente revolucionários’ (segundo parágrafo) denotam a ironia com que a expressão foi empregada no texto.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
A correção e a coerência do texto seriam mantidas caso a forma verbal “compartilhando” (primeiro parágrafo) fosse substituída por a fim de compartilharem.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
No primeiro parágrafo, a correção gramatical do texto seria mantida caso se empregasse ponto no lugar da vírgula logo após “2023”, com a devida alteração da inicial minúscula para maiúscula na palavra “compartilhando”.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, relativo a aspectos linguísticos do texto CB1A1.
O trecho “diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação” (quinto parágrafo) poderia ser reescrito, sem prejuízo dos sentidos e da correção do texto, da seguinte forma: ao contrário de mecanismos de aplicativos que operam com base na coleta de inúmeros dados, como o ChatGPT, a mente humana funciona com pequenas quantidades de informação.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Ao afirmarem que “imensas quantidades de informação (...) não necessariamente são verídicas” (primeiro período do quarto parágrafo), os intelectuais mencionados no texto sugerem que as ferramentas de IA podem se tornar grandes propagadores de fake news em um futuro próximo.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
As diferenças entre os programas de IA e a mente humana mencionadas no quarto parágrafo — ‘esses programas (...) diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem’ — são explicitadas nos parágrafos seguintes do texto.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Segundo os autores do artigo publicado no The New York Times, a possibilidade de “armazenar imensas quantidades de informação” pode ser considerada um aspecto positivo dos programas de IA.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Infere-se da leitura do texto que os linguistas que escreveram o artigo para o jornal americano são contrários ao uso de ferramentas de inteligência artificial.
Texto CB1A1
O renomado linguista e filósofo Noam Chomsky e outros dois especialistas em linguística, Ian Roberts e Jeffrey Watumull, escreveram um artigo para o jornal The New York Times, em março de 2023, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial (IA).
Para os intelectuais, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque as ferramentas de IA podem ser úteis para resolver certas problemáticas, ao passo que, no segundo, “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e do conhecimento”.
Embora os linguistas reconheçam que as IA são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, elas não possuem uma “inteligência” como a das pessoas. “Por mais úteis que esses programas possam ser em alguns campos específicos (como na programação de computadores, por exemplo, ou na sugestão de rimas para versos rápidos), sabemos, pela ciência da língua e pela filosofia do conhecimento, que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, que pode ser codificado com falhas inerradicáveis”.
Nesse sentido, os autores detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
Internet: <ihu.unisinos.br> (com adaptações).
Julgue o item que se segue, a partir das ideias veiculadas no texto CB1A1.
Um aspecto negativo da IA mencionado pelos pesquisadores citados no texto diz respeito aos princípios éticos, uma vez que, segundo eles, as descobertas e criações científicas nem sempre serão adequadamente atribuídas a seus autores.
I. Sempre que um aluno apresentar dificuldades de aprendizagem, a escola deve comunicar ao Conselho Tutelar, para que medidas sejam tomadas para garantir o seu desenvolvimento escolar.
II. Sempre que o educador e/ou diretor de estabelecimento de ensino suspeitar ou presenciar a displicência dos pais ou responsáveis quanto à saúde, à educação, à alimentação e à higiene do menor.
III. Em casos de faltas frequentes e fugas escolares, se, depois de várias tentativas, a instituição de ensino não conseguir sanar o problema.
IV. Caso o menor incorra em repetência de série várias vezes, a instituição de ensino deverá acionar o órgão e comprovar quais foram as medidas usadas para tentar solucionar o problema do menor.
Está correto o que se afirma apenas em
I. O tamanho do grupo, pois grupos maiores são mais eficientes, uma vez que a ideia de equipe é mais heterogênea e os talentos individuais são menos evidenciados.
II. A reflexão em conjunto sobre suas práticas, que permite ao grupo aprender coletivamente e melhorar continuamente seus processos e relacionamentos.
III. A estratégia organizacional de incentivos individuais é importante para a coesão do grupo, desde que eles prevaleçam sobre os incentivos coletivos.
IV. A existência de diversidade de conhecimentos e personalidades, já que a heterogeneidade estimula a inteligência relacional e propicia maturidade de relacionamento às pessoas.
Está correto o que se afirma em
I. A sala de aula pode ser considerada uma tecnologia da mesma forma que o quadro negro, o giz, o livro e outros materiais são ferramentas (tecnologias) pedagógicas que realizam a mediação entre o conhecimento e o aprendente.
II. O processo de ensino e aprendizagem pode ser inovado a partir do uso das tecnologias e, nesse contexto, a educação estaria entrando para uma “gestão menos centralizada, mais flexível e integrada”. Seriam definidos nesse processo, novos papéis para alunos e professores.
III. É preciso definir qual é o papel do professor para que esse modelo de educação também obtenha sucesso, isto porque é necessário que esse profissional tenha uma formação multimídia, criando nesse professor uma nova forma de agir diante do cenário educacional.
IV. As informações estão disponíveis em fontes diversificadas causando uma certa desorganização, por isso o professor deve sustentar suas aulas no uso do livro didático, deixando eventualmente o que se pode encontrar com auxílio das tecnologias como complementação.
Está correto o que se afirma em
I. Necessidade de saber e autoconceito do aluno.
II. Experiência como recurso de aprendizagem e prontidão para aprender.
III. Orientação para aprendizagem e motivação intrínseca.
Está correto o que se afirma em
O professor entra na sala com um sorriso, segurando uma caixa de materiais diversos, incluindo folhas de papel, tablets, instrumentos musicais simples, como tambores e flautas de brinquedo, além de cartões com sinais em Libras. Os alunos olham curiosos, já imaginando que a aula será diferente. O professor, comunicando-se oralmente e em Libras simultaneamente: “Bom dia, pessoal! Hoje vamos fazer uma atividade especial sobre ecossistemas, mas usando diferentes linguagens. Além de falar e escrever, podemos usar gestos, imagens, sons e até sinais de Libras. Vamos dividir a turma em grupos de 4 ou 5. Cada grupo vai escolher uma forma de se expressar: pode ser por meio da música, do teatro, do desenho, da tecnologia ou da Libras, que vou ajudar quem quiser usar. O tema é a interdependência entre os seres vivos nos ecossistemas”. Os alunos começam a se organizar, animados. Um grupo decide usar libras como forma de comunicação, com ajuda do professor. Eles escolhem representar uma cadeia alimentar e, em vez de falarem ou escreverem, vão usar sinais para mostrar como os organismos interagem. Outro grupo opta por uma encenação corporal e começa a ensaiar uma peça sobre predadores e presas. Um terceiro grupo prepara uma apresentação digital com imagens e vídeos sobre o ciclo da água.
Considerando a Base Nacional Comum Curricular (BNCC), podemos afirmar que a estratégia do professor:
Os dados do Índice de Desenvolvimento da Educação Básica (Ideb) não mentem. As escolas estaduais de ensino médio, formadas por alunos de menor nível socioeconômico e com o melhor desempenho no Ideb, são as de horário integral. Não é de hoje, já faz tempo, que o nosso saudoso Leonel Brizola já preconizava a importância do ensino em tempo integral para a educação pública ser, efetivamente, de qualidade. Para quem não lembra, quando governou o Rio, Brizola foi o criador dos Centros Integrados de Educação Pública, os CIEPs, carinhosamente conhecidos como Brizolões. Para se ter uma ideia da importância do ensino integral, antes praticados nos CIEPs de toda a rede pública, os dados mostram que, das 100 escolas com esse perfil e com melhores resultados no Ideb de 2023, 78 são integrais. Isto é: 78% das escolas (as integrais, no caso) está bem acima dos 32,4% no total de escolas estaduais de ensino médio consideradas mais vulneráveis na classificação socioeconômica. Conforme revelou o jornal “Valor Econômico”, o resultado é apontado em levantamento do Instituto “Sonho Grande” com base nos dados do Censo Escolar 2023 divulgado pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep).
(Pedro Porto. Revista Fórum. Em: setembro de 2024.)
Considerando a Lei nº 9.394/1996 e suas alterações posteriores, a integralização do ensino médio prevê que a carga horária mínima anual será