Questões de Concurso Público IF-RN 2024 para Técnico de Laboratório - Área Multimídia

Foram encontradas 10 questões

Q2353829 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
De forma global, o texto tematiza
Alternativas
Q2353830 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
De acordo com o texto,
Alternativas
Q2353831 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
No sexto parágrafo, a partir do segundo período, o principal recurso coesivo de substituição empregado foi
Alternativas
Q2353832 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Sobre as palavras “até” e “inclusive”, empregadas, respectivamente, no primeiro e no segundo parágrafos, é correto afirmar:
Alternativas
Q2353833 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

Sobre as quatro ocorrências da palavra “que”, é correto afirmar:
Alternativas
Q2353834 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

A expressão “as tecnologias” é retomada por
Alternativas
Q2353835 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.


Sobre a regência do verbo “implicar”, é correto afirmar que,
Alternativas
Q2353836 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Considerando-se a progressão textual entre os parágrafos, é correto afirmar: 
Alternativas
Q2353837 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
Sobre os usos das aspas, no texto, é correto afirmar: 
Alternativas
Q2353838 Português
LETRAMENTO ALGORÍTMICO: ENFRENTANDO A SOCIEDADE DA CAIXA PRETA


Mariana Ochs


         Nos últimos anos, avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que podem violar direitos e até desestabilizar a democracia.
       Mas, além dos conteúdos que circulam nas mídias, há, também, a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses comerciais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdo enviesados, ofensivos ou violentos, podendo, inclusive, empurrar determinados indivíduos mais suscetíveis para ambientes  — e ações —  extremistas.
       Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática.
     No entanto, deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de "letramento algorítmico crítico".
       Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de "sociedade da caixa preta”. Segundo o pesquisador australiano Neil Selwin, nesse modelo, decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação.
        Na prática, a educação midiática pode desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamento dos algoritmos que moldam os resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados "dark patterns", que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar exclusões ou vieses refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
       Em suma, educar para as novas dinâmicas sociotécnicas implica reconhecer que as tecnologias não são neutras e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
     Nesse novo ambiente, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, as mídias e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.


Disponível em: <https://www1.folha.uol.com.br/>. Acesso em: 09 nov. 2023. (texto adaptado)
No quinto parágrafo, a voz do pesquisador australiano entrecruza-se com a voz da autora sob forma 
Alternativas
Respostas
1: A
2: C
3: A
4: B
5: D
6: C
7: C
8: A
9: B
10: D