Questões de Concurso Sobre português para pedagogo

Foram encontradas 3.493 questões

Resolva questões gratuitamente!

Junte-se a mais de 4 milhões de concurseiros!

Q2360254 Português

Entenda o que realmente é a Síndrome de Burnout 



      Herbert J. Freudenberger nasceu em 1926, em Frankfurt, Alemanha. Quando os nazistas ascenderam ao poder, em 1933, sua família conseguiu enviá-lo aos Estados Unidos com um passaporte falso. Por um tempo, o garoto teve que se virar sozinho, nas ruas de Nova York, até encontrar abrigo na casa de um primo mais velho. Suas ótimas notas na escola lhe garantiram uma vaga na Faculdade do Brooklyn, onde cursou psicologia.


      Fascinado pelo conceito, e relembrando a época em que ele mesmo dormia na rua, o psicólogo abriu sua própria free clinic em Nova York, com foco em atender dependentes químicos. Freudenberger conciliava o trabalho voluntário com os atendimentos em seu consultório, que lhe tomavam 10 horas por dia. Mesmo assim, fazia a dupla jornada todas as noites, de segunda a sexta.


      Não demorou para ficar claro que essa rotina não era nada saudável. “Os outros voluntários da clínica apresentavam os mesmos problemas. Os próprios funcionários procuravam Freudenberger com quadros de “depressão, apatia e agitação”. Quem era cuidador acabava virando paciente. 


      Nos anos seguintes, Freudenberger se dedicou a estudar o fenômeno. Mas, antes de tudo, precisava de um nome para esse padrão de sintomas. A solução foi emprestar uma gíria que era usada por seus próprios pacientes para descrever a sensação devastadora que o abuso de drogas deixa: “burnout”, do verbo to burn, “queimar”. Em português, significa “esgotamento”. Assim como um fósforo que queimou até o final, os dependentes químicos se sentiam exauridos, sem energia alguma, na ressaca dos narcóticos. Como era mais ou menos assim que os profissionais exaustos se descreviam, o psicólogo importou a gíria de rua para o meio acadêmico. 


      Freudenberger então começou a procurar pelo que chamava de “burnout ocupacional”. E onde olhava, encontrava. Médicos, enfermeiros, policiais, professores, bibliotecários – o burnout parecia absolutamente generalizado. Há 40 anos, o termo ainda era acadêmico. E permaneceu assim por décadas. Falava-se o tempo todo em “estresse”, mas não em algo tão específico quanto o burnout, o esgotamento causado exclusivamente pelo trabalho. 


      O termo cunhado por ele está na ponta da língua de todo mundo. Uma pesquisa da Deloitte descobriu que 77% dos trabalhadores americanos afirmam já ter passado por um quadro de burnout, considerando apenas o emprego atual. No começo do ano, a Organização Mundial da Saúde incluiu oficialmente a Síndrome de Burnout na Classificação Internacional de Doenças (CID--11), chamando atenção global para o tema. 


      Se em 1980 o incêndio parecia “estar se espalhando”, hoje, pelo jeito, já tomou a floresta inteira. Mesmo assim, a pergunta que Freudenberger fez sobre o porquê do fenômeno segue sem respostas claras. 


      A ideia de que trabalhar demais causa esgotamento não tem nada de nova. Muito antes de Freudenberger teorizar o burnout, a medicina já tinha o termo “neurastenia” para descrever quadros de exaustão emocional, muitas vezes ligados a jornadas de trabalho excessivas. Acontece que a neurastenia era um termo guarda-chuva, usado para diagnosticar qualquer quadro de cansaço ou tristeza, independentemente da origem do problema.


      Mas o que sabemos hoje sobre o assunto é em grande parte fruto do trabalho de outra profissional, a psicóloga Christina Maslach, da Universidade da Califórnia. “Burnout é uma síndrome conceituada como resultante do estresse crônico no local de trabalho que não foi gerenciado com sucesso”, define a CID-11. A descrição é curta e grossa, mas só dela já dá para tirar conclusões importantes.



      A primeira: burnout não é uma doença ou condição médica. É diferente, por exemplo, de um quadro de depressão, que pode ser tratado via medicação e terapia. Trata-se de uma “síndrome”, ou seja, de um conjunto de sintomas.


      A segunda: o burnout é um “fenômeno ocupacional”. Significa que o termo só se aplica a cenários ligados ao trabalho. Não existe burnout, ao menos com essa denominação, em outras áreas da vida. Ele está sempre ligado ao ambiente de trabalho. É uma condição ambiental. Para solucioná-la, não basta terapia e medicação.


      A terceira: o burnout nada mais é do que um quadro de estresse, que, sem resolução por um longo período de tempo, tornou--se crônico. Para entender o que é burnout, então, é preciso compreender primeiro o que é estresse. 


      “O estresse é qualquer situação que requer uma adaptação, seja ela positiva ou negativa. Uma promoção no trabalho ou o nascimento de um filho são situações que causam estresse, mas, em geral, são positivas. Uma demissão requer adaptação, e é negativa”, explica Ana Maria Rossi, presidente da International Stress Management Association no Brasil (ISMA-BR). Ou seja: o estresse requer esforço para nos adaptarmos a novas condições do ambiente, sejam elas boas ou ruins. 


      Por isso o burnout não pode ser considerado uma doença. Trata-se de um quadro de estresse permanente. Se o ambiente sempre exige que tenhamos que abrir mão de algo ou gastar energia para resolver algum impasse, ficamos inevitavelmente esgotados. Repita isso diariamente por seis meses, mais ou menos, e você terá um quadro crônico – o burnout

O termo sublinhado no trecho “[...] o psicólogo importou a gíria de rua para o meio acadêmico.” (4º§), exerce a mesma função sintática em: 
Alternativas
Q2356038 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)

Considere o período reproduzido abaixo. 


Regular a IA é urgente, mas sem açodamento.


A palavra “açodamento” mantém relação de

Alternativas
Q2356037 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)

“Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais” [...].



O não uso do acento grave, nas duas ocorrências da palavra “a”, deve-se,

Alternativas
Q2356036 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
“Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais” [...].


Para evitar a repetição redundante da expressão “os robôs”, nesse trecho, utilizou-se o recurso coesivo
Alternativas
Q2356035 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Leia o período abaixo.

“Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera.

Nesse trecho, citado pela autora, em que a cientista da computação Melanie Mitchell justifica a ideia de que somos propensos ao antropomorfismo, a expressão até mesmo, usada pela cientista, assinala que
Alternativas
Q2356034 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Considere o trecho a seguir.

É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico.

Sobre a construção desse trecho, é correto afirmar que a autora recorre a uma estrutura 
Alternativas
Q2356033 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao iniciar o segundo período do quarto parágrafo, a autora sinaliza que fará, em relação ao que foi afirmado no período anterior, uma 
Alternativas
Q2356032 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao se referir à Inteligência Artificial, no primeiro período do quarto parágrafo, a autora expressa um raciocínio 
Alternativas
Q2356031 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
No primeiro parágrafo, há, além da voz da autora,
Alternativas
Q2356030 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Sobre o papel da inteligência artificial nas transformações pelas quais o mundo está passando, o texto, em sua totalidade, apresenta uma visão
Alternativas
Q2356029 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
O texto se desenvolve em torno da
Alternativas
Q2351657 Português
Analise as seguintes frases:

I. A ... das 20 horas do filme Barbie foi muito concorrida.
II. A ... do patrimônio foi concluída em tempo recorde.
III. A ... das roupas masculinas fica no fundo da loja.
IV. A ... da câmara municipal que trata do Plano Diretor acontecerá na próxima semana.
V. Foi determinada a ... das cadeiras ao evento.  

Assinale a alternativa que preenche corretamente as lacunas das frases.
Alternativas
Q2351655 Português
“Embora muitos fatores tenham contribuído para o sucesso político atordoante de Trump, sua ascensão à Presidência é, em boa medida, uma história de guarda ineficaz dos porões. Os guardiões do partido falharam em três momentos cruciais: a “primária invisível”, as primárias propriamente ditas e a eleição geral.” 
(Fonte: Levitski, S. & Ziblatt. Como as democracias morrem. Rio de Janeiro: Zahar, 2018). 

Assinale a alternativa que pode substituir a conjunção embora, de modo a manter a coerência do texto. 
Alternativas
Q2351653 Português
Assinale a frase que atende à norma padrão da língua portuguesa. 
Alternativas
Q2351652 Português
Assinale a frase que está de acordo com a norma padrão da língua portuguesa. 
Alternativas
Q2351649 Português
Cantiga pra não morrer 

Quando você for se embora
Moça branca como a neve
Me leve
Me leve

Se acaso você não possa
Me carregar pela mão
Menina branca de neve
Me leve no coração 

Se no coração não possa
Por acaso me levar
Moça de sonho e de neve
Me leve no seu lembrar 

[...]
(Fonte: https://www.letras.mus.br/ferreira-gullar/1247381/)

A comunicação está associada à linguagem e interação, de forma que representa a transmissão de mensagens entre um emissor e um receptor. Além das funções poética e emotiva, próprias do texto poético, no excerto do poema de Ferreira Gullar, destaca-se ainda a função: 
Alternativas
Q2351648 Português
Cantiga pra não morrer 

Quando você for se embora
Moça branca como a neve
Me leve
Me leve

Se acaso você não possa
Me carregar pela mão
Menina branca de neve
Me leve no coração 

Se no coração não possa
Por acaso me levar
Moça de sonho e de neve
Me leve no seu lembrar 

[...]
(Fonte: https://www.letras.mus.br/ferreira-gullar/1247381/)

Nesse excerto do poema de Ferreira Gullar, as estrofes são introduzidas por conjunções subordinadas adverbiais, indicando circunstâncias. Na segunda e terceira estrofes essa conjunção indica circunstância de:  
Alternativas 
Alternativas
Q2347926 Português

Darwin já via emoções ligadas à neurologia e à fisiologia 








(Luciano Magalhães Melo. https://www1.folha.uol.com.br/colunas/luciano-melo/2023/12/darwin-javia-emocoes-ligadas-a-neurologia-e-a-fisiologia.shtml. 4.dez.2023, com adaptações.)

Existe um defeito genético raro que causa a doença de Urbach-Wieth... (L.44-45)

Assinale a alternativa em que a alteração do segmento sublinhado no excerto acima tenha sido feita de acordo com a norma culta.
Alternativas
Q2347925 Português

Darwin já via emoções ligadas à neurologia e à fisiologia 








(Luciano Magalhães Melo. https://www1.folha.uol.com.br/colunas/luciano-melo/2023/12/darwin-javia-emocoes-ligadas-a-neurologia-e-a-fisiologia.shtml. 4.dez.2023, com adaptações.)

Assinale a alternativa em que a palavra não tenha sofrido composição ao longo de seus processos de formação.
Alternativas
Q2347924 Português

Darwin já via emoções ligadas à neurologia e à fisiologia 








(Luciano Magalhães Melo. https://www1.folha.uol.com.br/colunas/luciano-melo/2023/12/darwin-javia-emocoes-ligadas-a-neurologia-e-a-fisiologia.shtml. 4.dez.2023, com adaptações.)

Para isso haveria uma rota universalmente repetida, que liga esse produto cerebral aos músculos. (L.5-7)

O termo sublinhado no período acima desempenha função sintática de
Alternativas
Respostas
581: C
582: B
583: B
584: A
585: D
586: A
587: D
588: B
589: B
590: D
591: B
592: A
593: A
594: B
595: C
596: B
597: C
598: B
599: D
600: B