Questões de Concurso Público IF-RN 2024 para Odontólogo

Foram encontradas 40 questões

Q2356029 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
O texto se desenvolve em torno da
Alternativas
Q2356030 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Sobre o papel da inteligência artificial nas transformações pelas quais o mundo está passando, o texto, em sua totalidade, apresenta uma visão
Alternativas
Q2356031 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
No primeiro parágrafo, há, além da voz da autora,
Alternativas
Q2356032 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao se referir à Inteligência Artificial, no primeiro período do quarto parágrafo, a autora expressa um raciocínio 
Alternativas
Q2356033 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Ao iniciar o segundo período do quarto parágrafo, a autora sinaliza que fará, em relação ao que foi afirmado no período anterior, uma 
Alternativas
Q2356034 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Considere o trecho a seguir.

É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico.

Sobre a construção desse trecho, é correto afirmar que a autora recorre a uma estrutura 
Alternativas
Q2356035 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
Leia o período abaixo.

“Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera.

Nesse trecho, citado pela autora, em que a cientista da computação Melanie Mitchell justifica a ideia de que somos propensos ao antropomorfismo, a expressão até mesmo, usada pela cientista, assinala que
Alternativas
Q2356036 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)
“Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais” [...].


Para evitar a repetição redundante da expressão “os robôs”, nesse trecho, utilizou-se o recurso coesivo
Alternativas
Q2356037 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)

“Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais” [...].



O não uso do acento grave, nas duas ocorrências da palavra “a”, deve-se,

Alternativas
Q2356038 Português
A INTELIGÊNCIA ARTIFICIAL ESTÁ MUDANDO O MUNDO, MAS PRECISAMOS PROTEGÊ-LO


Dora Kaufman 


        No início de 2023, Geoffrey Hinton, considerado o “padrinho da IA” e vencedor do Prêmio Turing (Nobel da tecnologia), declarou à revista Technology review: “De repente, mudei minha opinião sobre se essas coisas (máquinas movidas por inteligência artificial) serão mais inteligentes do que nós. Acho que elas estão muito próximas disso agora e serão muito mais inteligentes do que nós no futuro.” A cientista da computação Melanie Mitchell reconhece, na revista Science, que é uma afirmação extraordinária, mas que exige evidências igualmente extraordinárias. “Nós, humanos, somos propensos ao antropomorfismo, projetando inteligência e compreensão em sistemas que fornecem até mesmo um indício de competência linguística”, pondera. Mitchell refuta cada um dos testes realizados para comprovar a semelhança entre as capacidades cognitivas da IA generativa e as dos seres humanos, concluindo que, a partir das evidências fornecidas, não é possível afirmar que os sistemas de IA em breve igualarão ou excederão a inteligência humana.
             Para o Prêmio Nobel Judea Pearl, autor de The book of why: the new science of cause and effect (Basic Books, 2018), estamos longe de produzir máquinas com inteligência semelhante à humana. A diferença profunda é a ausência de um modelo mental da realidade onde a imaginação acontece. Para ir mais longe, pondera Pearl, precisamos desenvolver um modelo causal, e não apenas modelos de correlação como as técnicas atuais de IA. “Se quisermos que os robôs respondam ‘por quê?’ ou mesmo que entendam o significado, devemos equipá-los com um modelo causal e ensiná-los a responder a perguntas contrafactuais”, argumenta Pearl, lembrando que as intuições humanas são organizadas em torno de relações causais, não estatísticas.
           Abstraindo as controvérsias sobre o futuro da inteligência artificial, o que temos hoje é um sistema estatístico de probabilidade, fundamentalmente modelos baseados na técnica de redes neurais profundas (deep learning), com inúmeras limitações a começar pela variável de incerteza intrínseca aos sistemas estatísticos; soluções como o ChatGPT preveem o próximo token em uma sequência com base em uma lógica de probabilidade. A subjetividade humana permeia toda a cadeia de desenvolvimento da IA. São os humanos que tomam as decisões ao longo do processo, bem como são os humanos que interpretam os resultados e decidem como utilizá-los.
             Ainda que limitada, a IA tem demonstrado um potencial revolucionário em diversas áreas, como saúde, transporte, educação, segurança e na otimização de processos operacionais. No entanto, seu uso também traz desafios e preocupações, como viés algorítmico discriminatório, privacidade, responsabilidade civil e impacto no mercado de trabalho. Regulamentar adequadamente a IA torna-se crucial para garantir sua aplicação ética, segura e responsável, especialmente porque as legislações existentes não abrangem a totalidade dos riscos associados a esses sistemas. Embora a regulamentação da IA seja essencial, trata-se de um desafio complexo; não por acaso ainda não temos, no mundo ocidental, um marco regulatório, o processo mais avançado é o europeu – “AI Act”, em debate público desde abril de 2021, 3.000 emendas em novembro de 2022, segunda versão votada no Parlamento Europeu em 14 de julho de 2023 –, com fortes críticas tanto do mercado quanto da academia.
              Regulamentar a IA não é como regular um produto ou um serviço, não é trivial pré-identificar e isolar nos sistemas os riscos e suas consequências. A eficácia da lei na efetiva proteção da sociedade depende da convergência de diretrizes compartilhadas globalmente, autorregulação e arcabouço regulatório. Regulamentação é um projeto coletivo, que inclui legisladores, partes interessadas, setor privado, academia e sociedade civil. A lacuna de conhecimento sobre IA dos reguladores é uma grande barreira na regulamentação (e posterior fiscalização/enforcement); entender como funcionam as cadeias de suprimento dos sistemas de IA, e como atribuir responsabilidades distintas demanda tempo e capacitação. Entre os especialistas, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões (tipo ISO).
       Reconhecendo o tamanho do desafio, as organizações multilaterais estão convocando os especialistas. A Organização para a Cooperação e Desenvolvimento Econômico, por exemplo, formou o grupo OECD.AI, coordenado pelo britânico Stuart Russell, com o propósito de equipar os governos com o conhecimento e instrumentos necessários para desenvolver políticas voltadas para o futuro da IA. A ONU está capitaneando diversas iniciativas gerais e setoriais, como a reunião promovida pela Unesco com 40 ministros da educação para avaliar as oportunidades, desafios e riscos no curto e longo prazo das tecnologias de IA. Pesquisa global da Unesco, em mais de 450 escolas e universidades, revelou que apenas 10% desenvolveram políticas institucionais e/ou orientações formais sobre o uso de sistemas de IA generativa.
Com base nesse cenário, o órgão está elaborando um conjunto de diretrizes políticas, bem como estruturas de competências de IA para alunos e professores, a ser lançado na “Digital Learning Week”, no segundo semestre de 2023 em sua sede em Paris.
            Os governos nacionais igualmente estão se movimentando. Na Europa e nos EUA, os órgãos executivos estão formando equipes de formuladores de política com os parlamentares, agregando acadêmicos e especialistas de mercado. A administração Biden-Harris anunciou um grupo de trabalho do Instituto Nacional de Padrões e Tecnologias (AI@NIST) com voluntários, especialistas dos setores público e privado.
          No Brasil, o projeto de lei para criação do Marco Regulatório da Inteligência Artificial, Projeto de Lei 2338, em tramitação no Senado, é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: (a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups não terão capacidade de atender às exigências legais); e (b) especificar os direitos do usuário afetado, evitando uma enxurrada de ações judiciais. É imprescindível padronizar os critérios de avaliação para classificar o risco, o teor dos documentos de avaliação e os parâmetros a serem utilizados pela autoridade competente para reclassificar e avaliar o impacto algorítmico. A categorização de risco é inadequada para regulamentar os grandes modelos de linguagem (LLMs) ou modelos de fundação, que têm aplicações versáteis e imprevisíveis e trazem preocupações sobre proteção de dados e direito autoral.
          Para ter algum protagonismo nesse novo ambiente, o Brasil precisa de investimentos em infraestrutura, plataforma de código aberto e banco de dados robusto em português. A hegemonia da língua inglesa não só compromete a eficiência e confiabilidade para usuários não falantes de inglês, mas também tende a gerar hegemonia da cultura americana (monocultura). A questão ambiental, tema fora da pauta dos reguladores de IA, é estratégica na relação do Brasil com o resto do mundo, e o caminho de avanço da IA com sistemas cada vez mais ricos em dados tem uma pegada de carbono significativa em função do consumo de energia dos data centers para rodar sistemas robustos e de emissões associadas à produção de equipamentos e dispositivos. A regulamentação da IA deve incluir obrigações para reduzir o impacto de carbono (otimização dos processos de treinamento e implantação e uso de fontes de energia renováveis). Regular a IA é urgente, mas sem açodamento. O processo é tão importante quanto o resultado final. 


Disponível em https://revistacult.uol.com.br/. Acesso em: 17 out. 2023. (texto adaptado)

Considere o período reproduzido abaixo. 


Regular a IA é urgente, mas sem açodamento.


A palavra “açodamento” mantém relação de

Alternativas
Q2356039 Direito Administrativo
O Estatuto dos Servidores Públicos Federais (Lei n.º 8.112/1990) dispõe a respeito do Regime Jurídico dos Servidores Públicos Civis da União, das Autarquias e das Fundações Públicas Federais. Entre outras matérias, o Estatuto versa sobre o Plano de Seguridade Social do servidor federal, compreendendo uma série de benefícios para o servidor e sua família. Consoante às regras previstas na lei em destaque, à família do servidor ativo que for afastado por motivo de prisão, em flagrante ou preventiva, determinada pela autoridade competente, é devido, enquanto perdurar a prisão, auxílio-reclusão no valor de: 
Alternativas
Q2356040 Direito Administrativo
Ainda nos termos do Estatuto dos Servidores Públicos Federais (Lei n.º 8.112/1990), considera-se noturno, para fins de percepção do Adicional Noturno, o serviço prestado pelo servidor em horário compreendido entre
Alternativas
Q2356041 Pedagogia
A Lei n.º 9.394, de 20 de dezembro de 1996, estabelece as Diretrizes e Bases da Educação Nacional, trazendo preceitos que reforçam o dever da família e do Estado na concretização desse direito social. Conforme as disposições contidas na lei em destaque, constitui dever dos pais ou responsáveis efetuar a matrícula das crianças na educação básica a partir dos: 
Alternativas
Q2356042 Direito Digital
Nos termos da Lei n.º 13.709, de 14 de agosto de 2018, também denominada Lei Geral de Proteção de Dados (LGPD), as atividades de tratamento de dados pessoais deverão observar, entre outros princípios, o da transparência, definido como uma garantia, aos titulares, de
Alternativas
Q2356043 Pedagogia
Os sistemas de ensino dos Estados e do Distrito Federal, segundo a Lei de Diretrizes e Bases da Educação (Lei n.º 9.394/1996), compreendem as instituições de:
Alternativas
Q2356044 Legislação Federal
Os Institutos Federais de Educação, Ciência e Tecnologia, criados pela Lei n.º 11.892/2008, têm como órgão executivo a reitoria, composta por 1 Reitor e 5 Pró-Reitores. De acordo com as disposições do citado diploma legal, os Reitores serão nomeados pelo Presidente da República, para mandato de
Alternativas
Q2356045 Legislação Federal
As normas de conduta dos servidores públicos civis da União, das Autarquias e das Fundações Públicas estão previstas na Lei n.º 8.027, de 12 de abril de 1990. Nos termos da normativa em destaque, constitui falta administrativa, punível com a pena de demissão, a bem do serviço público,
Alternativas
Q2356046 Direito Administrativo
A Lei Federal n.º 9.784, de 29 de janeiro de 1999, é o diploma que regula o processo administrativo no âmbito da Administração Pública Federal. Consoante às disposições da referida lei, ressalvados os casos de comprovada má-fé, o direito da Administração Pública de anular os atos administrativos de que decorram efeitos favoráveis para os destinatários decai em
Alternativas
Q2356047 Pedagogia
Nos termos da Lei de Diretrizes e Bases da Educação (Lei n.º 9.394/1996), considerar-se-ão como de manutenção e desenvolvimento do ensino as despesas realizadas com vistas à consecução dos objetivos básicos das instituições educacionais de todos os níveis, compreendendo as que se destinam a (à) 
Alternativas
Q2356048 Direito Administrativo
De acordo com o disposto no art. 10 da Lei de Improbidade Administrativa (Lei n.º 8.429/1992), constitui ato de improbidade administrativa que causa lesão ao erário qualquer ação ou omissão dolosa, que enseje, efetiva e comprovadamente, perda patrimonial, desvio, apropriação, malbaratamento ou dilapidação dos bens ou haveres das entidades referidas no art. 1º dessa Lei e, notadamente, a ação de
Alternativas
Respostas
1: B
2: D
3: B
4: B
5: D
6: A
7: D
8: A
9: B
10: B
11: C
12: C
13: B
14: B
15: B
16: D
17: C
18: B
19: B
20: B