Questões de Concurso Público EMPREL 2023 para Analista de Sistemas

Foram encontradas 10 questões

Q2237580 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No primeiro parágrafo do texto CG2A1-I, o fato de as pessoas confiarem acriticamente em sistemas que usam IA e o fato de elas atribuírem a responsabilidade aos artefatos tecnológicos em vez de a seus construtores são apresentados como
Alternativas
Q2237581 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção correta no que se refere à estrutura argumentativa do texto CG2A1-I. 
Alternativas
Q2237582 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Com base nos sentidos do texto CG2A1-I, julgue os itens a seguir.
I Entende-se do texto que a ilusão que antropomorfiza a IA e transforma a corrida rumo a seu desenvolvimento em um destino inescapável beneficia as corporações que lucram com a IA.
II No segundo parágrafo, a afirmação de que a garantia de segurança no uso da tecnologia digital deveria recair sobre as empresas é uma proposta que responde à demanda por transparência.
III No terceiro parágrafo, identifica-se uma contraposição entre os interesses das corporações e os das pessoas comuns.

Assinale a opção correta. 
Alternativas
Q2237583 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que se resumem corretamente as relações estabelecidas, no segundo parágrafo do texto CG2A1-I, entre regulamentação, transparência e responsabilização na construção, implementação e segurança de uso da IA.
Alternativas
Q2237584 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que o vocábulo indicado expressa, no texto CG2A1-I, uma ação ainda não realizada.
Alternativas
Q2237585 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No texto CG2A1-I, as formas pronominais “os”, em “os antropomorfiza” (segundo período do primeiro parágrafo), e “las”, em “construí-las” (final do terceiro parágrafo) referem-se, respectivamente, a
Alternativas
Q2237586 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que a proposta de reescrita do trecho “mas também a lhes atribuírem” (terceiro período do primeiro parágrafo) é gramaticalmente correta e coerente com as ideias do texto CG2A1-I.
Alternativas
Q2237587 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
Assinale a opção em que a proposta de substituição para o trecho “o que significa que” (último período do segundo parágrafo) preservaria tanto os sentidos do texto CG2A1-I quanto a sua correção gramatical.
Alternativas
Q2237588 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No texto CG2A1-I, o vocábulo “senciente” (segundo período do primeiro parágrafo) significa
Alternativas
Q2237589 Português
Texto CG2A1-I


        É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

       O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

        A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No que se refere à concordância nominal e verbal, estaria mantida a correção gramatical do texto CG2A1-I caso se substituísse
I “ser” (segundo período do terceiro parágrafo) por serem.
II “impulsionadas” (primeiro período do terceiro parágrafo) por impulsionada.
III “deveriam” (penúltimo período do terceiro parágrafo) por deveria.

Assinale a opção correta.
Alternativas
Respostas
1: B
2: B
3: C
4: C
5: E
6: A
7: C
8: A
9: E
10: D