Questões de Concurso
Sobre uso da vírgula em português
Foram encontradas 6.487 questões
I. Em “No Brasil, a reforma se manifesta principalmente através da Lei nº 10.216”, a vírgula está isolando um adjunto adverbial.
II. Em “através da Lei nº 10.216, do ano de 2001, que sanciona os direitos das pessoas com transtornos mentais”, a vírgula separa elementos da mesma função sintática em uma enumeração.
III. Em “através da Lei nº 10.216, do ano de 2001, que sanciona os direitos das pessoas com transtornos mentais”, a vírgula isola o adjunto adverbial deslocado.
Está correto o que se afirma apenas em
“Quando a gente pede uma redação, um trabalho escrito, o que o professor espera do aluno: que ele reflita, pense e crie ou meramente se adapte a um certo modelo?“
Assinale a alternativa que traz a explicação sobre o emprego das vírgulas na ordem CORRETA:
Assinale a alternativa que reescreve CORRETAMENTE o trecho acima, respeitando a norma culta da língua portuguesa.
Último capítulo
(Disponível em: gauchazh.clicrbs.com.br/colunistas/cristina-bonorino/noticia/2023/08/ultimo-capitulo-cllqez6mz0005015k1hdk8tzc.html – texto adaptado especialmente para esta prova).
● “Nos últimos dias, finalmente, o DNA do cromossomo Y foi totalmente sequenciado”.
● “Desde a metade dos anos 1970, sequenciamos DNA”.
Nos dois fragmentos analisados, empregou-se a vírgula para separar:
O Estado de S. Paulo, Editorial, 1.º/10/2008.
Com base no texto acima, julgue o item a seguir.
Na linha 8, logo após a palavra “assunto”, a vírgula foi
empregada para isolar o vocativo subseqüente.
O Estado de S. Paulo, Editorial, 1.º/10/2008.
Com base no texto acima, julgue o item a seguir.
O emprego de vírgula após a palavra “China” (l.3) indica a
omissão da forma verbal, que é igual à empregada na
oração anterior.
A utilização da inteligência artificial nos contratos de
consumo: há muito o que discutir!
Assim, a inteligência artificial é um termo amplo que abrange tecnologias desenvolvidas para que as máquinas (ou algoritmos) possam, partindo de dados obtidos, construir raciocínios mais assertivos e rápidos, levando a predições que subsidiam a tomada de decisão. Em algumas situações, observa- -se que o nível de sofisticação da tecnologia permite inclusive que a máquina “analise” uma situação e conduza a uma “solução”, mais célere e assertiva, a partir do cruzamento de dados.
A evolução tecnológica disponibiliza dispositivos dotados de sistematização de informações que se assemelham a atividades humanas como “pensar”, “interpretar”, “raciocinar”. Com as informações recebidas, os sistemas que integram a IA podem, fazendo um caminho semelhante ao utilizado pelo cérebro humano, através de uma rede neural formada por “neurônios artificiais”, escrever um texto científico, redigir um contrato, influenciar pessoas para realizarem compras de um determinado produto ou contratarem um serviço.
Em paralelo, discute-se sobre a proteção de dados pessoais e como é necessária a regulamentação quanto ao uso da IA. A tecnologia vem sendo utilizada, por exemplo, para avaliar, a partir de dados coletados em diversas bases, a vida financeira de um indivíduo. A partir dessa avaliação, decide-se se determinado indivíduo deve receber um empréstimo de instituição financeira ou não, inclusive com taxas de juros personalizadas. Ou seja, a avaliação de risco de inadimplência deixa de ser de um ser humano, no caso, o gerente da instituição, e passa a ser de um sistema.
As transformações trazidas pela IA exigem que seja realizada uma análise apurada por parte do direito contratual, do
direito consumerista e da responsabilidade civil. As suas consequências ainda estão sendo observadas e não podem ser
previstas com precisão, apesar de haver normas jurídicas que
podem ser utilizadas na proteção do consumidor vulnerável.
A modernização traz consigo o risco da ocorrência de danos pouco conhecidos ou totalmente desconhecidos. De acordo com Miragem (2019, p. 15), “é comum às atividades associadas à tecnologia da informação e sua multifacetada e crescente utilização para uma série de finalidades, a identificação de novos riscos”.
O direito civil constitucional possui uma substancial base principiológica, utilizando-se dos valores e princípios constitucionais, como os da liberdade, igualdade, boa-fé, informação, precaução, reparação integral dos danos, entre outros, para orientar as relações no âmbito privado. A importância da constitucionalização do direito civil dá-se pela implementação da denominada sociedade de risco.
O contrato eletrônico de consumo é um tipo de contrato elaborado e executado por um sistema de software. A inteligência artificial faz uso de técnicas de reconhecimento de padrões e correlações significativas para alavancar o comércio. Afirma Lee (2019, p. 251) que “quando a força criativa e destruidora da IA está sendo sentida ao mesmo tempo no mundo todo, precisamos olhar uns para os outros em busca de apoio e inspiração”. Ou seja, todos precisam aprender como lidar com essa nova realidade e as suas consequências, o que inclui a existência de danos.
No direito consumerista há princípios que garantem a proteção do consumidor e, eventualmente, de terceiros que não estejam diretamente envolvidos na relação contratual contra os riscos que porventura possam existir. As relações negociais podem e devem se valer dos princípios e regras contidos no Código Civil quando assim for necessário.
Portanto, os princípios comuns a ambos os regimes, em razão da vocação normativa que cada um ostenta, sofrem a calibração das exigências valorativas, cujo resultado é a variação de intensidade de sua aplicação e nas regras que criam à hipótese fática.
O consumidor, parte vulnerável da relação, não tem a exata compreensão dos riscos advindos desta era digital, que transformou a forma como os contratos são realizados. Esta modificação acarreta a necessidade de uma interpretação das normas jurídicas já existentes, como o Código de Defesa do Consumidor, adequando a realidade transacional tecnológica.
Da amplitude e da efetividade das garantias asseguradas pelo CDC aos vulneráveis, a possibilidade de que a sociedade da informação se desenvolva para com os entes inteligentes artificialmente é uma tarefa a ser pautada e evidenciada pelos juristas. Nesse momento, deve-se recorrer ao exame das principais atribuições que envolvem os ganhos e riscos para a utilização dessas tecnologias. Deve-se refletir, conscientemente, sobre os interesses e verificar em quais casos poderá o CDC atuar para a defesa dos direitos lesados.
Várias relações contratuais são realizadas entre o homem e a máquina. Mas será que o consumidor possui conhecimento de que está negociando com uma inteligência artificial programada para dar lucro, baseada em dados antes extraídos? Não se pode partir do pressuposto de que todo e qualquer consumidor sabe que há a utilização de uma tecnologia programada a favor do fornecedor. Um dos deveres previstos no CDC é o da informação clara e precisa.
As instituições bancárias, por exemplo, estão substituindo as agências físicas por aplicativos e por “chatsbots”, ou seja, por um programa que leva as pessoas a terem a sensação de que estão interagindo com outra pessoa e não com uma ferramenta tecnológica. Os chatbots tentam simular a conversação como se esta estivesse acontecendo como outro ser humano e não com uma máquina.
A depender, por exemplo, do grau de escolaridade ou do grau de compreensão do consumidor, poderá haver inexatidão nas informações fornecidas por este à máquina; e, até mesmo, a incompreensão dos termos utilizados pela inteligência artificial, o que pode acarretar imprecisões na tomada de decisão. Divino (2021) considera ser a dificuldade na compreensão semântica de termos uma das causas de possíveis danos decorrentes de um pedido incorreto ou de um aconselhamento desfavorável ao consumidor.
A inteligência artificial utiliza-se das informações e do cruzamento destas para influenciar e induzir o consumidor. Assim, é dever do fornecedor, que utiliza a inteligência artificial e a obtenção e cruzamento de dados, arcar com os riscos da sua atividade, sendo este um risco inerente. Desta forma, a responsabilidade pelos danos conhecidos ou que ainda virão a ser observados é objetiva.
Princípios como o da boa-fé, o da precaução e da prevenção devem ser entendidos como pilares da responsabilização objetiva do fornecedor pelo uso da inteligência artificial nas relações de consumo. Nem sempre o Direito, como ciência e como agente regulador das relações, conseguirá prever ou evitar os danos causados pela modernização e transformação da sociedade.
A modernização da sociedade por meio da tecnologia traz embutido o risco. De acordo com Rosenvald (2017, p. 22), “o risco é uma característica definidora de nossa era. Tudo se processa ‘reflexivamente’ em uma civilização que ameaça a si própria”. As ações do homem, no campo da inteligência artificial, trazem consequências imprevisíveis. As escolhas realizadas podem gerar danos não almejados. E quem responderá por estes? No caso da relação consumerista, o fornecedor, logicamente.
A IA é empregada para gerar ganhos de produtividade, o que necessariamente leva a ganhos financeiros para os fornecedores. No entanto, os benefícios financeiros, como por meio do aumento na contratação de um determinado serviço, pela utilização de algoritmos ou outros sistemas, deve observar as regras contratuais como a do dever de informação, a da boa-fé objetiva e da segurança.
Há limites jurídicos que devem ser observados quando da
contratação por meio da inteligência artificial, sendo estes os
mesmos aplicados para os contratos que não as utilizam, devendo haver um cuidado maior na observação das regras de
direito contratual e consumerista quando se está diante da
tecnologia. O fornecedor, pessoa natural ou jurídica, responde
em face do consumidor pelo dano que lhe for causado.
O que se pretende entender é se o uso desses algoritmos ou dispositivos são efetivamente benéficos para o consumidor. Ou, se são projetados para que o fornecedor sempre obtenha vantagem, causando danos. São muitas as indagações para as quais ainda não se tem a resposta de forma consolidada. E o Poder Judiciário brasileiro precisa se preparar para as demandas e questionamentos que virão, bem como para o reconhecimento de outros danos que podem surgir além dos já reconhecidos.
O Poder Judiciário deve ficar atento para não indeferir demandas que venham a trazer indagações sobre uma decisão tomada pelo consumidor quando da aplicação de sistemas automatizados, baseando-se na autonomia da vontade, favorecendo, assim, o fornecedor causador do dano. A vulnerabilidade do consumidor fica mais evidente quando se está diante de contratações por meio de inteligência artificial.
A legislação brasileira já possui regras de proteção ao consumidor que podem ser aplicadas em casos de danos causados pela utilização da inteligência artificial. Ao direito cabe a regulamentação e o equilíbrio das relações sociais através da adequação às mudanças advindas da modernização, em especial quando se tem a contratação por meio da utilização de inteligência artificial. Se o Poder Judiciário se abster de aplicar os princípios e regras jurídicas já existentes que protegem o consumidor, estará contribuindo para o aumento dos danos, inclusive, através da violação de direitos da personalidade do consumidor, além dos danos materiais efetivos. A segurança jurídica precisa ser garantida!
(Disponível em: https://www.migalhas.com.br/coluna/migalhas-contratuais/391128/a-utilizacao-da-inteligencia-artificial-nos-contratos-de-consumo. Acesso em: 10/08/2023.)
Assinale a opção CORRETA quanto à nova pontuação sem alteração de sentido da frase original.
Com base no Texto a seguir, publicado no Jornal da USP, em 07/03/2023, responda à questão.
Na educação, o ChatGPT não estimula o pensamento crítico
Rogério de Almeida diz
que a ferramenta é capaz de organizar os dados de forma coerente, mas é incapaz
de um pensamento
crítico
[...]
O professor brinca e pergunta para o chatbot
como ele vê a questão da principal preocupação dos acadêmicos com o chat. O
próprio ChatGPT pontua cinco questões: a primeira seria a existência de um
viés, mediado pelos algoritmos, que pode reproduzir preconceitos; a segunda,
ética, do ponto de vista de como o chat seria utilizado; a terceira, sobre a
privacidade, já que ele funciona com o uso de diversos dados; a quarta, seria a
do controle, pois ele é imprevisível e se deve prezar pelo bem-estar das
pessoas; quinto, a transparência de como essa ferramenta funciona.
Porém, o
especialista não segue a linha de raciocínio dessa inteligência artificial: “Eu
vou por outro caminho. O que eu acho que ele nos coloca é uma questão muito
interessante daquilo que nós consideramos humano. Porque, de certa forma, a
inteligência artificial aprende conosco, ela é treinada com os textos que nós
produzimos. Isso nos coloca em xeque em relação à criatividade e ao pensamento
crítico”.
[...]
“Quando a
gente pede uma redação, um trabalho escrito, o que o professor espera do aluno:
que ele reflita, pense e crie ou meramente se adapte a um certo modelo?”,
questiona Almeida. Na área pedagógica, a construção e o investimento no
pensamento crítico, que, diferentemente das máquinas, são característicos do
ser humano, devem ser priorizados.
O professor
ainda acrescenta que o banco de dados dos chatbots é baseado nos
conteúdos on-line, ou seja, é constantemente alimentado por criações humanas.
Assim, a criticidade também é importante para evitar a disseminação de
informações errôneas, que podem influenciar, além de tudo, na educação: “Aquilo
que a gente criar de novo vai reabilitá-la, de modo que ela vai devolver isso
para nós. A tendência é que esses robôs que estimulam a linguagem humana fiquem
cada vez mais aperfeiçoados. Mas, se nós, humanos, produzimos notícias falsas
intencionalmente, a gente não tem como saber o que o chat vai fazer. Ele não
tem uma vontade própria e ele aprende com essas informações”, diz o professor.
(Adaptado).
“Quando a gente pede uma redação, um trabalho escrito, o que o professor espera do aluno: que ele reflita, pense e crie ou meramente se adapte a um certo modelo?”
Assinale a alternativa que traz a explicação sobre o emprego das vírgulas na ordem CORRETA:
TEXTO I
“Deus está
triste”: bebês gerados por IA viram febre e piada nas redes sociais
Simulações são
feitas pelo aplicativo Remini; “Deus está triste com tanto bebê de IA” e (sic.)
“cafona demais”, criticam perfis
(Nayani Real)
SÃO PAULO (SP) Nesta semana, imagens de
crianças geradas por Inteligência Artificial dominaram as redes sociais de
famosos e anônimos. Personalidades como Gil do Vigor, Pequena Lô, Viih Tube e
Virgínia compartilharam versões de crianças similares a elas, geradas pelo
aplicativo Remini. Com características similares às suas, os bebês aparecem em
seus colos, em imagens que simulam retratos de família.
"Deus está triste com tanto
bebê de IA", diz um meme sobre a onda de publicações. Outros comparam
imagens geradas à personagem Renesmée, filha dos protagonistas Edward Cullen e
Bella Swan no filme "Amanhecer - parte 2", da saga Crepúsculo.
Lançado em 2012, o longa foi alvo de críticas pela baixa qualidade dos efeitos
especiais. Perfis também apontam falhas na geração de imagens, como a
multiplicação de braços dos bebês. Alguns dizem que a tendência é
"cafona".
Além das críticas à qualidade das imagens
geradas, o compartilhamento de dados também voltou ao debate no Twitter. Perfis
alertam para perigos da cessão de dados ao aplicativo de IA, enquanto outros
dizem não aguentar mais esse discurso.
Na plataforma, um perfil cita o
caso da utilização da imagem gerada por IA da cantora Elis Regina, morta em
1982, pela Volkswagen.
No último dia 4 de julho, uma
campanha comemorativa de 70 anos da marca no Brasil reuniu Elis e sua filha, a
cantora Maria Rita, e dividiu opiniões nas redes.
Entre publicações descontraídas e
sérias, alguns perfis se mostram avessos à moda. "Nem filho virtual eu
quero", diz um usuário. Outro compartilha imagem gerada por Inteligência
Artificial que, ao invés de uma criança, mostra um gato.
Disponível em:
<https://www1.folha.uol.com.br/blogs/hashtag/2023/07/deus-esta-triste-bebes-gerados-por-ia-viram-febre-e-piada-nas-redes-sociais.shtml>.
Acesso em: 13 jul. 2023.
Com base no Texto a seguir, publicado no Jornal da USP, em 07/03/2023, responda à questão.
Na educação, o
ChatGPT não estimula o pensamento crítico
Rogério de Almeida diz
que a ferramenta é capaz de organizar os dados de forma coerente, mas é incapaz
de um pensamento
crítico
[...]
O professor brinca e pergunta para o chatbot
como ele vê a questão da principal preocupação dos acadêmicos com o chat. O
próprio ChatGPT pontua cinco questões: a primeira seria a existência de um
viés, mediado pelos algoritmos, que pode reproduzir preconceitos; a segunda,
ética, do ponto de vista de como o chat seria utilizado; a terceira, sobre a
privacidade, já que ele funciona com o uso de diversos dados; a quarta, seria a
do controle, pois ele é imprevisível e se deve prezar pelo bem-estar das
pessoas; quinto, a transparência de como essa ferramenta funciona.
Porém, o
especialista não segue a linha de raciocínio dessa inteligência artificial: “Eu
vou por outro caminho. O que eu acho que ele nos coloca é uma questão muito
interessante daquilo que nós consideramos humano. Porque, de certa forma, a
inteligência artificial aprende conosco, ela é treinada com os textos que nós
produzimos. Isso nos coloca em xeque em relação à criatividade e ao pensamento
crítico”.
[...]
“Quando a
gente pede uma redação, um trabalho escrito, o que o professor espera do aluno:
que ele reflita, pense e crie ou meramente se adapte a um certo modelo?”,
questiona Almeida. Na área pedagógica, a construção e o investimento no
pensamento crítico, que, diferentemente das máquinas, são característicos do
ser humano, devem ser priorizados.
O professor
ainda acrescenta que o banco de dados dos chatbots é baseado nos
conteúdos on-line, ou seja, é constantemente alimentado por criações humanas.
Assim, a criticidade também é importante para evitar a disseminação de
informações errôneas, que podem influenciar, além de tudo, na educação: “Aquilo
que a gente criar de novo vai reabilitá-la, de modo que ela vai devolver isso
para nós. A tendência é que esses robôs que estimulam a linguagem humana fiquem
cada vez mais aperfeiçoados. Mas, se nós, humanos, produzimos notícias falsas
intencionalmente, a gente não tem como saber o que o chat vai fazer. Ele não
tem uma vontade própria e ele aprende com essas informações”, diz o professor.
(Adaptado).
“Quando a gente pede uma redação, um trabalho escrito, o que o professor espera do aluno: que ele reflita, pense e crie ou meramente se adapte a um certo modelo?”
Assinale a alternativa que traz a explicação sobre o emprego das vírgulas na ordem CORRETA:
Assinale a opção CORRETA quanto à nova pontuação sem alteração de sentido da frase original.
A vírgula empregada após “No exercício legal da profissão” (linha 9) é facultativa.