Questões de Concurso
Comentadas para analista em comunicação e processamento de dados
Foram encontradas 167 questões
Resolva questões gratuitamente!
Junte-se a mais de 4 milhões de concurseiros!
Beto, Cadu, Dedé e Fran são irmãos e têm idades que são maiores ou iguais a 30 anos e menores ou iguais a 35 anos. Um irmão que tem uma idade, em anos, representada por um número ímpar fala mentiras, caso contrário fala verdades. Observe o seguinte diálogo que esses irmãos tiveram:
Dedé: Fran é 1 ano mais velho que Cadu.
Beto: Eu tenho 33 anos.
Cadu: Eu sou o mais velho dos irmãos.
Dedé: Cadu é mais velho que Beto.
Fran: Eu e Dedé temos a mesma idade.
Beto: Nenhum de nós tem 34 anos.
Cadu: A soma da minha idade com a idade de Fran é 62 anos.
A soma das idades, em anos, desses quatro irmãos é igual a
Um turista está em uma ilha cujos nativos têm um comportamento peculiar: cada um deles ou fala apenas verdades ou fala apenas mentiras. Para facilitar a vida dos turistas, existe uma lei que obriga os nativos a usarem um crachá com seu próprio nome escrito. O turista se encontrou com um grupo de 4 nativos e fez a seguinte pergunta para eles: Quais de vocês falam a verdade? E obteve as seguintes respostas:
Org: eu ou Com ou Art ou Eti.
Com: somente eu e Art.
Art: eu e Com e Org.
Eti: pelo menos Art.
O turista se despediu, ficou de costas para os quatro nativos e ouviu que um deles gritou: “Eu não sou Org.” Desses nativos, quem mentiu foi
A máxima da teoria ética da responsabilidade apregoa que somos responsáveis por aquilo que fazemos e reza: “Aja para atingir fins universalistas”. Em vez de aplicar ordenamentos previamente estabelecidos, os agentes priorizam as consequências das decisões e ações. Realizam assim uma análise situacional: avaliam os efeitos previsíveis que uma ação produz; planejam obter resultados positivos para si e para os demais agentes que interagem consigo sem ferir os interesses alheios; e, por fim, ampliam o leque das escolhas quando preconizam: “dos males, o menor” ou quando visam “fazer mais bem ao maior número de pessoas.
(Robert Henry Srour. Ética empresarial)
A máxima da teoria ética da responsabilidade apregoa que somos responsáveis por aquilo que fazemos e reza: “Aja para atingir fins universalistas”. Em vez de aplicar ordenamentos previamente estabelecidos, os agentes priorizam as consequências das decisões e ações. Realizam assim uma análise situacional: avaliam os efeitos previsíveis que uma ação produz; planejam obter resultados positivos para si e para os demais agentes que interagem consigo sem ferir os interesses alheios; e, por fim, ampliam o leque das escolhas quando preconizam: “dos males, o menor” ou quando visam “fazer mais bem ao maior número de pessoas.
(Robert Henry Srour. Ética empresarial)
(André Dahmer. Malvados. Disponível em: www.google.com. Acesso em: 24.02.2020)
A afirmação da personagem, no último quadrinho da tira, leva a deduzir que,
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)
Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)