Na versão 1.4.6 do Sqoop, é função do argumento

Próximas questões
Com base no mesmo assunto
Q892470 Banco de Dados
Na versão 1.4.6 do Sqoop, é função do argumento
Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

A alternativa correta é a letra D, que afirma que o argumento --meta-connect é utilizado para especificar a string de conexão ao metastore configurado com a ferramenta sqoop-metastore. O Sqoop é uma ferramenta projetada para transferir dados entre o Hadoop (HDFS) e sistemas de gerenciamento de bancos de dados relacionais. Vamos entender melhor o porquê dessa alternativa ser a correta.

No contexto do Sqoop, o metastore é um repositório onde são armazenadas definições de jobs (tarefas) do Sqoop, incluindo detalhes de conexão com bancos de dados e os comandos específicos para importação ou exportação de dados. O uso do argumento --meta-connect permite que o usuário informe a localização desse repositório (metastore) ao executar comandos do Sqoop, possibilitando assim que a ferramenta recupere as configurações salvas para a realização de operações de importação ou exportação de dados de uma maneira mais eficiente e padronizada.

Especificamente, essa argumentação é importante porque permite que os usuários configurem um metastore centralizado que pode ser utilizado por múltiplos usuários e jobs, facilitando o gerenciamento e a reutilização de definições de tarefas comuns. A conexão ao metastore é fundamental para acessar essas informações armazenadas e executar as tarefas de maneira consistente.

As demais opções não são corretas porque descrevem funcionalidades distintas no Sqoop ou interpretam incorretamente o propósito dos argumentos listados:

  • O argumento --warehouse-dir é usado para definir um diretório no HDFS onde os resultados da importação serão armazenados.
  • --staging-table é utilizado para especificar uma tabela temporária utilizada durante a importação de dados para uma tabela relacional.
  • Com --incremental, é possível especificar um modo de importação incremental, mas não para atualizar linhas de dados da tabela de origem no modo append.
  • O argumento --password é utilizado para fornecer a senha para conexão com o banco de dados, mas não da maneira descrita na alternativa E.

Essencialmente, para resolver esta questão corretamente, o conhecimento necessário é compreender o que é o Sqoop, para que serve o metastore e como os argumentos são utilizados para configurar e executar tarefas de transferência de dados entre Hadoop e sistemas de banco de dados relacionais.

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

--warehouse-dir: Ele pode ser usado para fins de desenvolvimento, onde você apenas deseja executar alguns testes em tabelas internas.

--incremental : Especifica a coluna a ser examinada ao determinar quais linhas serão importadas.

--staging-table A tabela na qual os dados serão preparados antes de serem inseridos na tabela de destino.

--meta-connect Especifica a cadeia de conexão do JDBC usada para conectar-se ao metastore

--password Definir senha de autenticação

fui olhar o edital de escrituturario e fiquei assustado!!! os cara tão pegando pesado nesse edital!

escriturário da NASA

Mano que isso bicho... Como o amigo falou a cima escriturário da NASA

Apache Sqoop é uma ferramenta projetada para realizar a importação/exportação de dados entre o ambiente relacional e o Hadoop, sendo uma ferramenta de destaque da Apache.

Características:

  • Realiza conversão de tipos de campos;
  • Padrão de arquivo importado do HDFS: csv;
  • Aceita conexão de diversos bancos, via JDBC;
  • Faz conexões com bancos em paralelo, com execução de comandos SELECT (import) e Insert/Update (export);
  • Possibilidade de especificar os delimitadores e formato de arquivos;
  • Possibilidade de selecionar o intervalo e colunas a serem importadas;
  • Realiza importação de dados e metadados de bancos relacionais direto para Hive;
  • Cria classes java, que permite a interação do usuário com o dado importado;
  • Ao usar o MapReduce nas atividades de import/export, fornece um processamento paralelo e tolerante a falhas;
  • Faz a leitura linha por linha da tabela ao escrever o arquivo no HDFS;
  • O resultado da atividade de import é um arquivo com a cópia dos dados da tabela de origem.

https://www.linkedin.com/pulse/apache-sqoop-sql-hadoop-ferramenta-de-integra%C3%A7%C3%A3o-em-martins-da-silva/?originalSubdomain=pt

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo