Na versão 1.4.6 do Sqoop, é função do argumento
Gabarito comentado
Confira o gabarito comentado por um dos nossos professores
A alternativa correta é a letra D, que afirma que o argumento --meta-connect é utilizado para especificar a string de conexão ao metastore configurado com a ferramenta sqoop-metastore. O Sqoop é uma ferramenta projetada para transferir dados entre o Hadoop (HDFS) e sistemas de gerenciamento de bancos de dados relacionais. Vamos entender melhor o porquê dessa alternativa ser a correta.
No contexto do Sqoop, o metastore é um repositório onde são armazenadas definições de jobs (tarefas) do Sqoop, incluindo detalhes de conexão com bancos de dados e os comandos específicos para importação ou exportação de dados. O uso do argumento --meta-connect permite que o usuário informe a localização desse repositório (metastore) ao executar comandos do Sqoop, possibilitando assim que a ferramenta recupere as configurações salvas para a realização de operações de importação ou exportação de dados de uma maneira mais eficiente e padronizada.
Especificamente, essa argumentação é importante porque permite que os usuários configurem um metastore centralizado que pode ser utilizado por múltiplos usuários e jobs, facilitando o gerenciamento e a reutilização de definições de tarefas comuns. A conexão ao metastore é fundamental para acessar essas informações armazenadas e executar as tarefas de maneira consistente.
As demais opções não são corretas porque descrevem funcionalidades distintas no Sqoop ou interpretam incorretamente o propósito dos argumentos listados:
- O argumento --warehouse-dir é usado para definir um diretório no HDFS onde os resultados da importação serão armazenados.
- --staging-table é utilizado para especificar uma tabela temporária utilizada durante a importação de dados para uma tabela relacional.
- Com --incremental, é possível especificar um modo de importação incremental, mas não para atualizar linhas de dados da tabela de origem no modo append.
- O argumento --password é utilizado para fornecer a senha para conexão com o banco de dados, mas não da maneira descrita na alternativa E.
Essencialmente, para resolver esta questão corretamente, o conhecimento necessário é compreender o que é o Sqoop, para que serve o metastore e como os argumentos são utilizados para configurar e executar tarefas de transferência de dados entre Hadoop e sistemas de banco de dados relacionais.
Clique para visualizar este gabarito
Visualize o gabarito desta questão clicando no botão abaixo
Comentários
Veja os comentários dos nossos alunos
--warehouse-dir: Ele pode ser usado para fins de desenvolvimento, onde você apenas deseja executar alguns testes em tabelas internas.
--incremental : Especifica a coluna a ser examinada ao determinar quais linhas serão importadas.
--staging-table A tabela na qual os dados serão preparados antes de serem inseridos na tabela de destino.
--meta-connect Especifica a cadeia de conexão do JDBC usada para conectar-se ao metastore
--password Definir senha de autenticação
fui olhar o edital de escrituturario e fiquei assustado!!! os cara tão pegando pesado nesse edital!
escriturário da NASA
Mano que isso bicho... Como o amigo falou a cima escriturário da NASA
Apache Sqoop é uma ferramenta projetada para realizar a importação/exportação de dados entre o ambiente relacional e o Hadoop, sendo uma ferramenta de destaque da Apache.
Características:
- Realiza conversão de tipos de campos;
- Padrão de arquivo importado do HDFS: csv;
- Aceita conexão de diversos bancos, via JDBC;
- Faz conexões com bancos em paralelo, com execução de comandos SELECT (import) e Insert/Update (export);
- Possibilidade de especificar os delimitadores e formato de arquivos;
- Possibilidade de selecionar o intervalo e colunas a serem importadas;
- Realiza importação de dados e metadados de bancos relacionais direto para Hive;
- Cria classes java, que permite a interação do usuário com o dado importado;
- Ao usar o MapReduce nas atividades de import/export, fornece um processamento paralelo e tolerante a falhas;
- Faz a leitura linha por linha da tabela ao escrever o arquivo no HDFS;
- O resultado da atividade de import é um arquivo com a cópia dos dados da tabela de origem.
https://www.linkedin.com/pulse/apache-sqoop-sql-hadoop-ferramenta-de-integra%C3%A7%C3%A3o-em-martins-da-silva/?originalSubdomain=pt
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo