Apache Hadoop é o principal framework utilizado no
processamento e armazenamento de grandes conjuntos de
dados (Big Data). No ecossistema Apache Hadoop, além
dos componentes básicos, diversas ferramentas e serviços
suprem necessidades de negócios, aplicações e
arquitetura de dados. O sistema de agendamento de
WorkFlow para gerenciar os jobs de computação
distribuída do MapReduce é o: