Com base em obtenção, limpeza e pré-processamento de dados, ...
Com base em obtenção, limpeza e pré-processamento de dados, julgue o próximo item.
A toquenização (do inglês tokenization) de palavras é uma
atividade inerente aos algoritmos de análise granular de
palavras em documentos.