Com base em obtenção, limpeza e pré-processamento de dados, julgue o próximo item.
A toquenização (do inglês tokenization) de palavras é uma atividade inerente aos algoritmos de análise granular de palavras em documentos.
Provas
Questão presente nas seguintes provas