In segmented languages such as English, since words are seemingly separated by white spaces or punctuation marks, tokenization is regarded as a relatively easy task and little attention has been paid to.
Trong phân đoạnngôn ngữ như tiếng Anh, vì từdường như tách ra bởi trắng dấu cách hoặc dấu chấm câubiểu tượng, tokenization được coi là tương đối dễ dàngnhiệm vụ và ít sự chú ý đã được trả tiền cho.
Trong phân đoạn ngôn ngữ như tiếng Anh, từ từ được dường như tách ra bằng khoảng trắng hoặc dấu chấm dấu, tokenization được coi là tương đối dễ dàng công việc và ít được chú ý đến.