Vì vậy, chúng tôi xác định các thông tin Ik chứa trong một biểu tượng nguồn có xác suất xảy ra Vn như h = - log2 (P *) = (3'4'6) nơi đơn vị là bit. Các thông tin trung bình của một nguồn, được gọi là nguồn dữ liệu ngẫu nhiên, thu được bằng cách lấy trung bình các thông tin trong tất cả các biểu tượng có thể. Đối với các ký hiệu L entropy này, ký hiệu là H, ist L 1 L = H - X Pklog2 (Vn) = - rrr- 2 PMPJ (bit / symbol). (3,4-7) * -i 1.1 Ví dụ 3,4-2 Một sản lượng lượng tử có bốn cấp độ xảy ra với xác suất 0.1, 0.3, 0.4, và 0.2. Chúng tôi tìm thấy nguồn entropy là H = - [0,1 log2 (0,1) + 0,3 log2 (0.3) + 0.41og2 (0,4) + 0,2 log2 (0.2)] . = 1,8464 bit / symbol Nếu các biểu tượng lượng tử có xác suất bằng nhau, entropy sẽ là H = -4 (i) log2 (i) = 2,0 bit / symbol. Ví dụ 3,4-2 cho thấy nguồn với các ký hiệu đầu ra bằng xác suất có entropy lớn nhất. Đây sẽ là đúng nói chung [24]. Nguồn entropy của (3,4-7) cũng có thể được áp dụng cho một chuỗi các ký hiệu được phát ra theo thời gian. Nếu nguồn là văn phòng phẩm! tuần tự và biểu tượng của nó được độc lập thống kê, thông tin trung bình trong một chuỗi dài của những biểu tượng là một lần nữa được đưa ra bởi (3,4-7). Một nguồn như vậy được gọi là một nguồn zero-bộ nhớ. Optimum Binary Nguồn Encoding Entropy của một nguồn, cho bởi (3,4-7), là số trung bình nhỏ nhất của các chữ số nhị phân có thể được sử dụng cho mỗi biểu tượng để mã hóa các nguồn. Bộ mã hóa thực tế thường đòi hỏi một số lượng trung bình lớn hơn chữ số cho mỗi biểu tượng, mà chúng biểu thị bởi N. Chúng tôi xác định mã hiệu quả bằng cách r? codc = -§- • (3-4-8) Các mã nhị phân thảo luận trước đó tất cả được sử dụng một số cố định của bit (TV *) cho mỗi biểu tượng nguồn; cho các mã số N = Nb và r) mã = s 1, với sự bình đẳng giữ chỉ khi mức nguồn là như nhau có thể xảy ra và số lượng của các cấp nguồn là một sức mạnh của 2 (L = Lb = 2Nb). Hiệu quả của nguồn cung của Ví dụ 3,4-2 là 1,8464 / 2,0 = 0,9232, hay 92,32%, ví dụ. Nếu chúng ta từ bỏ yêu cầu rằng từ mã có chiều dài cố định, nó có thể có được mã tối ưu hơn làm tăng hiệu quả mã. Huffman [25] đã đưa ra một quy trình mã hóa đó là tối ưu trong ý nghĩa rằng nó mang lại cho số lượng trung bình nhỏ nhất có thể của các chữ số nhị phân t Dạng thứ hai của (3,4-7) là thuận tiện hơn trong tính toán hơn so với trước. Đây ln (') là viết tắt của logarit tự nhiên; ln (jc) = logjx). t Một nguồn tin văn phòng phẩm có xác suất biểu tượng mà không thay đổi theo thời gian. mỗi nguồn biểu tượng chịu sự ràng buộc là các mã được giải mã duy nhất. Các thủ tục Huffman sử dụng các bước sau để mã hóa nhị phân: 1. Sắp xếp các ký hiệu L nguồn thứ tự giảm dần của xác suất của chúng. 2. Kết hợp hai biểu tượng với xác suất nhỏ nhất bằng cách sử dụng một ngã ba T
đang được dịch, vui lòng đợi..