Giáo trình môn học Lý thuyết thông tin - Dương Văn Hiếu
Bạn đang xem 20 trang mẫu của tài liệu "Giáo trình môn học Lý thuyết thông tin - Dương Văn Hiếu", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
Tài liệu đính kèm:
- giao_trinh_mon_hoc_ly_thuyet_thong_tin_duong_van_hieu.pdf
Nội dung text: Giáo trình môn học Lý thuyết thông tin - Dương Văn Hiếu
- LÝ THUYẾT THÔNG TIN Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. Giáo trình này sẽ cung cấp cho người đọc những khối kiến thức cơ bản của lý thuyết thông tin như: Độ do lượng tin (Measure of Information), Sinh mã tách được (Decypherable Coding), Kênh truyền tin rời rạc không nhớ (Discrete Memoryless Channel) và Sửa lỗi trên kênh truyền (Error Correcting Codings).
- Giáo trình: Lý thuyết thông tin. MỤC LỤC GIỚI THIỆU TỔNG QUAN 6 1. MỤC ĐÍCH 6 2. YÊU CẦU 6 3. NỘI DUNG CỐT LÕI 7 4. KẾT THỨC TIÊN QUYẾT 7 5. TÀI LIỆU THAM KHẢO 8 6. PHƯƠNG PHÁP HỌC TẬP 8 CHƯƠNG 1: GIỚI THIỆU 9 1. Mục tiêu 9 2. Đối tượng nghiên cứu 9 3. Mô hình lý thuyết thông tin theo quan điểm Shannon 10 4. Lượng tin biết và chưa biết 10 5. Ví dụ về lượng tin biết và chưa biết 10 6. Định lý cơ sở của kỹ thuật truyền tin 11 7. Mô tả trạng thái truyền tin có nhiễu 11 8. Minh họa kỹ thuật giảm nhiễu 12 9. Chi phí phải trả cho kỹ thuật giảm nhiễu 13 10. Khái niệm về dung lượng kênh truyền 13 11. Vấn đề sinh mã 13 12. Vấn đề giải mã 13 CHƯƠNG 2: ĐỘ ĐO LƯỢNG TIN 15 BÀI 2.1: ENTROPY 15 1. Mục tiêu 15 2. Ví dụ về entropy 15 3. Nhận xét về độ đo lượng tin 15 4. Khái niệm entropy 16 5. Entropy của một sự kiện 16 6. Entropy của một phân phối 16 7. Định lý dạng giải tích của Entropy 16 8. Ví dụ minh họa 17 9. Bài toán về cây tìm kiếm nhị phân-Đặt vấn đề 17 10. Bài toán về cây tìm kiếm nhị phân - Diễn giải 17 11. Bài tập 18 BÀI 2.2: CÁC TÍNH CHẤT CỦA ENTROPY 19 1. Mục tiêu: 19 2. Các tính chất cơ bản của Entropy 19 3. Minh họa tính chất 1 và 2 19 4. Minh họa tính chất 3 và 4 19 5. Định lý cực đại của entropy 20 6. Chứng minh định lý cực đại của Entropy 20 7. Bài tập 21 BÀI 2.3: ENTROPY CỦA NHIỀU BIẾN 22 1. Mục tiêu 22 2. Định nghĩa Entropy của nhiều biến 22 3. Ví dụ Entropy của nhiều biến 22 4. Định nghĩa Entropy có điều kiện 22 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 1
- Giáo trình: Lý thuyết thông tin. 5. Ví dụ Entropy có điều kiện 23 6. Quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y độc lập 23 7. Quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y tương quan 24 8. Bài tập 25 BÀI 2.4: MINH HỌA CÁC ENTROPY 26 1. Mục tiêu 26 2. Yêu cầu của bài toán 26 3. Xác định các phân phối ngẫu nhiên của bài toán 26 4. Minh họa Entropy H(X), H(Y) và H(X,Y) 27 5. Minh họa Entropy H(X/Y) và H(Y/X) 27 6. Minh họa quan hệ giữa các Entropy 27 BAI 2.5: ĐO LƯỢNG TIN (MESURE OF INFORMATION) 28 1. Mục tiêu 28 2. Đặt vấn đề bài toán 28 3. Xác định các phân phối của bài toán 28 4. Nhận xét dựa theo entropy 28 5. Định nghĩa lượng tin 29 6. Bài tập 29 CHƯƠNG 3: SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) 31 BÀI 3.1: KHÁI NIỆM VỀ MÃ TÁCH ĐƯỢC 31 1. Mục tiêu 31 2. Đặt vấn đề bài toán sinh mã 31 3. Khái niệm về bảng mã không tách được 32 4. Bảng mã tách được 32 5. Khái niệm bảng mã tức thời 33 6. Giải thuật kiểm tra tính tách được của bảng mã 33 7. Bài toán 1- yêu cầu 33 8. Bài toán 1 - Áp dụng giải thuật 34 9. Bài toán 2 34 10. Bài tập 35 BÀI 3.2: QUAN HỆ GIỮA MÃ TÁCH ĐƯỢC VÀ ĐỘ DÀI MÃ 36 1. Mục tiêu 36 2. Định lý Kraftn(1949) 36 3. Định nghĩa cây bậc D cỡ k. 36 4. Vấn đề sinh mã cho cây bậc D cỡ k 37 5. Chứng minh định lý Kraft (Điều kiện cần) 37 6. Chứng minh định lý Kraft (Điều kiện đủ) 38 7. Ví dụ minh họa định lý Kraft 38 8. Bài tập 39 BÀI 3.3: TÍNH TỐI ƯU CỦA ĐỘ DÀI MÃ 40 1. Mục tiêu 40 2. Định lý Shannon (1948) 40 3. Bảng mã tối ưu tuyệt đối 40 4. Bảng mã tối ưu tương đối 41 5. Điều kiện nhận biết một bảng mã tối ưu 41 6. Định lý Huffman 41 7. Phương pháp sinh mã Huffman 42 8. Minh họa phương pháp sinh mã Huffman 42 9. Nhận xét tính tối ưu của bảng mã Huffman 43 10. Bài tập 43 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 2
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 4: KÊNH TRUYỀN 45 BÀI 4.1: KÊNH TRUYỀN RỜI RẠC KHÔNG NHỚ 45 1. Mục tiêu 45 2. Giới thiệu 45 3. Mô hình vật lý 45 4. Mô hình toán học 46 5. Ví dụ xác định phân phối đầu nhận 47 6. Lượng tin trên kênh truyền 47 7. Định nghĩa dung lượng kênh truyền 48 BAI 4.2: CÁC DẠNG KÊNH TRUYỀN 49 1. Mục tiêu 49 2. Hiểu định lý về dung lượng kênh truyền,Kênh truyền không mất tin 49 3. Kênh truyền xác định 49 4. Kênh truyền không nhiễu 50 5. Kênh truyền không sử dụng được. 50 6. Kênh truyền đối xứng 50 7. Xây dựng công thức tính dung lượng kênh truyền đối xứng 51 8. Định lý về dung lượng kênh truyền 52 9. Bài tập 52 BÀI 4.3: LƯỢC ĐỒ GIẢI MÃ 53 1. Mục tiêu 53 2. Đặt vấn đề bài toán giải mã 53 3. Ví dụ bài toán giải mã 53 4. Các khái niệm cơ bản của kỹ thuật truyền tin 54 5. Ví dụ minh họa các khái niệm cơ bản 54 6. Các dạng sai số cơ bản 55 7. Phương pháp xây dựng lượt đồ giải mã tối ưu 55 8. Minh họa xây dựng lược đồ giải mã tối ưu 56 9. Minh họa cách tính các sai số 57 10. Bài tập 1 58 11. Bài Tập 2 58 CHƯƠNG 5: SỬA LỖI 59 BÀI 5.1: NGUYÊN LÝ KHOẢNG CÁCH NHỎ NHẤT HAMMING 59 1. Mục tiêu: 59 2. Khoảng cách Hamming 59 3. Kênh truyền đối xứng nhị phân và lược đồ giải mã tối ưu 59 4. Ví dụ kênh truyền đối xứng nhị phân 60 5. Quan hệ giữa xác suất giải mã và khoảng cách Hamming 60 6. Nguyên lý Hamming 60 7. Bài tập 61 BÀI 5.2: BỔ ĐỀ VỀ TỰ SỬA LỖI VÀ CẬN HAMMING 62 1. Mục tiêu 62 2. Bổ đề về tự sửa lỗi 62 3. Chứng minh và minh họa bổ đề 62 4. Cận Hamming. 63 5. Phân các dạng lỗi 64 6. Bài tập 64 BÀI 5.3: MÃ KIỂM TRA CHẴN LẺ 64 1. Mục tiêu: 64 2. Bộ mã kiểm tra chẵn lẻ 65 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 3
- Giáo trình: Lý thuyết thông tin. 3. Phương pháp kiểm tra chẵn lẻ 65 4. Phương pháp sinh mã kiểm tra chẵn lẻ 66 5. Ví dụ sinh mã kiểm tra chẵn lẻ 66 6. Định lý quan hệ giữa độ dài mã n, số bit kiểm tra m và số lỗi tự sửa e 67 7. Ví dụ tìm m nhỏ nhất từ n và e 68 8. Ví dụ tìm e lớn nhất từ m và n 68 9. Bài tập 68 BÀI 5.4: NHÓM CỘNG TÍNH VÀ BỘ TỪ MÃ CHẴN LẺ 69 1. Mục tiêu 69 2. Khái niệm nhóm cộng tính 69 3. Tính chất của bộ mã chẵn lẻ 69 4. Ví dụ minh họa 70 5. Phương pháp sinh mã kiểm tra chẵn lẻ nhanh 71 6. Ví dụ sinh mã kiểm tra chẵn lẻ nhanh 71 7. Bài tập 72 BÀI 5.5: LƯỢC ĐỒ SỬA LỖI TỐI ƯU 73 1. Mục tiêu 73 2. Đặt vấn đề 73 3. Định nghĩa Hiệp hợp 73 4. Lược đồ sửa lỗi theo các hiệp hợp 74 5. Lược đồ sửa lỗi thong qua bộ lỗi 74 6. Ví dụ minh họa lược đồ sửa lỗi 1 bit 74 7. Ví dụ minh họa lược đồ sửa lỗi 2 bit 75 8. Ví dụ minh họa lược đồ sửa lỗi 3 bit 76 9. Xác suất truyền đúng 76 10. Bài tập 76 BÀI 5.6: MÃ HAMMING 76 1. Mục tiêu 76 2. Mã Hammin 77 3. Tính chất 77 4. Ví dụ minh họa 77 5. Bài tập 78 BÀI 5.7: THANH GHI LÙI TỪNG BƯỚC 79 1. Mục tiêu 79 2. Đặt vấn đề 79 3. Biểu diễn vật lý của thanh ghi 79 4. Biểu diễn toán học của thanh ghi 80 5. Ví dụ thanh ghi lui từng bước 80 6. Chu kỳ của thanh ghi 81 7. Ví dụ tìm chu kỳ của thanh ghi 81 8. Bài tập 82 BÀI 5.8: MÃ XOAY VÒNG 82 1. Mục tiêu 82 2. Ma trận kiểm tra chẵn lẻ mã xoay vòng 83 3. Định nghĩa mã xoay vòng 83 4. Phương pháp sinh nhanh bộ mã xoay vòng 83 5. Ví dụ sinh nhanh bộ mã xoay vòng 84 6. Bài tập 85 BÀI 5.9: ĐA THỨC ĐẶC TRƯNG CỦA THANH GHI 86 1. Mục tiêu 86 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 4
- Giáo trình: Lý thuyết thông tin. 2. Định nghĩa đa thức đặc trưng của thanh ghi 86 3. Quan hệ giữa chu kỳ n, đa thức đăc trưng và đa thức (xn + 1) 86 4. Thủ tục sinh thanh ghi lùi từng bước 87 5. Ví dụ minh họa 87 6. Bài tập 87 Bài 5.10: PHƯƠNG PHÁP SINH MÃ XOAY VÒNG 88 1. Mục tiêu 88 2. Đặt vấn đề 88 3. Phương pháp sinh bảng mã xoay vòng 88 4. Ví dụ minh họa 1 89 5. Ví dụ minh họa 2 89 6. Ví dụ minh họa 3 90 7. Bảng liệt kê một số đa thức đặc trưng 90 8. Bài tập 90 BÀI TẬP TỔNG HỢP 91 1. Mục tiêu 91 2. Bài 1 91 3. Bài 2 91 4. Bài 3 92 5. Bài 4 93 TÀI LIỆU THAM KHẢO 95 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 5
- Giáo trình: Lý thuyết thông tin. GIỚI THIỆU TỔNG QUAN GIÁO TRÌNH LÝ THUYẾT THÔNG TIN MỤC ĐÍCH Giáo trình này sẽ cung cấp cho người đọc những khối kiến thức cơ bản của lý thuyết thông tin như: Độ do lượng tin (Measure of Information), Sinh mã tách được (Decypherable Coding), Kênh truyền tin rời rạc không nhớ (Discrete Memoryless Channel) và Sửa lỗi trên kênh truyền (Error Correcting Codings). • Liên quan đến Độ đo lượng tin, giáo trình sẽ trình bày các khái niệm cơ bản về thông tin, entropy, một số công thức, tính chất, các định lý quan trọng của entropy và cách tính lượng tin. • Về Sinh mã tách được, giáo trình sẽ giới thiệu đến người học các vấn đề về yêu cầu của bài toán sinh mã, giải mã duy nhất, cũng như mã tức thời và giải thuật kiểm tra mã tách được. Các định lý quan trọng được đề cập trong nội dung này là: Định lý Kraft (1949), Định lý Shannon (1948) và Định lý sinh mã Huffman. • Về kênh truyền tin rời rạc không nhớ, giáo trình sẽ giới thiệu mô hình kênh truyền theo 2 khía cạnh vật lý và toán học. Các khái niệm về dung lượng kênh truyền, phân lớp kênh truyền, định lý về dung lượng kênh truyền, cũng như các khái niệm trong kỹ thuật truyền tin và phương pháp xây dựng lược đồ giải mã tối ưu cũng được trình bày trong môn học này. • Vấn đề Sửa lỗi (hay xử lý mã sai) trên kênh truyền là một vấn đề rất quan trọng và được quan tâm nhiều trong môn học này. Các nội dung được giới thiệu đến các bạn sẽ là Nguyên lý Khoảng cách Hamming, các định lý về Cận Hamming, phương pháp kiểm tra chẵn lẻ, các lược đồ sửa lỗi, Bảng mã Hamming và Bảng mã xoay vòng. Hơn nữa, hầu hết các vấn đề nêu trên đều được đưa vào nội dung giảng dạy ở các bậc Đại học của một số ngành trong đó có ngành Công nghệ thông tin. Do đó, để có một tài liệu phục vụ công tác giảng dạy của giáo viên cũng như việc học tập và nghiên cứu của sinh viên, chúng tôi mạnh dạn biên soạn giáo trình này nhằm giúp cho sinh viên có một tài liệu tự học và nghiên cứu một cách hiệu quả. YÊU CẦU Sau khi học xong môn này, sinh viên phải có được những khả năng sau: • Hiểu các khái niệm về về thông tin, Entropy, Entropy của một phân phối, Entropy của nhiều phân phối, Entropy có điều kiện, Độ đo lượng tin. Vận dụng giải quyết các bài toán về xác định lượng tin. • Biết khái niệm về mã tách được, mã không tách được, bảng mã tối ưu. Hiểu Định lý Kraft (1949), Định lý Shannon (1948), Định lý sinh mã Huffman và phương pháp sinh mã Huffman. Vận dụng để sinh bảng mã tách được tối ưu, nhận biết được bảng mã như thế nào là bảng mã tối ưu và có thể vận dụng để viết các chương trình sinh mã, giải mã (hay viết chương trình nén và giải nén). Từ đây, các sinh viên có thể tự nghiên cứu các loại bảng mã khác để vận dụng cho việc mã hóa và bảo mật thông tin một cách hiệu quả. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 6
- Giáo trình: Lý thuyết thông tin. • Biết các khái niệm về kênh truyền tin rời rạc không nhớ, dung lượng kênh truyền và phân lớp kênh truyền. Hiểu định lý về dung lượng kênh truyền, phương pháp xây dựng lược đồ giải mã tối ưu và cách tính xác suất truyền sai trên kênh truyền. • Biết các khái niệm về khoảng cách Hamming, nguyên lý khoảng cách Hamming, các định lý về Cận Hamming, phương pháp kiểm tra chẵn lẻ, các lược đồ sửa lỗi, Bảng mã Hamming và Bảng mã xoay vòng. • Vận dụng các kiến thức học được để thiết kế một hệ thống truyền nhận dữ liệu với quy trình cơ bản: mã hóa, giải mã và bảo mật thông tin. Lý thuyết thông tin cũng là một trong các môn học khó của ngành Công nghệ thông tin vì nó đòi hỏi người học phải có kiến thức cơ bản về toán và xác suất thống kê. Do đó, đòi hỏi người học phải tự bổ sung các kiến thức cơ bản về toán và xác suất thống kê cho mình (nếu thiếu), tham gia lớp học đầy đủ và làm các bài tập theo yêu cầu của môn học thì mới tiếp thu kiến thức môn học một cách hiệu quả. NỘI DUNG CỐT LÕI Giáo trình gồm 5 chương được trình bày trong 45 tiết giảng cho sinh viên chuyên ngành Công nghệ thông tin, trong đó có khoảng 30 tiết lý thuyết và 15 tiết bài tập mà giáo viên sẽ hướng dẫn cho sinh viên trên lớp. Chương 1: Giới thiệu. Chương này trình bày các nội dung có tính tổng quan về môn học bao gồm: các đối tượng nghiên cứu, mô hình lý thuyết thông tin theo quan điểm của nhà toán học Shannon, khái niệm về lượng tin biết và chưa biết, định lý cơ bản của kỹ thuật truyền tin. Chương 2: Độ đo lượng tin. Chương này trình bày các vấn đề cơ bản về entropy, các tính chất của entropy, entropy của nhiều biến, entropy có điều kiện, các định lý về quan hệ giữa các entropy và lượng tin của một sự kiện. Chương 3: Sinh mã tách được. Nội dung chính của chương này bao gồm các khái niệm về mã tách được, quan hệ giữa mã tách được và độ dài mã, tính tối ưu của độ dài mã. Chương 4: Kênh truyền. Các nội dung được trình bày trong chương này bao gồm khái niệm về kênh truyền tin rời rạc không nhớ, các mô hình truyền tin ở khía cạnh vật lý và toán học, dung lượng trên kênh truyền, phân lớp các kênh truyền. Phương pháp xây dựng lược đồ giải mã tối ưu và cách tính xác suất truyền sai cũng được giới thiệu trong chương này. Chương 5: Sửa lỗi. Chương này trình bày các nội dung cốt lõi sau: khái niệm về khoảng cách Hamming, nguyên lý khoảng cách nhỏ nhất Hamming, bổ đề về tự sửa lỗi và định lý Cận Hamming. Chương này cũng giới thiệu về bộ mã kiểm tra chẵn lẻ, phương pháp kiểm tra chẵn lẻ, lược đồ sửa lỗi tối ưu, mã Hamming và mã xoay vòng. KẾT THỨC TIÊN QUYẾT Để học tốt môn học này, đòi hỏi sinh viên phải nắm vững các môn học có liên quan như: xác suất thống kê, đại số boole (phép toán Modulo 2 và đa thức nhị phân). Các môn học có liên quan và có thể tham kháo thêm như kỷ thuật số, hệ điều hành, mạng máy tính. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 7
- Giáo trình: Lý thuyết thông tin. TÀI LIỆU THAM KHẢO 1. David J.C. Mackey, Information Theory, Infernce, and Learning Algorithms, CamBridge University Express-2003. 2. G.J.ChaiTin, Algorithmic Information Theory, CamBridge University Express-1992. 3. Sanford Goldman, Information Theory. 4. 5. 6. 7. 8. 9. 10. 11. PHƯƠNG PHÁP HỌC TẬP Để phục vụ cho mục tiêu nâng cao khả năng tự học tập và tự nghiên cứu của sinh viên, giáo trình này được biên soạn cùng với các giáo trình khác thuộc chuyên ngành Công nghệ thông tin của Khoa Công nghệ thông tin và Truyền thông – Đại Học Cần Thơ theo dự án ASVIET002CNTT “Tăng cường hiệu quả đào tạo và năng lực đào tạo của sinh viên khoa Công nghệ Thông tin- Đại học Cần Thơ”. Chúng tôi đã cố gắng trình bày giáo trình này một cách có hệ thống các nội dung theo bố cục các chương ứng với các khối kiến thức nêu trên, mỗi chương được được trình bày theo bố cục của các bài học và mỗi bài học giới thiệu đến người học một vấn đề nào đó trong số các vấn đề của một khối kiến thức tương ứng với một chương. Khi học xong các bài học của một chương, người học sẽ có một khối kiến thức cần thiết tương ứng cho môn học. Nội dung của các bài học đều được đưa vào các ví dụ để người học dễ hiểu, tùy theo từng vấn đề mà người học cần phải học và nghiên cứu trong thời lượng từ 1 đến 2 tiết tự học cho một bài học trong một chương. Như vậy, để học tốt môn học này, trước hết sinh viên cần phải: • Học đầy đủ các môn học tiên quyết, bổ sung những kiến thức cơ bản về toán và xác suất thống kê (nếu thiếu). • Học và nghiên cứu kỹ từng chương theo trình tự các chương được trình bày trong giáo trình này. Trong từng chương, học các bài theo thứ tự được trình bày, sau mỗi bài phải làm bài tập đầy đủ (nếu có). • Tham gia lớp đầy đủ, thảo luận các vấn đề tồn tại chưa hiểu trong quá trình tự học. • Sau mỗi chương học, phải nắm vững các khái niệm, các định nghĩa, các công thức tính toán và vận dụng giải các bài toán có tính chất tổng hợp được giới thiệu ở cuối chương. • Vận dụng kiến thức có được sau khi học xong các chương để giải một số bài tập tổng hợp ở cuối giáo trình, từ đó giúp cho người học hiểu sâu hơn về môn học và có thể giải quyết các vấn đề tương tự trong thực tế. Việc cho ra đời một giáo trình với những mục đích như trên là không đơn giản khi khả năng và kinh nghiệm của người soạn còn có hạn, nhiều khái niệm, thuật ngữ dùng trong giáo trình chưa được định nghĩa một cách chính thống. Vì vậy giáo trình này chắc không tránh khỏi những khiếm khuyết, rất mong nhận được sự góp ý của các đồng nghiệp và người đọc. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 8
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 1: GIỚI THIỆU 1: Mục tiêu Sau khi hoàn tất bài học này bạn có thể biết: - Đối tượng nghiên cứu, - Mô hình lý thuyết thông tin theo quan điểm Shannon, - Các khái niệm về Lượng tin biết và lượng tin chưa biết, - Định lý cơ sở của kỹ thuật truyền tin, - Khái niệm chung về dung lượng kênh truyền, - Vấn đề sinh mã và giải mã. Đối tượng nghiên cứu Lý thuyết thống kê về thông tin được xây dựng trên hai hướng khác nhau bởi hai nhà toán học Shannon (1948) và Wiener (1949). Lý thuyết thông tin nghiên cứu quá trình xử lý tín hiệu như sau: Đầu vào (input): nhận tín hiệu từ một lĩnh vực cụ thể, tức là tín hiệu xuất hiện theo các ký hiệu (symbol) từ một tập hợp cho trước và theo phân phối xác suất đã biết. Tín hiệu được truyền đi trên kênh truyền (channel) và có thể bị nhiễu cũng theo một phân phối xác suất nào đó. Kênh truyền có thể được hiểu dưới hai nghĩa: Dưới nghĩa vật lý: kênh truyền là một hệ thống truyền tín hiệu (dây dẫn, mạch, sóng, ) và gây nhiễu tùy thao chất lượng của hệ thống. Dưới nghĩa toán học: kênh truyền là các phân phối xác suất xác định trên lớp các tín hiệu đang xét ở đầu nhận tín hiệu (output). Ở đầu ra (output): dựng lại tín hiệu chân thật nhất có thể có so với tín hiệu ở đầu vào. Shannon xây dựng mô hình lý thuyết thông tin trên cơ sở giải quyết bài toán: sinh mã độ dài tối ưu khi nhận tín hiệu đầu vào. Tín tối ưu được xét trên 3 yếu tố sau: Phân phối xác suất của sự xuất hiện của các tín hiệu. Tính duy nhất của mã và cho phép tự điều chỉnh mã sai nếu có với độ chính xác cao nhất. Giải mã đồng thời tự động điều chỉnh mã hoặc xác định đoạn mã truyền sai. Trong khí đó, Wiener lại nghiên cứu phương pháp xử lý tín hiệu ở đầu ra: ước lượng tối ưu chuỗi tín hiệu so với chính nó khi nhận ở đầu vào không qua quá trình sinh mã. Như vậy phương pháp Wiener được áp dụng trong những trường hợp con người không kiểm soát được quá trình truyền tín hiệu. Môn “xử lý tín hiệu” đã đề cập đến vấn đề này. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 9
- Giáo trình: Lý thuyết thông tin. Mô hình lý thuyết thông tin theo quan điểm Shannon Lý thuyết thông tin được xét ở đây theo quan điểm của Shannon. Đối tượng nghiên cứu là một hệ thống liên lạc truyền tin (communication system) như sơ đồ dưới đây: Nguồn Mã hóa Kênh Giải mã Nhận Nhiễu Bộ chữ cái Bộ chữ cái Diễn giải: - Nguồn (source) thông tin còn gọi là thông báo cần được truyền ở đầu vào (Input). - Mã hóa (encode) là bộ sinh mã. Ứng với một thông báo, bộ sinh mã sẽ gán cho một đối tượng (object) phù hợp với kỹ thuật truyền tin. Đối tượng có thể là: o Dãy số nghị phân (Digital) dạng: 01010101, cũng giống như mã máy tính. o Sóng liên tục (Analog) cũng giống như truyền radio. - Kênh (channel) là phương tiện truyền mã của thông tin. - Nhiễu (noise) được sinh ra do kênh truyền tin. Tùy vào chất lượng của kênh truyền mà nhiễu nhiều hay ít. - Giải mã (decode) ở đầu ra (output) đưa dãy mã trở về dạng thông báo ban đầu với xác suất cao nhất. Sau đó thông báo sẽ được chuyển cho nới nhận. Trong sơ đồ trên, chúng ta quan tâm đến 2 khối mã hóa và giải mã trong toàn bộ môn học. Lượng tin biết và chưa biết Một biến ngẫu nhiên (BNN) X luôn mang một lượng tin nào đó. Nếu X chưa xảy ra (hay ta chưa biết cụ thể thông tin về X) thì lượng tin của nó là chưa biết, trong trường hợp này X có một lượng tin chưa biết. Ngược lại nếu X đã xảy ra (hay ta biết cụ thể thông tin về X) thì lượng tin về biến ngẫu nhiên X coi như đã biết hoàn toàn, trong trường hợp này X có một lượng tin đã biết. Nếu biết thông tin của một BNN X thông qua BNN Y đã xảy ra thì ta có thể nói: chúng ta chỉ biết một phần lượng thông tin của X đó trên cơ sở biết Y. Ví dụ về lượng tin biết và chưa biết Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chức chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Hay lượng tin biết và chưa biết của sự kiện lấy một đồng tiền từ 2 đồng tiền nói trên được hiểu như thế nào? Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 10
- Giáo trình: Lý thuyết thông tin. Ta thử xét một trường hợp sau: nếu người chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, ta có thể phán đoán được người tổ chức chơi đã lấy được đồng tiền nào. Chẳng hạn: Nếu số đầu hình đếm được sau 2 lần tưng là 1 thì đồng tiền đã lấy được là đồng tiền thật. Ngược lại nếu số đầu hình đếm được là 2 thì đồng tiền đã lấy được có thể là thật hay cũng có thể là giả. Như vậy, ta đã nhận được một phần thông tin về loại đồng tiền qua số đầu hình đếm được sau 2 lần tung. Ta có thể tính được lượng tin đó bằng bao nhiêu? (Việc tính lượng tin này sẽ được thảo luận sau). Dưới đây là một số bảng phân phối của bài toán trên: Gọi BNN X về loại đồng tiền (X=1 nếu lấy được đồng tiền loại 1 và X=1 nếu lấy được đồng tiền loại 2 được lấy). Khi đó phân phối của X có dạng: X 1 2 P 0.5 0.5 Đặt BNN Y là BNN về số đầu hình đếm được sau 2 lần tung. Khi đó ta có thể xác định được phân phối của Y với điều kiện xảy ra của X trong 2 trường hợp sau. Phân phối của Y khi biết X=1 có dạng: Y/X=1 0 1 2 P 0.25 0.5 0.25 Phân phối của Y khi biết X=2 có dạng: Y/X=2 0 1 2 P 0 0 1 Định lý cơ sở của kỹ thuật truyền tin Trong “ A New Basic of Information Theory (1954)”, Feinstein đã đưa ra định lý sau: “Trên một kênh truyền có nhiễu, người ta luôn có thể thực hiện một phương pháp truyền sao cho đạt được sai số nhỏ hơn sai số cho phép (nhỏ bất kỳ) cho trước đối với kênh truyền.” Chúng ta sẽ không chứng minh định lý, thay vào đó, chúng ta sẽ tham khảo đến các minh họa giảm nhiễu trong các nội dung tiếp theo của bài học. Mô tả trạng thái truyền tin có nhiễu Giả sử, một thông báo được truyền đi trên một kênh truyền nhị phân rời rạc. Thông báo cần truyền được mã hóa thành dãy số nhị phân (0,1) và có độ dài được tính theo đơn vị bit. Giả sử 1 bit truyền trên kênh nhiễu với xác suất 1/4 (hay tính trung bình cứ truyền 4 bit thì có thể nhiễu 1 bit). ¾ đúng Ta có sơ đồ trạng thái truyền tin sau: 0 0 ¼ Nguồn Mã hóa Truyền từng bit ¼ 1 1 ¾ đúng Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 11
- Giáo trình: Lý thuyết thông tin. Minh họa kỹ thuật giảm nhiễu Trong kỹ thuật truyền tin, người ta có thể làm giảm sai lầm khi nhận tin bằng cách truyền lặp lại 1 bit với số lẻ lần. Ví dụ: truyền lặp lại 3 cho 1 bit cần truyền (xác suất nhiễu 1 bit bằng 1/4). Khi nhận 3 bit liền nhau ở cuối kếnh được xem như là 1 bit. Giá trị của bit này được hiểu là 0 (hay 1) nếu bit 0 (bit 1) có số lần xuất hiện nhiều hơn trong dãy 3 bit nhận được liền nhau (hay giải mã theo nguyên tắc đa số). Ta cần chứng minh với phương pháp truyền này thì xác suất truyền sai thật sự < 1/4 (xác suất nhiễu cho trước của kênh truyền). Sơ đồ truyền tin: Bit truyền Tuyền lặp 3 lần Nhận 3 bit Giải mã 0 000 000 0 000 001 0 000 010 0 000 100 0 000 101 1 000 011 1 000 110 1 000 111 1 1 111 000 0 111 001 0 111 010 0 111 100 0 111 011 1 111 110 1 111 111 1 111 111 1 Thật vậy: Giả sử Xi xác định giá trị đúng hay sai của bit thứ i nhận được ở cuối kênh truyền với Xi =1 nếu bit thứ i nhận được là sai và Xi =0 nếu bit thứ i nhận được là đúng. Theo giả thiết ban đầu của kênh truyền thì phân phối xác suất của Xi có dạng Bernoulli b(1/4): Xi 1 0 P 3/4 1/4 Gọi Y ={X1 + X2 + X3 } là tổng số bit nhận sai sau 3 lần truyền lặp cho 1 bit. Trong trường hợp này Y tuân theo phân phối Nhị thức B(p,n), với p=1/4 (xác suất truyền sai một bit) và q =3/4 (xác suất truyền đúng 1 bit): Y ~ B(i,n) hay Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 12
- Giáo trình: Lý thuyết thông tin. i i n−i p(Y = i) = Cn .p q i n! Trong đó: Cn = i!(n−i)! Vậy truyền sai khi Y ∈ {2, 3} có xác xuất là: Psai= P(y≥2) = P(Y=2) + P(Y=3) = B(2,3) + B(2,3) 1 3 1 3 10 1 Hay Psai = (C 2 ( ) 2 .( )1 ) + (C 3 ( )3 ( )0 ) = thời gian truyền càng nhiều => chi phí càng tăng. Khái niệm về dung lượng kênh truyền Ví dụ trên cho chúng ta thấy cần phải xác định một thông số cho truyền tin để đảm bảo sai số chấp nhận được và đồng thời tốc độ truyền cũng không quá chậm. Khái niệm “dung lượng” kênh truyền là khái niệm rất cơ bản của lý thuyết truyền tin và là một đại lượng vật lý đồng thời cũng là đại lượng toán học (có đơn vị là bit). Nó cho phép xác định tốc độ truyền tối đa của mỗi kênh truyền. Do đó, dựa vào dung lượng kênh truyền, người ta có thể chỉ ra tốc độ truyền tin đồng thời với một phương pháp truyền có sai số cho phép. Vấn đề sinh mã Từ kỹ thuật truyền tin trên cho ta thấy quá trình sinh mã và giải mã được mô tả như sau: một đơn vị thông tin nhận được ở đầu vào sẽ được gán cho một ký hiệu trong bộ ký hiệu sinh mã. Một ký hiệu mã được gán n lần lặp lại (dựa vào dung lượng của kênh truyền, ta có thể xác định được n). Thiết bị sinh mã (Coding device/ Encoder) sẽ thực hiện quá trình sinh mã. Như vậy, một đơn vị thông tin từ nguồn phát tin sẽ được thiết bị sinh mã gán cho một dãy n ký hiệu mã. Dãy ký hiệu mã của 1 đơn vị thông tin được gọi là một từ mã (Code word). Trong trường hợp tổng quát, người ta có thể gán một khối ký tự mã cho một khối thông tin nào đó và được gọi là một từ mã. Vấn đề giải mã Ở cuối kênh truyền, một thiết bị giải mã (Decoding device/ Decoder) sẽ thực hiện quá trình ngược lại như sau: kiểm tra dãy ký hiệu mã để quyết định giải mã về một từ mã và đưa nó về dạng khối tin ban đầu. Ví dụ: Khối tin ban đầu : 01010101 Khối ký hiệu mã ở đầu truyền (lặp 3 lần): 000111000111000111000111. Khối ký hiệu mã ở đầu nhận : 001110100111011001000111 Khối tin nhận được cuối cùng : 01011001 (sai 2 bit so với khối tin ban đầu) Do đó làm sao để đua khối tin nhận được về khối tin ban đầu 01010101, đây chính là công việc của bộ giải mã (Decoder). Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 13
- Giáo trình: Lý thuyết thông tin. Một vấn đề quan trọng cần lưu ý là phải đồng bộ giữa tốc độ nạp thông tin (phát tín hiệu) với tốc độ truyền tin. Nếu tốc độ nạp thông tin bằng hoặc lớn hơn so với tốc độ truyền tin của kênh, thì cần phải giảm tốc độ nạp thông tin sao cho nhỏ hơn tốc độ truyền tin. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 14
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 2: ĐỘ ĐO LƯỢNG TIN Mục tiêu: trình bày các khái niệm về độ đo lượng tin chưa biết và đã biết về một biến ngẫu nhiên X. Tính toán các lượng tin này thông qua định nghĩa và các tính chất của Entropy từ một hay nhiều biến ngẫu nhiên. BÀI 2.1: ENTROPY Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Hiểu được các khái niệm Entropy, - Biết Entropy của một sự kiện và Entropy của một phân phối, - Hiểu Định lý dạng giải tích của Entropy, - Biết Bài toán về cây tìm kiếm nhị phân và - Làm kiến thức cơ sở để hiểu và học tốt các bài học tiếp theo. Ví dụ về entropy Trước hết, ta cần tìm hiểu một ví dụ về khái niệm độ do của một lượng tin dựa vào các sự kiện hay các phân phối xác suất ngẫu nhiên như sau: Xét 2 BNN X và Y có phân phối sau: X={1, 2, 3, 4, 5} có phân phối đều hay p(X=i) = 1/5. Y={1, 2} cũng có phân phối đều hay p(Y=i) = 1/2. Bản thân X và Y đều mang một lượng tin và thông tin về X và Y chưa biết do chúng là ngẫu nhiên. Do đó, X hay Y đều có một lượng tin không chắc chắn và lượng tin chắc chắn, tổng của 2 lượng tin này là không đổi và thực tế nó bằng bao nhiêu thì ta chưa thể biết. Lượng tin không chắc chắn của X (hay Y) được gọi là Entropy. Tuy nhiên, nếu X và Y có tương quan nhau thì X cũng có một phần lượng tin không chắc chắn thông qua lượng tin đã biết của Y (hay thông tin về Y đã được biết). Trong trường hợp này, một phần lượng tin không chắc chắn của thông qua lượng tin đã biết của Y được gọi là Entropy có điều kiện. Nhận xét về độ đo lượng tin Rõ ràng, ta cần phải xây dựng một đại lượng toán học rất cụ thể để có thể đo được lượng tin chưa biết từ một biến ngẫu nhiên. Một cách trực quan, lượng tin đó phải thể hiện được các vấn đề sau: Một sự kiện có xác suất càng nhỏ thì sự kiện đó ít xảy ra, cũng có nghĩa là tính không chắc chắn càng lớn. Nếu đo lượng tin của nó thì nó cho một lượng tin không biết càng lớn. Một tập hợp các sự kiện ngẫu nhiên (hay Biến ngẫu nhiên) càng nhiều sự kiện có phân phối càng đều thì tính không chắc chắn càng lớn. Nếu đo lượng tin của nó thì sẽ được lượng tin không biết càng lớn. Hay lượng tin chắc chắn càng nhỏ. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 15
- Giáo trình: Lý thuyết thông tin. Một phân phối xác suất càng lệch nhiều (có xác xuất rất nhỏ và rất lớn) thì tính không chắc chắn càng ít và do đó sẽ có một lượng tin chưa biết càng nhỏ so với phân phối xác suất đều hay lượng tin chắc chắn của nó càng cao. Khái niệm entropy Trong tiếng việt ta chưa có từ tương đương với từ Entropy, tuy nhiên chúng ta có thể tạm hiểu hiểu thoáng qua trước khi đi vào định nghĩa chặc chẽ về mặt toán học của Entropy như sau: Entropy là một đại lượng toán học dùng để đo lượng tin không chắc (hay lượng ngẫu nhiên) của một sự kiện hay của phân phối ngẫu nhiên cho trước. Hay một số tài liệu tiếng anh gọi là Uncertainty Measure. Entropy của một sự kiện Giả sử có một sự kiện A có xác suất xuất hiện là p. Khi đó, ta nói A có một lượng không chắc chắn được đo bởi hàm số h(p) với p ⊆ [0,1]. Hàm h(p) được gọi là Entropy nếu nó thoả 2 tiêu đề toán học sau: Tiên đề 01: h(p) là hàm liên tục không âm và đơn điệu giảm. Tiên đề 02: nếu A và B là hai sự kiện độc lập nhau, có xác suất xuất hiện lần lượt là pA và pB. Khi đó, p(A,B) = pA.pB nhưng h(A,B) = h(pA) + h(pB). Entropy của một phân phối Xét biến ngẫu nhiên X có phân phối: X x1 x2 x3 xM P p1 p2 p3 pM Nếu gọi Ai là sự kiện X=xi, (i=1,2,3, ) thì Entropy của Ai là: h(Ai)= h(pi) Gọi Y=h(X) là hàm ngẫu nhiên của X và nhận các giá trị là dãy các Entropy của các sự kiện X=xi, tức là Y=h(X)={h(p1), h(p2), , h(pn)}. Vậy, Entropy của X chính là kỳ vọng toán học của Y=h(X) có dạng: H(X)=H(p1, p2, p3, ,pn) = p1h(p1)+ p2h(p2)+ +pnh(pn). Tổng quát: n H (X ) = ∑ pi h( pi ) i=1 Định lý dạng giải tích của Entropy M Định lý: Hàm H(X) = H(p1, p2, ,pM) = C∑ pi log(pi ) i =1 C = const >0 Cơ số logarithm là bất kỳ. Bổ đề: h(p)=-Clog(p). Trường hợp C=1 và cơ số logarithm = 2 thì đơn vị tính là bit. Khi đó: h(p)=-log2(p) (đvt: bit) và Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 16
- Giáo trình: Lý thuyết thông tin. M H(X) = H(p1 , p 2 , ,p M ) = −∑ pi log 2 ( pi ) i=1 Qui ước trong cách viết: log(pi)= log2(pi) Ví dụ minh họa Nếu sự kiện A có xác suất xuất hiện là 1/2 thì h(A)=h(1/2)= -log(1/2) = 1 (bit) Xét BNN X có phân phối sau: X x1 x2 x3 P 1/2 1/4 1/4 H(X) = H(1/2, 1/4, 1/4) = -(1/2log(1/2)+1/4log(1/4)+1/4log(1/4)) =3/2 (bit) Bài toán về cây tìm kiếm nhị phân-Đặt vấn đề Giả sử, tìm 1 trong 5 người có tên biết trước sẽ xuất hiện theo phân phối sau: X x1 x2 x3 x4 x5 P 0,2 0,3 0,2 0,15 0,15 Trong đó: x1, x5 lần lượt là tên của 5 người mà ta cần nhận ra với cách xác định tên bằng câu hỏi đúng sai (yes/no). Sơ đồ dưới đây minh họa cách xác định tên của một người: x Yes 1 X=x ? 1 X=x1/x2? Yes No x2 x3 No Yes X=x3? x X=x ? Yes 4 No 4 No x5 Bài toán về cây tìm kiếm nhị phân - Diễn giải Theo sơ đồ trên: Để tìm x1, x2, x3 với xác suất tương ứng là 0.2, 0.3, 0.2 ta chỉ cần tốn 2 câu hỏi. Để tìm x4, x5 với xác suất tương ứng 0.15, 0.15 thì ta cần 3 câu hỏi. Vậy: Số câu hỏi trung bình là: 2 x (0,2+0,3+0,2) + 3 x (0,15+0,15) = 2.3 Mặt khác: Entropy của X: H(X)= H(0.2, 0.3, 0.2, 0.15, 0.15)=2.27. Ta luôn có số câu hỏi trung bình luôn ≥ H(X) (theo định lý Shannon sẽ trình bày sau). Vì số câu hỏi trung bình trong trường hợp này xấp sỉ H(X) nên đây là số câu hỏi trung bình tối ưu để tìm ra tên chính xác của một người. Do đó, sơ đồ tìm kiếm trên là sơ đồ tối ưu. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 17
- Giáo trình: Lý thuyết thông tin. Sinh viên tự cho thêm 1 hay 2 sơ đồ tìm kiếm khác và tự diễn giải tương tự - xem như bài tập. Bài tập Tính H(X) với phân phối sau: X x1 x2 x3 P 1/3 1/3 1/3 Tính H(Y) với phân phối sau: Y x1 x2 x3 x4 P 1/6 2/6 1/6 2/6 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 18
- Giáo trình: Lý thuyết thông tin. BÀI 2.2: CÁC TÍNH CHẤT CỦA ENTROPY Mục tiêu: Sau khi hoàn tất bài học này bạn có thể: - Hiểu các tính chất cơ bản của Entropy, - Hiểu định lý cực đại của Entropy, - Vận dụng giải một số bài toán về Entropy, - Làm cơ sở để vận dụng giải quyết các bài toán tính dung lượng kênh truyền. Các tính chất cơ bản của Entropy Xét biến ngẫu nhiên X = {x1, x2, , xM}. Entropy của biến ngẫu nhiên X có các tính chất: 1 1 1. Hàm số f(M) = H( , , ) đơn điệu tăng. M M 2. Hàm số f(ML) = f(M)+f(L). 3. H(p1, p2, , pM) = H(p1 + p2 + +pr, pr+1+ pr+2+ + pM) p1 pr + (p1 + p 2 + + p r )H( r , , r ) p p ∑i=1 i ∑i=1 i pr+1 pM + (pr+1 + pr+2 + + pM )H( M , , M ) p p ∑i=r+1 i ∑i=r+1 i 4. H(p, 1-p) là hàm liên tục theo P. Minh họa tính chất 1 và 2 Minh họa tính chất 1: Trong trường hợp biến ngẫu nhiên X có phân phối đều Entropy của X như sau : ⎛ 1 1 1 ⎞ 1 1 1 1 1 1 1 1 H ( X ) = H ⎜ , ,L , ⎟ = − log − log , , − log = − M log ⎝ M M M ⎠ m M M M M M M M 1 => H(X) = − log = log M là hàm đơn điệu tăng M Minh họa tính chất 2: Trong trường hợp 2 biến ngẫu nhiên X, Y độc lập có phân phối đều với BNN X có M sự kiện và BNN Y có L sự kiện. Gọi f(M), f(L) lần lượt là Entropy của X, của Y. Theo tính chất 2 của Entropy ta có f(ML)=f(M)+f(L) Minh họa tính chất 3 và 4 Minh họa tính chất 3: Xét con xúc sắc có 6 mặt với xác suất xuất hiện các mặt được cho trong bảng sau: X x1 x2 x3 x4 x5 x6 P 10% 20% 25% 25% 15% 5% Ta có thể gom các sự kiện x1, x2, x3 lại thành một sự kiện mới là x123 có xác suất xuất hiện là 55%, gom sự kiện x5 và x6 lại thành sự kiện x56 có xác suất 20%. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 19
- Giáo trình: Lý thuyết thông tin. Ta được một nhiến ngẫu nhiên mới X* có phân phối sau: * X x123 x4 X56 P 55% 25% 20% Đến đây các bạn có thể áp dụng công thức để tính, so sánh các Entropy và nhận xét tính chất 3. Phần này xem như bài tập cho sinh viên. Minh họa tính chất 4: Để hiểu tính chất thứ 4, ta xét dạng đồ thị của hàm số H(p, 1-p ): Rõ ràng H(p, 1-p) là một hàm liên tục theo p. Định lý cực đại của entropy Định lý: H(p1, p2, ,pM)≤ log(M) Trong đó: đẳng thức xảy ra khi và chỉ khi p1= = pM= 1/M Bổ đề: cho 2 bộ {p1, p2, ,pM} và {q1, q2, ,qM} là các bộ số dương bất kỳ và M M ∑ pi = ∑ qi i=1 i=1 M M Khi đó, ta có H(p1, p2, ,pM)= − ∑ pi log 2 pi ≤ −∑ pi log 2 qi (*) i=1 i=1 Đẳng thức xảy ra khi pi=qi với ∀i=1, ,M. Chứng minh định lý cực đại của Entropy Chứng minh bổ đề: Theo toán học ta luôn có thể chứng minh được ln(x)≤ x-1 với x>0 và đẳng thức đúng khi x=1. Đặt x= qi/pi Suy ra ln(qi/pi)≤ qi/pi –1 (và đẳng thức đúng khi qi=pi với mọi i). M M qi ⇔ ∑ pi ln ≤ ∑(qi − pi ) = 1−1 = 0 i=1 pi i=1 M M ⇔ − ∑ pi ln pi ≤ −∑ pi lnqi (đẳng thức xảy ra khi qi=pi). (1) i=1 i=1 Theo toán học ta có lnx = log2x / log2e (2) M M Từ (1) và (2), ta có − ∑ pi log pi ≤ −∑ pi logqi (đẳng thức xảy ra khi qi=pi.) i=1 i=1 Chứng minh định lý: 1 Đặt qi , ∀i M Từ bổ đề, ta có: M M 1 M − ∑ pi log 2 pi ≤ −∑ pi log 2 = log 2 M ∑ pi = log 2 M i=1 i=1 M i=1 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 20
- Giáo trình: Lý thuyết thông tin. 1 và đẳng thức chỉ xảy ra khi pi= , ∀i (đpcm). M Bài tập Bài 1: Cho 2 biến ngẫu nhiên X, Y độc lập nhau có phân phối sau: X x1 x2 P 1/2 1/2 Y y1 y2 y3 y4 P 1/4 1/4 1/4 1/4 Tính H(X), H(Y). Bài 2: Kiểm tra lại kết quả của của bài 1 bằng tính chất 2. Bài 3: Cho biến ngẫu nhiên X có phân phối sau: X x1 x2 x3 x4 x5 x6 P 10% 20% 25% 25% 15% 5% Ta có thể gom các sự kiện x1, x2, x3 lại thành một sự kiện mới là x123 có xác suất xuất hiện là 55%, gom sự kiện x5 và x6 lại thành sự kiện x56 có xác suất 20%. Ta được một nhiến ngẫu nhiên mới X* có phân phối sau: * X x123 x4 x56 P 55% 25% 20% - Tính entropy của X, X* và kiểm tra lại tính chất 3. - Kiểm tra lại định lý cực đại từ dữ liệu cho trên. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 21
- Giáo trình: Lý thuyết thông tin. BÀI 2.3: ENTROPY CỦA NHIỀU BIẾN Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Hiểu biết các định nghĩa Entropy của nhiều biến và Entropy có điều kiện, - Hiểu mối quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y độc lập, - Hiểu mối quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y tương quan, - Vận dụng mối quan hệ gữa các Entropy để tính các Entropy một cách hiệu quả, - Vận dụng Entropy có điều kiện để làm cơ sở tính lượng tin trong bài học kế tiếp Định nghĩa Entropy của nhiều biến Giả sử: X và Y là 2 biến ngẫu nhiên cho trước với pịj = p(X=xi,Y=yj) (∀ i=1, ,M và j=1, ,L). Khi đó, Entropy H(X,Y) có dạng: M L H(X, Y) = −∑∑ p(xi , y j )log 2 p(xi , y j ) i==11j Hay M L H(X, Y) = −∑∑ pij log 2 pij i==11j Một cách tổng quát: H(x1 , , x n ) = - ∑ p(x1 , , xn )log 2 p(x1 , x2 , , xn ) X1 ,L,X n Ví dụ Entropy của nhiều biến Cho 2 BNN X và Y độc lập nhau và có các phân phối: X=1 0 1 P 0.5 0.5 Y 0 1 2 P 0.25 0.5 0.25 Tính H(X,Y). - Lập phân phối của P(X,Y) X,Y X=0,Y=0 X=0,Y=1 X=0,Y=2 X=1,Y=0 X=1,Y=1 X=1,Y=2 P(X,Y) 0.125 0.25 0.125 0.125 0.25 0.125 - H(X,Y) =H(0.125, 0.25, 0.125, 0.125, 0.25, 0.125)=2.5 (Bit) Định nghĩa Entropy có điều kiện Entropy của Y với điều kiện X=xi (i=1, ,M) được định nghĩa là: L H (Y / X = xi ) = −∑ p(y j / xi )log p(y j / xi ) j=1 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 22
- Giáo trình: Lý thuyết thông tin. Entropy của Y với điều kiện X xảy ra được định nghĩa là: M H (Y / X ) = ∑ p(xi )H (Y / X = xi ) i=1 Ví dụ Entropy có điều kiện Xét biến ngẫu nhiên X và biến ngẫu nhiên Y có tương quan nhau. Các phân phối như sau: X 1 . 2 P 0.5 0.5 Phân phối của Y có điều kiện X: Y/X=1 0 1 2 P 0.25 0.5 0.25 Y/X=2 0 1 2 P 0 0 1 Entropy của Y/X=1 và Y/X=2 như sau : H(Y/X=1)=H(0.25, 0.5 , 0.25)= -0.25 log0.25 – 0.5 log0.5-0.25 log0.25 =0.5 + 0.5 + 0.5= 1.5 (Bit) H(Y/X=2)= H(0; 0; 1)= 0 (Bit) Entropy của Y khi X xảy ra: H(Y/X)=P(X=1) H(Y/X=1)+ P(X=2) H(Y/X=2)=(0.5x1.5) + ((0.5x0)=0.75 (Bit). Quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y độc lập Định lý 1: H(X,Y)≤ H(X)+H(Y) và đẳng thức xảy ra khi X, Y độc lập Chứng minh: Ta có: L P(xi ) = ∑ p(xi , y j ) j=1 M P(yi ) = ∑ p(xi , y j ) i=1 M M L H (X ) = −∑∑p(xi )log 2 p(xi ) = − ∑p(xi , y j )log 2 p(xi ) i==11i j=1 L M L H (Y ) = −∑∑p(y j )log 2 p(y j ) = − ∑p(xi , y j )log 2 p(y j ) j==11i j=1 M L ⇒ H (X ) + H (Y ) = −∑∑ p(xi , y j )[log 2 p(xi ) + log 2 p(y j )] i==11j M L ⇒ H (X ) + H (Y ) = −∑∑p(xi , y j )[log2 p(xi ) p(y j )] (1) i==11j Đặt qij =p(xi)p(yj) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 23
- Giáo trình: Lý thuyết thông tin. M L M L ⇒ −∑∑ pij log 2 qij ≥ −∑∑pij log 2 pij (2) i==11j=i i j=1 Đẳng thức xảy ra khi p(xi, yj)=pij =qij =p(xi)p(yj) hay X , Y độc lập nhau. (Theo bổ đề định lý cực đại) Mặt khác: M L M L H (X ,Y ) = −∑∑ p(xi , y j )log 2 p(xi , y j ) = −∑∑ pij log 2 pij (3) i==11j i==1 j 1 Từ (1), (2) và (3), ta có H(X,Y)≤ H(X)+H(Y) và đẳng thức xảy ra khi X, Y độc lập (đpcm) Hệ quả: H(X1, , Xn) ≤ H(X1)+ +H(Xn) H(X1, Xn; Y1, ,Yn) ≤ H(X1, Xn)+ H(Y1, ,Yn) Quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y tương quan Định lý 2: H(X,Y)=H(X)+H(Y/X)=H(Y)+H(X/Y). Định lý 3: H(Y/X)≤ H(Y) và Dấu đẳng thức xảy ra khi và chỉ khi X và Y độc lập nhau. Chứng minh định lý 2: M L H(X, Y) = - ∑∑ p(xi , y j )log 2 p(xi , y j ) i==11j M L = - ∑∑ p(xi , y j )log 2 [ p(xi ).p(y j / xi )] i==11j M L M L = −∑∑∑ p(xi , y j )log 2 p(xi ) − ∑p(xi , y j )log 2 p(y j / xi ) i==11j=1 i j=1 = H(X) + H(Y/X) Tương tự ta có: H(X,Y)=H(Y)+H(X/Y) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 24
- Giáo trình: Lý thuyết thông tin. Chứng minh định lý 3: Từ định lý 1 và định lý về quan hệ giữa các Entropy, ta có: H(X,Y)=H(X)+H(Y/X)≤ H(X)+ H(Y) => H(Y/X) ≤ H(Y). H(X) H(Y) H(X/Y) H(Y/X) Sinh viên tự chứng minh Bài tập Xét BNN X và BNN Y có tương quan nhau. Các phân phối như sau: X 1 . 2 P 0.5 0.5 Phân phối của Y có điều kiện X: Y/X=1 0 1 2 P 0.25 0.5 0.25 Y/X=2 0 1 2 P 0 0 1 1. Tính các Entropy sau: H(X), H(Y). 2. Tính các Entropy có điều kiện sau: H(X/Y), H(Y/X). 3. Tính các Entropy sau: H(X,Y). 4. Từ kết quả câu 1,2 và 3 hãy minh họa các định lý 1, 2 và 3 cho bài học. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 25
- Giáo trình: Lý thuyết thông tin. BÀI 2.4: MINH HỌA CÁC ENTROPY Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết được Yêu cầu của bài toán, - Biết cách xác định các phân phối ngẫu nhiên của bài toán, - Vận dụng các bài học trước để tính các Entropy H(X), H(Y) và H(X,Y), - Vận dụng các bài học trước để tính các Entropy có điều kiện H(X/Y) và H(Y/X), - Nhận xét và so sánh quan hệ giữa các Entropy - Ngoài ra còn giúp bạn ôn tập và hiểu rõ hơn các công thức tính Entropy. Yêu cầu của bài toán Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chức chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Hay lượng tin biết và chưa biết của sự kiện lấy một đồng tiền từ 2 đồng tiền nói trên được hiểu như thế nào? Ta thử xét một trường hợp sau: nếu người tổ chức chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, ta có thể phán đoán được người tổ chức chơi đã lấy được đồng tiền nào. Chẳng hạn: Nếu số đầu hình đếm được sau 2 lần tưng là 1 thì đồng tiền đã lấy được là đồng tiền thật, ngược lại nếu số đầu hình đếm được là 2 thì đồng tiền đã lấy được có thể là thật hay cũng có thể là giả. Như vậy, ta đã nhận được một phần thông tin về loại đồng tiền qua số đầu hình đếm được sau 2 lần tung. Ta có thể tính được lượng tin đó bằng bao nhiêu? (Việc tính lượng tin này sẽ được thảo luận sau). Xác định các phân phối ngẫu nhiên của bài toán Đặt X là biến ngẫu nhiên về loại đồng tiền. Phân phối của X: X 1 2 P 0.5 0.5 Đặt biến ngẫu nhiên Y là số đầu hình đếm được sau 2 lần tung: Phân phối của Y khi nhận được đồng tiền có 1 mặt có đầu hình (Y/X=1) Y/X=1 0 1 2 P 0.25 0.5 0.25 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 26
- Giáo trình: Lý thuyết thông tin. Phân phối của Y khi nhận được đồng tiền có 2 mặt đều có đầu hình (Y/X=2) Y/X=2 0 1 2 P 0 0 1 Tìm phân phối của Y: P(Y=0) = p(X=1)p(Y=0/X=1)+p(X=2)p(Y=0/X=2) = 0,5 x 0,25 +0,5 x 0 =0.125 P(Y=1) = p(X=1)p(Y=1/X=1)+p(X=2)p(Y=1/X=2) = 0,5 x 0,5 +0,5 x 0 =0.250 P(Y=2) = p(X=1)p(Y=2/X=1)+p(X=2)p(Y=2/X=2) = 0,5 x 0,25 + 0,5 x 1=0.625 Y 0 1 2 P 0.125 0.25 0.625 Minh họa Entropy H(X), H(Y) và H(X,Y) Entropy của X: H(X) = H(0.5, 05) = -(0.5)log(0.5) -(0.5)log(0.5) = 1 (bit) Entropy của Y: H(X) = H(0.125, 0.25, 0.625) = -(0.125)log(0.125) + (0.25)log(0.25) + (0.625)log(0.625) = 1.2988 (bit) Entropy của X và Y: H(X,Y) Xem như bài tập dành cho các bạn sinh viên Entropy của Y/X là trung bình của các entropy Y/X=xi. M Vậy, Entropy của Y có điều kiện X: H(Y/X)= ∑ p(xi ).H (Y / X = xi ) i=1 Tương tự: H(Y,Z/X), H(Z/X,Y) Minh họa Entropy H(X/Y) và H(Y/X) Tính Entropy của Y khi biết X: H(Y/X) H(Y/X=1) = H(0.25, 0.5 , 0.25) = -(0.25log0.25 + 0.5log0.5 + 0.25log0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= 0 H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2)= 0.5 x 1.5 + 0.5 x 0= 0.75 (bit) Tính Entropy của X khi biết Y: H(X/Y) Xem như bài tập dành cho các bạn sinh viên (Gợp ý: bạn nên lập các phân phối cho các trường hợp (X/Y=0), (X/Y=1) và (X/Y=2). Minh họa quan hệ giữa các Entropy Xem như bài tập dành cho các bạn sinh viên. Gợi ý: sau khi bạn tính H(X,Y) và H(X/Y), bạn dựa vào các định lý 1,2 và 3 cùng với các kết quả đã tính được để so sánh và minh họa. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 27
- Giáo trình: Lý thuyết thông tin. BAI 2.5: ĐO LƯỢNG TIN (MESURE OF INFORMATION) Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết bài toán tính lượng tin, - Hiểu định nghĩa lượng tin, - Biết cách tính lượng tin, - Có thể vận dụng để tính lượng tin cho các bài toán tương tự. Đặt vấn đề bài toán Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Ta thử xét một trường hợp sau: nếu người chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, hãy tính lượng tin về loại đồng tiền lấy được là bao nhiêu? Xác định các phân phối của bài toán Đặt biến ngẫu nhiên X là loại đồng tiền, khi đó phân phối của X có dạng : X 1 2 P 0.5 0.5 Đặt biến ngẫu nhiên Y là số đầu hình đếm được sau 2 lần tung. Khi đó ta có thể xác định được phân phối của Y trong 2 trường hợp sau. Trường hợp 1: Phân phối của Y khi biết đồng tiền là thật (X=1) có dạng: Y/X=1 0 1 2 P 0.25 0.5 0.25 Trường hợp 2: Phân phối của Y khi biết đồng tiền là giả (X=2) có dạng: Y/X=2 0 1 2 P 0 0 1 Ta có thể tính dễ dàng phân phối của Y như sau: Y 0 1 2 P 0.125 0.25 0.625 Nhận xét dựa theo entropy Từ các bảng phân phối trên, ta có: Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 28
- Giáo trình: Lý thuyết thông tin. Entropy của Y: H(Y) = H(0.125, 0.25, 0.625) = 1.3 (bit) Entropy của Y khi biết X H(Y/X=1) = H(0.25, 0.5 , 0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= 0 H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2) = 0.75 (bit) Vậy, H(Y) > H(Y/X) Định nghĩa lượng tin Từ nhận xét về quan hệ giữa các entropy ở trên, ta có thể định nghĩa lượng tin như sau: Định nghĩa: Lượng tin (hay thông lượng) của X khi Y xảy ra là lượng chênh lệch giữa lượng không chắc chắn của X và lượng không chắc chắn của X khi Y xảy ra có quan hệ với X. Ta có thể hiểu khái niệm này như sau: X và Y là 2 biến ngẫu nhiên nên chúng có 2 lượng tin không chắc chắn. Nếu X và Y độc lập, thì X xảy ra không ảnh hưởng tới Y nên ta vẫn không biết gì thêm về X và X giữ nguyên lượng không chắc chắn của nó. Trong trường hợp này lượng tin về X khi Y xảy ra là bằng 0. Nếu Y có tương quan với X thì khi Y xảy ra ta biết hoàn toàn về Y và một phần thông tin về X. Phần thông tin đó chính là lượng tin đã biết về X nhưng vẫn chưa biết hết về X. Bài toán ở đây là tính lượng tin đã biết về X khi Y xảy ra. Ký hiệu: I(X/Y) = H(X)-H(X/Y) là lượng tin đã biết về X khi Y đã xảy ra. Chú ý: ta luôn có I(X/Y) = I(Y/X) Ví dụ: xét lại ví dụ trên, ta có lượng tin về X khi biết Y là I(X/Y)= I(Y/X)= H(Y) – H(Y/X) = 1.3 – 0.75=0.55 (bit). Bài tập 1. Thực hiện một phép thử con xúc sắc đồng chất đồng thời với một đồng tiền cũng đồng chất. Trong đó, con xúc sắc có các mặt điểm từ 1 đến 6, đồng tiền một mặt có đầu hình và mặt kia không có đầu hình. Trước tiên thử con xúc sắc, nếu số điểm ≤ 4 thì tung đồng tiền một lần, ngược lại thì tung đồng tiền hai lần. Tính lượng tin về số điểm con xúc sắc khi biết thông tin về số đầu hình đếm được. 2. Người ta thực hiện một khảo sát trên các sinh viên đại học về mối quan hệ giữa khả năng học tập với sở hữu phương tiện đi lại và tinh thần ái hữu. Kết quả cho thấy: Trong tổng số sinh viên có 3/4 sinh viên hoàn thành chương trình học và 1/4 không hoàn thành. Trong số sinh viên hoàn thành chương trình học, 10% có xe con. Ngược lại, trong số sinh viên không hoàn thành chương trình học có tới 50% có xe con. Tất cả sinh viên có xe con đều tham gia hội ái hữu sinh viên. Trong số sinh viên không có xe con (kể cả hoàn thành hay không hoàn thành khóa học) thì 40% sinh viên tham gia hội ái hữu sinh viên. a. Tìm thông tin về trạng thái học tập của sinh viên khi biết điều kiện về phương tiện đi lại của họ. b. Tìm thông tin về tình trạng học tập của sinh viên khi biết tinh thần ái hữu của họ. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 29
- Giáo trình: Lý thuyết thông tin. 3. Những người dân của một làng được chia làm 2 nhóm A và B. Một nửa nhóm A chuyên nói thật, 3/10 nói dối và 2/10 từ trối trả lời. Trong nhóm B: 3/10 nói thật, 1/2 nói dối và 2/10 từ trối trả lời. Giả sử p là xác suất chọn 1 người thuộc nhóm A và I(p) = I(Y/X) là lượng tin về người nói thật sau khi đã chọn nhóm, tính I(p), tìm p* sao I(p*) = Max(I(p) và tính I(p*). Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 30
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 3: SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) Mục tiêu: Phân này đề cập đến bài toán mã hóa (coding) các giá trị của một biến X. Khi mã các giá trị của X người ta phải sử dụng bảng ký tự mã (Coding Character Table) hay bảng chữ cái (Code Alphabet). Như vậy, một giá trị x của X sẽ được mã thành một từ mã (Code Word) w dưới dạng một dãy các ký tự mã với độ dài là n ký tự. Trong truyền tin, một dãy các giá trị của X được phát sinh và được mã thành một dãy liên tục các từ mã hay một dãy các ký tự mã lấy từ bảng ký tự mã. Vấn đề cần giải quyết là: 1. Khi nhận một dãy ký tự mã liên tục đó thì ta có thể giải mã thành một dãy các giá trị duy nhất của X hay không ? Nói cách khác, dãy ký tự mã này có tách được thành các từ mã một cách duy nhất hay không ? 2. Chỉ ra phương pháp xây dựng mã tách được tối ưu. BÀI 3.1: KHÁI NIỆM VỀ MÃ TÁCH ĐƯỢC Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết yêu cầu của bài toán sinh mã, - Hiểu khái niệm về bảng mã tách được và bảng mã không tách được, - Hiểu khái niệm về bảng mã tức thời, - Hiểu giải thuật kiểm tra tính tách được của một bảng mã, - Vận dụng giải thuật kiểm tra tính tách được của một bảng mã để kiểm tra xem một bảng mã có phải là bảng mã tách được hay không. Đặt vấn đề bài toán sinh mã Giả sử nguồn tin X xuất hiện và được ghi lại thông qua một thiết bị đặc biệt. Chẳng hạn như ảnh được ghi lại bằng máy ảnh, âm thanh được ghi lại bằng máy ghi âm, Qua kênh truyền, những thông tin này cần phải được mã hóa cho phù hợp. Để có thể mã hóa người ta cần một bảng chữ cái gồm các chữ cái quy định trước (chẳng hạn bảng chữ cái la tinh, bảng mã nhị phân, ). Mỗi giá trị của X sau đó được mã dưới dạng một dãy hữu hạn các chữ cái và ta gọi dãy hữu hạn các chữ cái gán cho một giá trị của x là một từ mã. Ta xét BNN X={x1, x2, ,xn} có phân phối {p1, p2, , pn} được quan sát liên tục và độc lập. Dãy các giá trị nhận được gọi là thông báo (Message) có dạng xi1xi2 xin. Tập hợp A={a1, a2, , an} là tập hợp ký tự mã (Code Characters) hay là bảng chữ cái (Code Alphabet) dùng để sinh mã. Một giá trị xi ∈ X được gán bởi một dãy hữu hạn các ký tự mã được gọi là từ mã (Code word). Tập hợp gồm tất cả các từ mã gán cho tất cả các giá trị của X được gọi là bộ mã hay bảng mã (Code). Các từ mã phải khác nhau từng đôi một. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 31
- Giáo trình: Lý thuyết thông tin. Bộ mã được gọi là tách được nếu như từ một dãy các ký tự mã nhận được liên tục (được mã hóa từ bộ mã này), ta luôn luôn giải mã được với kết quả duy nhất là dãy các giá trị gốc của X. Shannon (1948) lần đầu tiên đã đưa ra định lý cơ sở về sinh mã tách được. Mc Millan (1956) đã chứng minh định lý về điều kiện cần và đủ của bảng mã tách được. Nhưng vấn đề sinh mã tách được chỉ được xét một cách chuẩn mực bởi Feinstein (1958), Abramson (1963) và Fano (1961). Sardinas(1960) và Patterson (1963) đã đưa ra định lý về giải thuật kiểm tra tính tách được của một bảng mã. Abramson (1963) đã đưa ra khái niệm bảng mã tức thời. Trong phạm vi bài giảng này, bài toán sinh mã tối ưu được đặt ra ở đây là tìm ra một phương pháp sinh mã sao cho độ dài trung bình của các từ mã trong bộ mã là nhỏ nhất. Nghĩa là, nếu giá trị xi được gán bởi từ mã có độ dài ni thì bài toán sinh mã phải thỏa: n ∑ pi ni → Min i=1 Huffman (1950) đã đưa ra qui trình xây dựng một bảng mã tối ưu thỏa yêu cầu này. Khái niệm về bảng mã không tách được Bảng mã không tách được là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được một dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta có thể nhận được nhiều thông báo Msg khác nhau. Ví dụ: Xét biến ngẫu nhiên X={x1, x2, x3, x4} có bảng mã W={w1=0, w2=1, w3=01, w4=10}. Giả sử thông báo nguồn có nội dung: x1x2x3x4x3x2x1. Khi đó dãy mã tương ứng viết từ W có dạng: 0101100110. Nếu giải mã tuần tự từ trái qua phải ta nhận kết quả: x1x2x1x2x2x1x1x2x2x1. Nhưng nếu bằng phương pháp khác ta có thể nhận được kết quả: x3x3x4x3x4 và nhiều thông báo khác nữa. Nhận xét: Bảng mã giải mã không tách được là bảng mã mà trong đó tồn tại ít nhất một từ mã này là mã khóa của một hay nhiều từ mã khác trong bộ mã (ví dụ từ mã w1=0 hay w2=1 là mã khóa của w3). Bảng mã tách được Bảng mã tách được là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta chỉ nhận được một thông báo duy nhất là Msg ban đầu. Ví dụ: Xét biến ngẫu nhiên X={x1, x2} có bảng mã tương ứng W={w1=0, w2=01}. Phương pháp giải mã được sử dụng như sau: chỉ giải mã khi nào đã nhận được đoạn mã với độ dài bằng độ dài của từ mã dài nhất. Giả sử dãy mã nhận được (cần giải mã) là: 0010000101001. Sử dụng phương pháp giải mã trên ta nhận được duy nhất dãy thông báo gốc: x1x2x1x1x1x2x2x1x2. Có thể chi tiết hóa các bước giải mã dãy từ mã trên như sau: Nhận được đoạn 00 -> Giải ra x1 , còn lại 0. Nhận tiếp 1 ->01 -> Giải ra x2. Nhận tiếp 00 -> Giải ra x1, còn lại 0. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 32
- Giáo trình: Lý thuyết thông tin. Nhận tiếp 0 -> 00 -> Giải ra x1, còn lại 0. Nhận tiếp 0 -> 00 -> Giải ra x1, còn lại 0. Nhận tiếp 1 -> 01 -> Giải ra x2. Nhận tiếp 01 -> Giải ra x2. Nhận tiếp 00 -> Giải ra x1, còn lại 0. Nhận tiếp 1 -> 01 -> Giải ra x2. Kết quả dãy thông báo là: x1x2x1x1x1x2x2x1x2. Kết luận: Bảng mã tách được là bảng mã mà trong đó không tồn lại từ mã này là mã khóa từ mã khác, tuy nhiên vẫn có thể tồn tại từ mã này là tiền tố (phần đầu) của từ mã kia. Khái niệm bảng mã tức thời Bảng mã tức thời là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta chỉ nhận được một thông báo duy nhất là Msg ban đầu. Abramson đã chứng minh được kết quả sau: Bảng mã tức thời là bảng mã không tồn tại từ mã này là tiền tố của từ mã khác. Ví dụ 1: Bảng mã W={w1=10; w2=101; w3=100} không phải bảng mã tức thời vì w1 là tiền tố của w2 và w3. Ví dụ 2: Bảng mã W={w1=0, w2=100, w3=101, w4=11} là bảng mã tức thời vì không tồn tại từ mã này là tiền tố của từ mã khác. Giải thuật kiểm tra tính tách được của bảng mã Thủ tục sau đây do Sardinas (1960), Patterson (1963) và Abramson (1963) đưa ra nhằm kiểm tra xem một bảng mã nào đó có phải là bảng mã tách được (bảng mã cho phép giải mã duy nhất) hay không. Input: Bảng mã W Output: Kết luận bảng mã tách được hay không tách được. Giải thuật: Bước khởi tạo: Gán tập hợp S0=W. Bước 1: xác định tập hợp S1 từ S0: - Khởi tạo S1={} - Với ∀ wi, wj ∈ S0, ta xét: nếu wi=wjA (wj là tiền tố của wi) hoặc wj=wi A (wi là tiền tố của wj) thì thêm A (phần hậu tố) vào S1. Bước k: xác định tập hợp Sk (k≥2) từ tập hợp S0 và Sk-1: - Khởi tạo: Sk={} - Với ∀ wi∈ S0 và ∀ vj ∈Sk-1, ta xét: nếu wi=vjA (vj là tiền tố của wi) hoặc vj=wi A (wi là tiền tố của vj) thì thêm A (phần hậu tố) vào Sk. Điều kiện để dừng vòng lặp: Nếu Sk={} thì dừng và kết luận bảng mã tách được (k≥1). Nếu tồn tại từ mã wi trong Sk hay Sk ∩S0 ≠ ∅ thì dừng và kết luận bảng mã không tách được. Nếu Sk=St<k thì dừng và kết luận bảng mã tách được (k≥1). Bài toán 1- yêu cầu Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 33
- Giáo trình: Lý thuyết thông tin. Bài toán: Kiểm tra xem bảng mã W={a, c, ad, abb, bad, deb, bbcde} có phải là bảng mã tách được hay không? Áp dụng Giải thuật kiểm tra tính tách được của một bảng mã: Bước khởi tạo: S0={a, c, ad, abb, bad, deb, bbcde} Bước 1: Tính S1 Khởi tạo S1={} Vì a là tiền tố của ad nên đưa phần hậu tố “d” vào S1 => S1={d}. Vì a là tiền tố của abb nên đưa phần hậu tố “bb” vào S1 => S1={d, bb}. Kiểm tra điều kiện dừng: không thỏa -> qua bước 2. Bước 2: Tính S2 từ S0 và S1. Khởi tạo S2={}. Vì d ∈ S1 là tiền tố của deb ∈ S0 nên đưa phần hậu tố “eb” vào S2 => S2={eb} Vì bb∈ S1 là tiền tố của bbcde ∈ S0 nên đưa phần hậu tố “cde” vào S2 => S2={eb, cde} Kiểm tra điều kiện dừng: không thỏa -> qua bước 3. Bài toán 1 - Áp dụng giải thuật Bước 3: Tính S3 từ S0 và S2. Khởi tạo S3={}. Vì c∈ S0 là tiền tố của cde ∈ S2 nên đưa phần hậu tố “de” vào S3 => S3={de} Kiểm tra điều kiện dừng: không thỏa -> qua bước 4. Bước 4: Tính S4 từ S0 và S3. Khởi tạo S4={}. Vì de∈ S3 là tiền tố của deb ∈ S0 nên đưa phần hậu tố “b” vào S4 => S4={b} Kiểm tra điều kiện dừng: không thỏa -> qua bước 5. Bước 5: Tính S5 từ S0 và S4. + khởi tạo S5={}. + Vì b∈ S4 là tiền tố của bad ∈ S0 nên đưa phần hậu tố “ad” vào S5 => S5={ad} + Vì b∈ S4 là tiền tố của bbcde ∈ S0 nên đưa “bcde” vào S5 => S5={ad, bcde} Kiểm tra điều kiện dừng: Vì S5 có chứa từ mã ad nên dừng lại và kết luận đây là bảng mã không tách được. Bài toán 2 Bài toán: Kiểm tra xem bảng mã W={010, 0001, 0110, 1100, 00011, 00110, 11110, 101011} có phải là bảng mã tách được không? Áp dụng Giải thuật kiểm tra tính tách được của một bảng mã: Bước khởi tạo và bước 1 - Tập hợp S0 ={010, 0001, 0110, 1100, 00011, 00110, 11110, 101011} - Tập hợp S1 ={1} Dành cho sinh viên tự làm các buớc tiếp theo. Kết quả gợi ý: Tập hợp S2 ={100, 1110, 01011} Tập hợp S3={11} Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 34
- Giáo trình: Lý thuyết thông tin. Tập hợp S4={00, 110} Tập hợp S5={01, 0, 011, 110} Tập hợp S6={0, 10, 001, 110, 0011, 0110} Tập hợp S6 chứa từ mã 0110 nên bảng mã này không phải là bảng mã tách được. Bài tập 1. Hãy cho biết bảng mã sau có phải là bảng mã tách được hay không? W={w1=00, w2=01, w3=0010, w4=0111, w5=0110} 2. Hãy lấy ví dụ một bảng mã tách được, và chứng minh nó là bảng mã tách được. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 35
- Giáo trình: Lý thuyết thông tin. BÀI 3.2: QUAN HỆ GIỮA MÃ TÁCH ĐƯỢC VÀ ĐỘ DÀI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể hiểu: - Định lý Kraft (1949), - Định nghĩa cây bậc D cỡ K, - Vấn đề sinh mã cho cây bậc D cỡ K, - Vận dụng định lý Kraff để kiểm tra sự tồn tại bảng mã tách được và sinh bảng mã tách được. Định lý Kraftn(1949). Gọi X={x1, x2, , xM} là biến ngẫu nhiên chứa các giá trị cần truyền có phân phối là P={p1, p2, , pM}. A={a1, a2, ,aD} là bộ ký tự sinh mã có D chữ cái (D được gọi là cơ số sinh mã). Giá trị xi được mã hóa thành từ mã wi có độ dài là ni. Đặt N={n1, n2, ,nM} là tập hợp độ dài các từ mã. Định lý (Kraft- 1949): Điều kiện cần và đủ để tồn tại bảng mã tức thời với độ dài N={n1,n2, ,nM} là M ∑ D −ni ≤ 1 i=1 Ví dụ 1: Bộ mã W={w1, w2, w3} với M=3; n1=1; n2=2; n3=3; D=2 M 1 1 1 7 D −ni = + + = Tồn tại bảng mã tức thời. Ví dụ 2: Bộ mã W={w1, w2, w3} với M=3; n1=n2=1; n3=2; D=2 M 1 1 1 5 D −ni = + + = > 1 ∑ 1 1 2 i=1 2 2 2 4 => Không tồn tại bảng mã tức thời. Đề nghị: sinh viên tìm hiểu nội dung tiếp theo và trở lại giải thích 2 ví dụ trên. Định nghĩa cây bậc D cỡ k. Định nghĩa: Cây bậc D cỡ k là cây có hệ thống nút, cạnh thỏa điều kiện: - Từ 1 nút có số cạnh đi ra không vượt quá D hay một nút có không quá D nút con. - Nút cuối cùng (Nút lá) cách nút gốc không vượt quá k cạnh. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 36
- Giáo trình: Lý thuyết thông tin. Ví dụ: cây bậc D=2 và cỡ k=3 Vấn đề sinh mã cho cây bậc D cỡ k Sinh mã cho các nút của cây bậc D cỡ K (trừ nút gốc): Để đơn giản hóa: mỗi nút (trừ nút gốc) được ký hiệu bởi dãy ký hiệu của nút cha làm tiền tố + một ký tự bổ sung lấy từ tập hợp {0, 1, 2, , D-1} thay cho bảng chữ cái A={a1, a2, , aD}. Ví dụ 1: Cây bậc D=2 cỡ k=3 Ví dụ 2: Cây bậc D=3 cỡ k=2. 00 000 00 0 0 001 01 01 02 010 10 011 1 11 10 100 1 12 101 2 20 11 110 21 111 22 Tính chất: + Các nút (trừ nút gốc) của cây đều được mã hóa từ bảng chữ cái {0, 1, 2, , D-1} + Mỗi nút (đã mã hóa) có mã của nút kề trước là tiền tố. + Tổng số các nút lá bằng Dk = tổng số các mã tức thời có thể có. Chứng minh định lý Kraft (Điều kiện cần) Giả sử, cho trước bảng mã tức thời W={w1, w2, , wM} với N={n1≤ n2 ≤ ≤ nM}. Ta cần c/m: M ∑ D −ni ≤ 1 i=1 Xây dựng cây bậc D cỡ nM và sinh mã cho các nút trừ nút gốc với các ký tự mã lấy từ bảng chữ cái A = {0, 1, 2, , D-1}. Mã tại mỗi nút (trừ nùt gốc) đều có khả năng được chọn là từ mã. Như vậy, ta tiến hành chọn các từ mã cho bảng mã tức thời với qui tắc là: một nút nào đó được chọn để gán một từ mã thì tất cả các nút kề sau nút gán từ mã phải được xóa. Cụ thể như sau: Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 37
- Giáo trình: Lý thuyết thông tin. Chọn một nút có mã với độ dài mã là n1 gán cho nó một từ mã w1. n −n => Tổng số nút lá được xóa tương ứng là D M 1 Chọn một nút có mã với độ dài mã là n2 gán cho nó một từ mã w2. n −n => Tổng số nút lá được xóa tương ứng là D M 2 Chọn một nút có mã với độ dài mã là nn gán cho nó một từ mã wn. => số nút lá được gán từ mã là D nM −nM Vậy số nút lá bị xóa hoặc được gán từ mã là: M nM −n1 nM −n1 nM −nM nM −ni nM => D + D +L + D = ∑ D ≤ D = tổng số nút lá. i=1 M => ∑ D −ni ≤ 1 (đpcm) i=1 Chứng minh định lý Kraft (Điều kiện đủ) M −ni Giả sử: ∑ D ≤ 1, để cần chứng minh tồn tại bảng mã tức thời với N={n1, n2, , nM}, ta chỉ i=1 cần chỉ ra thủ tục xây dựng bảng mã tức thời như sau: Thủ tục tạo mã tức thời: Xét N={n1, n2, ,nM} và cơ số sinh mã là D: Bước 1: Ta xếp thứ tự n1≤ n2 ≤ ≤ nM, xây dựng cây bậc D cỡ k=nM và sinh mã cho các nút . Bước 2: Chọn nút bất kỳ trên cây có độ dài n1 gán cho từ mã w1 và xóa tất cả các nút kề sau nó. Bước 3: Lặp lại các bước 2 đối với việc chọn các từ mã còn lại w2, , wM ứng với n2, , nM. => Bảng mã W={w1, w2, , wM} là bảng mã tức thời. Ví dụ minh họa định lý Kraft Ví dụ 1: Xét bảng mã thỏa M=3, D=2, n1=1, n2=2, n3=3. Vậy ta kiểm tra xem có tạo được bảng mã tức thời hay không? 3 −n 7 Ta có ∑ 2 i = 2−1 + 2−2 + 2−3 = W= {w1, w2, w3} là bảng mã tức thời Ta Xây dựng bảng mã như sau: 00 000 001 w = 0 - Chọn w1=0 , cắt bỏ các nút con của nút w1. 1 - Chọn w2=10, cắt bỏ các nút con của nút 01 010 w2. 011 - Chọn w3=111 10 100 w2= 1 101 11 110 111 w3= Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 38
- Giáo trình: Lý thuyết thông tin. Chú ý: ngoài bảng mã tức thời chọn được ở trên, ta còn có thể sinh được nhiều bảng mã tức thời khác. Đề nghị sinh viên đưa ra bảng mã tức thời khác. Bài tập 1. Tìm 1 bảng mã tách được thỏa tính chất D = 2, k = 4? 2. Tìm tất cả các bảng mã tách được thỏa tính chất D=2, k=3? 3. Hãy chỉ ra bảng mã sau đây là bảng mã không tách được: W={w1=00, w2=1, w3=100, w4=110, w5=111} 4. Hãy tìm một bảng mã nhị phân tách được có ít nhất 5 từ mã thỏa điều kiện M ∑ D −ni = 1 i=1 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 39
- Giáo trình: Lý thuyết thông tin. BÀI 3.3: TÍNH TỐI ƯU CỦA ĐỘ DÀI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Hiểu định lý Shannon (1948), - Biết được các tiêu chuẩn đánh giá bảng mã tối ưu tuyệt đối và bảng mã tối ưu tương đối, - Điều kiện nhận biết một bảng mã tối ưu, - Hiểu Định lý Huffman, - Biết Phương pháp sinh mã Huffman, - Vận dụng phương pháp sinh mã Huffman để sinh mã Huffman cho một thông báo, - Vận dụng phương pháp sinh mã Huffman để viết chương trình nén. Định lý Shannon (1948) Phát biểu định lý: M Đặt n = ∑ pi ni là độ dài trung bình của bảng mã. i=1 H (X ) Khi đó n ≥ log 2 D M −n −ni i Dấu đẳng thức xảy ra khi và chỉ khi pi = D hay ∑ D = 1 i=1 H (X ) Diễn giải: Đối với mã tách được độ dài trung bình của mã sẽ có cận dưới là . Nếu mã log2 D không tách được độ dài trung bình của nó có thể nhỏ hơn cận dưới. Nếu mã tách được không tối ưu thì độ dài của nó sẽ lớn hơn nhiều so với cận dưới, còn nếu mã tách được tối ưu thì độ dài trung bình của nó gần với cận dưới. Bài toán đặt ra sẽ là tìm phương pháp xây dựng bảng mã tách được tối ưu. Chú ý: (X) = − p log p H D ∑ i D i H (X ) − p log p (X ) = = ∑ i 2 i H D log2 D log2 D là entropy của X với cơ số D. Bảng mã tối ưu tuyệt đối H (X ) −ni Định lý: Bảng mã được gọi là tối ưu tuyệt đối khi n = D hay pi = D log 2 Ví dụ: xét biến ngẫu nhiên X={x1, x2, x3, x4} Có phân phối: P={1/2, 1/4, 1/8, 1/8} Có bảng mã W={w1= 0, w2=10, w3=110, w4=111} 1 1 1 1 12 Ta tính được độ dài trung bình từ mã: n = *1+ *2 + *3 + *3 = =1.75 2 4 8 8 8 Tính Entropy của X: H(X)= H(0.5, 0.25, 0.125, 0.125) = 0.5 +0.5 + 0.375 + 0.375 =1.75 Log2D=1. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 40
- Giáo trình: Lý thuyết thông tin. 000 W= {w1, w2, w3, w4} là bảng mã tối ưu 00 tuyệt đối vì thỏa điều kiện: 001 H (X ) n = 0 010 log D 01 2 w1 011 10 100 w 1 2 101 11 110 w3 111 w4 Bảng mã tối ưu tương đối H (X ) H (X ) Định lý: Bảng mã được gọi là tối ưu tương đối khi: ≤ n 2 được xét tương tự. Định lý Huffman Định lý: Giả sử X có phân phối xác suất với thứ tự giảm dần sau: X x1 x2 xM P p1≥ p2 ≥ ≥ pM Giả sử bảng mã của X là W={w1, w2, , wM-1, wM}. Đặt xM-1,M={xM-1, xM} có xác suất là pM-1,M=pM-1+pM. * và X = { x1, x2, , xM-1,M} có phân phối sau: X* x1 x2 x*M-2 x*M-1,M P P1 p2 p*M-2 p*M-1,M Giả sử W* ={w1, w2, , wM-2, x*M-1,M} là bảng mã tối ưu của X*. Khi đó: - wM-1=w*M-1,M + “0”. - wM =w*M-1,M + “1”. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 41
- Giáo trình: Lý thuyết thông tin. Phương pháp sinh mã Huffman Giả sử X có phân phối xác suất với thứ tự giảm dần sau: X x1 x2 xM P p1≥ p2 ≥ ≥ pM Thủ tục lùi (D=2): Khởi tạo: Đặt M0=M Bước 1: - Đặt xM −1,M = {xM −1 , xM } có xác suất pM −1,M = pM −1 + p 0 0 0 0 0 0 0 M 0 - Sắp xếp lại theo tứ tự giảm dần của xác suất ta nhận được dãy phân phối mới có M0-1 phần tử như sau: p , p , , p , p 1 2 L M 0 −2 M 0 −1,M 0 Bước 2: Lặp lại bước 1 với sự lưu vết wM −1 = wM −1,M +"0" 0 0 0 w = w +"1" M 0 M 0 −1,M 0 Giảm M0: M0=M0-1, vòng lặp kết thúc khi M0=2 (Chú ý: trong trường hợp tổng quát, vong lặp kết thúc khi M0 ≤ D.) Thủ tục tiến: Đi ngược lại so với thủ tục lùi đồng thời xác định từ mã ở mỗi bước từ sự lưu vết ở thủ tục lùi. Minh họa phương pháp sinh mã Huffman Ví dụ 1: sinh bảng mã nhị phân Huffman cho X có phân phối sau: X x1 x2 x3 x4 x5 x6 P 0.3 0.25 0.2 0.1 0.1 0.05 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 42
- Giáo trình: Lý thuyết thông tin. Thủ tục lùi: Bước 1 Bước 2 Bước 3 Bước 4 Bước 5 X P X P X P X P X P x1 0.3 x1 0.3 x1 0.3 x23 0.45 x1564 0.55 0 x2 0.25 x2 0.25 x564 0.25 x1 0.3 0 x23 0.45 1 x 0.2 x 02 x 0,25 x 0.25 3 3 2 0 564 1 x4 0.1 x56 0.15 0 x3 0.2 1 x5 0.1 0 x4 0.1 1 x6 0.05 1 Thủ tục tiến: Bước 1 Bước 2 Bước 3 Bước 4 Bước 5 X W X W X W X W X W x1564 0 x23 1 x1 00 x1 00 x1 00 = w1 x23 1 x1 00 x564 01 x2 10 x2 10 = w2 x564 01 x2 10 x3 11 x3 11 = w3 x3 11 x56 010 x4 011 = w4 x4 011 x5 0100 = w5 x6 0101 = w6 Nhận xét tính tối ưu của bảng mã Huffman Vẽ cây Huffman của bảng mã trên: 00=w1 0100=w5 0 010 01 0101=w6 011=w 1 10=w2 Độ dài trung bình của từ mã: 11=w n =(0.3 x 2)+ (0.25 x 2)+ (0.2 x 2) + (0.1 x 3) +(0.1 x 4) + (0.05 x 4) = 2.4 Entropy của X: H(X) = H(0.3, 0.25; 0.2, 0.1,0.1, 0.05) = 2.4 Nhận xét: Do D = 2 và log2D=1, Ta có n = H(X) nên bảng mã trên tối ưu tuyệt đối. Bài tập 1. Cho biến ngẫu nhiên X có phân phối sau: X x1 x2 x3 x4 P 0.4 0.3 0.2 0.1 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 43
- Giáo trình: Lý thuyết thông tin. 2. Cho biến ngẫu nhiên Y có phân phối sau: Y y1 y2 y3 y4 y5 y6 y7 y8 y9 P 0.3 0.2 0.2 0.1 0.05 0.05 0.04 0.03 0.03 3. Cho đoạn văn bản “thoi the thi thoi thi the thoi thi the”. Tìm bảng mã nhị phân Huffman dùng để mã hóa đoạn văn bản trên. 4. Thay từng ký tự trong đoạn văn bản trên thành một từ mã, cắt từng đoạn 8 bits đổi thành số thập phân. Cho biết dãy số thập phân kết quả. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 44
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 4: KÊNH TRUYỀN Mục tiêu: Trình bày mô hình truyền tin rời rạc từng ký tự mã độc lập lẫn nhau (phù hợp với đặc điểm của kênh). Mô hình này còn gọi là kênh truyền rời rạc không nhớ (Memoryless Discret Channel). Từ mô hình này người ta có thể xây dựng cách tính dung lượng kênh truyền và phương pháp phân loại đầu nhận để có thể giải mã tốt nhất. BÀI 4.1: KÊNH TRUYỀN RỜI RẠC KHÔNG NHỚ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết mô hình kênh truyền tin rời rạc không nhớ ở 2 khía cạnh vật lý và toán học. - Khái niệm về lượng tin trên kênh truyền - Định nghĩa dung lượng kênh truyền Giới thiệu Trước hết, ta có thể hiểu khái niệm kênh truyền rời rạc và không nhớ ở bài học này như sau: khái niệm truyền rời rạc ở đây là truyền tuần tự các ký tự độc lập nhau (hay truyền từng ký tự một), còn khái niệm không nhớ ở đây là chỉ xét mối quan hệ giữa ký tự truyền và ký tự nhận được tương ứng, không xét đến mối quan hệ giữa ký tự nhận được với ký tự nhận được trước đó. Khái niệm về một kênh truyền rời rạc dựa vào phân bố xác suất của tín hiệu ra phụ thuộc vào tín hiệu vào và trạng thái của kênh truyền đã được chuẩn hóa bởi Feinstein (1958) và Wolfowitz (1961). Dung lượng kênh (Channel Capacity) được xác định chính xác nhờ Muroya (1953) và Fano (1961). Giải thuật và chương trình tính dung lượng kênh đã được viết bởi Eisenberg (1963). Định lý cơ bản về truyền tin đã chỉ ra rằng “với dung lượng kênh cho trước luôn có thể tìm ra một phương pháp truyền tin với lượng tin nhỏ hơn dung lượng kênh và đạt sai số nhỏ hơn sai số cho phép bất kỳ”. Định lý cơ bản về truyền tin đã được Feinstein (1954, 1958) khảo sát. Các nhà khoa học Blackwell, Breinan (1958, 1959) và Thomasian (1961) đã lần lượt chỉnh lý để đạt chuẩn tốt hơn. Trong các nội dung tiếp theo của bài học, các bạn sẽ tìm hiểu về mô hình kênh truyền tin rời rạc không nhớ ở khia cạnh vật lý và toán học. Đặc biệt ở mô hình toán học sẽ chỉ ra cách xác định phân phối ở đầu ra dựa vào phân phối ở đầu vào. Mô hình vật lý Một thông báo được cấu tạo từ các ký hiệu của một bảng chữ cái ở đầu truyền (input) và được truyền trên kênh. Thông báo được nhận ở cuối kênh (hay đầu nhận-output) và được giải mã theo bảng chữ cái ở đầu truyền. Mặt khác, từng ký tự ở đầu nhận có thể quan hệ với các ký tự ở đầu nhận trước đó, các ký tự ở đầu truyền và trạng thái của kênh truyền. Để đơn giản, ở đây chúng ta chỉ xét mô hình vật lý như sau: Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 45
- Giáo trình: Lý thuyết thông tin. Xét từng ký tự ở đầu nhận chỉ phụ thuộc vào ký tự ở đầu truyền tương ứng với nó, nếu kênh truyền có nhiễu thì một ký tự ở đầu truyền có thể được diễn giải (nhiễu) ra nhiều ký tự khác nhau ở đầu nhận và do đó tạo ra một phân phối xác suất có điều kiện cho ký tự ở đầu nhận. Mô hình truyền tin rời rạc không nhớ là mô hình truyền tin chỉ xét mối quan hệ giữa ký tự truyền và ký tự nhận được tương ứng, không xét mối quan hệ giữa ký tự nhận được và ký tự nhận được trước đó. Mô hình: Kênh truyền X Đầ u truy ề n Đầ u nh ậ n Y P(e) nhiễu ΓX ΓY Các qui ước: - X: là biến ngẫu nhiên có giá trị cần truyền ở đầu truyền. - Y: là biến ngẫu nhiên chứa giá trị có thể nhận được ở đầu nhận. - ΓX: là bảng chữ cái sinh mã ở đầu truyền. - ΓY: là bảng chữ cái giải mã ở đầu nhận. - X, Y, ΓX, ΓY: đều hữu hạn và rời rạc. - Truyền rời rạc từng ký tự và nhận cũng rời rạc từng ký tự. - Ký tự nhận sau không phụ thuộc vào ký tự nhận trước. Mô hình toán học Ta gọi: - ΓX={x1, x2, , xM} là bộ ký tự sinh mã ở đầu truyền (input). - ΓY={y1, y2, ,yL} là bộ ký tự giải mã ở đầu nhận (output). - Biến ngẫu nhiên X lấy giá trị (đã mã hóa) trên ΓX và có phân phối p(X=xi)=p(xi) với i=1, ,M. - Biến ngẫu nhiên Y lấy giá trị (giải mã) trên ΓY và có phân phối xác suất có điều kiện: P(Y=yj/X=xi)=p(yj/xi)=pij với j=1, ,L. Gọi A=||pij|| là ma trận truyền tin hay mô hình truyền tin của kênh truyền rời rạc không nhớ. Với i=1, M , j=1, L và pij = p(Y=yj/X=xi) = p(yj/xi) là xác suất nhận được giá trị yj khi đã truyền giá trị xi. Tính phân phối đầu nhận: M Ta có: p(Y=yj) = p(yj) = ∑ p(xi ).p(y j / xi ) i=1 M ⇒ p(yj) = ∑ p(xi ).p(y j / xi ) i=1 M = ∑ p(xi ).pij i=1 ’ Vậy p(yj)= PX .Aj (1) ’ ’ Một các tổng quát: P Y = P X.A (2) Trong đó: Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 46
- Giáo trình: Lý thuyết thông tin. - Aj là cột thứ j của A - P’X = [p(x1), p(x2), ., p(xM)]. - P’Y = [p(y1), p(y2), ., p(yM)]. Ví dụ xác định phân phối đầu nhận Cho ma trận truyền tin như sau: x1 ⎡0.5 0.2 0.3⎤ A = x ⎢0.3 0.5 0.2⎥ 2 ⎢ ⎥ x3 ⎣⎢0.2 0.3 0.5⎦⎥ y1 y2 y3 Xác suất truyền: p(x1)=0.5 và p(x2)=p(x3)= 0.25. Ta tìm phân phối của Y : ’ Ta có: PX =(0.5, 0.25, 0.25) Áp dụng công thức (1) ở trên ta được: ’ p(y1) = Px .A1 = 0.375 ’ p(y2) = Px .A2 = 0.3 ’ p(y3) = Px .A3 = 0.325 ⇒ PY’ =(0.375, 0.3, 0.325) Lượng tin trên kênh truyền Ví dụ: cho ma trận truyền tin như sau: x1 ⎡0.5 0.2 0.3⎤ A = x ⎢0.3 0.5 0.2⎥ 2 ⎢ ⎥ x3 ⎣⎢0.2 0.3 0.5⎦⎥ y1 y2 y3 Xác suất truyền: p(x1)=0.5 và p(x2)=p(x3)= 0.25. X = {x1, x2, x3} được xem như tập các ký tự truyền và Y ={y1, y2, y3} là tập các ký tự nhận. Tính lượng tin trên kênh truyền: Ta tìm phân phối của Y : ’ Ta có: PX =(0.5, 0.25, 0.25) Áp dụng công thức (1) ở trên ta được: ’ p(y1) = Px .A1 = 0.375 ’ p(y2) = Px .A2 = 0.3 ’ p(y3) = Px .A3 = 0.325 ’ ⇒ PY =(0.375, 0.3, 0.325) Tính các Entropy: H(Y) = H(0.375, 0.3, 0.325) = 1.58 (bit) H(Y/X=x1) = H(0.5, 0.2, 0.3)= 1.49 (bit) H(Y/X=x2) = H(0.3, 0.5, 0.2)= 1.49 (bit) H(Y/X=x1) = H(0.2, 0.3, 0.5)= 1.49 (bit) H(Y/X)= p(x1).H(Y/X=x1) + p(x2).H(Y/X=x2) + p(x3).H(Y/X=x3) = 1.49 (bit) Lượng thông tin truyền trên kênh: I (X/Y)= I (Y/X)= H(Y) - H(Y/X) = 0,09 (bit) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 47
- Giáo trình: Lý thuyết thông tin. Định nghĩa dung lượng kênh truyền Dựa vào ma trận truyền tin A, ta có thể dễ dàng tính lượng tin trên kênh truyền. I(X/Y)= H(X)-H(Y/X) = H(Y)-H(X/Y) = I(Y/X) Ta có I(X/Y)= H(Y)-H(Y/X), trong đó: ’ H(Y)= H(PX .A) phụ thuộc vào PX. H(Y/X) phụ thuộc vào PX Vậy: I(Y/X) phụ thuộc hoàn toàn vào PX và do đó I(Y/X) có thể đạt Max với PX xác định nào đó. Ta định nghĩa: C = Max I(X /Y ) là dung lượng của kênh truyền (ĐVT: bit). ∀p( X ) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 48
- Giáo trình: Lý thuyết thông tin. BAI 4.2: CÁC DẠNG KÊNH TRUYỀN Mục tiêu Sau khi hoàn tất bài học này bạn có thể: Biết kênh truyền không mất tin, Biết kênh truyền xác định, Biết kênh truyền không nhiễu, Biết kênh truyền không sử dụng được, Hiểu kênh truyền đối xứng, Hiểu định lý về dung lượng kênh truyền,Kênh truyền không mất tin Mô hình: từ tập hợp các giá trị có thể nhận được ở đầu nhận Y={y1, y2, , yL} được phân thành M nhóm Bi tương ứng với các giá trị xi ở đầu truyền và xác suất để truyền xi với điều kiện đã nhận yj là p(X= xi /Y=yj ∈Bi)=1 ( với M L). Đầu truyền Đầu nhận x1 Nhóm B1 y1 xk xk+1 Nhóm B2 y2 xh xt Nhóm BL yL xL Đặc trưng: của kênh truyền xác định là H(Y/X)=0. Có nghĩa là lượng tin chưa biết về Y khi truyền X bằng 0 hay khi truyền X thì ta biết sẽ nhận được Y. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 49
- Giáo trình: Lý thuyết thông tin. Dung lượng: C=log2L (Sinh viên tự chứng minh, xem như bài tập) Kênh truyền không nhiễu Mô hình: là sự kết hợp của kênh truyền xác định và kênh truyền không mất thông tin, truyền ký tự nào sẽ nhận được đúng ký tự đó. Đầu truyền Đầu nhận x1 x1 x2 x2 xM xM Đặc trưng: H(X/Y)=H(Y/X)=0. Dung lượng: C=log2L=log2M (Sinh viên tự chứng minh, xem như bài tập) Ví dụ: ma trận truyền tin của kênh truyền không nhiễu với M=L=3: x1 ⎡1 0 0⎤ x ⎢0 1 0⎥ A=2 ⎢ ⎥ x3 ⎣⎢0 0 1⎦⎥ y1 y2 y3 Kênh truyền không sử dụng được. Mô hình: là kênh truyền mà khi truyền giá trị nào thì mất giá trị đó hoặc xác suất nhiễu thông tin trên kênh truyền lớn hơn xác suất nhận được. Đặc trưng: H(X/Y)=H(Y/X)= max Dung lượng: C=0 (Sinh viên tự chứng minh, xem như bài tập) Ví dụ: kênh truyền có ma trận truyền tin như sau: ⎛ε 1− ε ⎞ A=⎜ ⎟ ⎝ε 1− ε ⎠ Kênh truyền đối xứng Mô hình: là kênh truyền mà ma trận truyền tin có đặc điểm sau: + Mỗi dòng của ma trận A là một hoán vị của phân phối P={p’1, p’2, , p’L} + Mỗi cột của ma trận A là một hoán vị của Q={q’1, q’2, , q’M} Ví dụ: cho kênh truyền đối xứng có ma trận truyền tin như sau: x1 ⎡1/ 2 1/ 3 1/ 6⎤ x ⎢1/ 3 1/ 6 1/ 2⎥ A = 2 ⎢ ⎥ x3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ y1 y2 y3 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 50
- Giáo trình: Lý thuyết thông tin. Xây dựng công thức tính dung lượng kênh truyền đối xứng Do H(Y/X) không phụ thuộc vào phân phối của X => Max của I(X/Y) được quy về mã của H(Y). Hay C = MaxI(X /Y) = Max(H(Y) − H(Y / X )) Ta có thể tính dễ dàng: L H (Y / X ) = −∑ p' j log p' j = const j=i Do đó: L C = Max I(X /Y ) = MaxH (Y )+ ∑ p' j log p' j j =i Do H(Y) ta cần chứng tỏ “=” xảy ra khi p1=p2= =pL=1/L Xét trường hợp P(X=xi)=1/M, với mọi i => chứng minh P(Y=yj)=1/L với mọi j Thật vậy : M P(Y = y j ) = ∑ P(Y = y j , X = xi ) i=1 M 1 M 1 = ∑ P(X = xi )P(Y = y j / X = xi ) = ∑ Pij = qi i=1 M i=1 M Từ A ta nhận thấy: ⎛ p p ⎞ ⎜ 11 1L ⎟ A = => = tổng các phần tử của A. ⎜ ⎟ ∑A ⎜ ⎟ ⎝ pM1 pML ⎠ M M +hang +cot M Do = = => M = L q => q = ∑ ∑A ∑A ∑ i ∑ i A i=i i=i L 1 M 1 => P(Y = y ) = = => H (Y ) = − p' P(Y = y )log P(Y = y ) = log L = Max j M L L ∑ j j => H(Y) đạt max là logL khi P(Y=yj)=1/L hoặc P(X=xi)=1/M L Vậy: C= log L – H(p’1, p’2, , p’L ) hay C = log L + ∑ p j log p j j=1 Chú ý: trường hợp kênh 1 bit với nhiễu β ⎛1− β β ⎞ Ma trận truyền tin A = ⎜ ⎟ ⎝ β 1− β ⎠ Dung lượng C=1+(1-β) log(1-β)+βlogβ = 1- H(β, 1-β) H(β , 1-β) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 51
- Giáo trình: Lý thuyết thông tin. 1 – H(β,1-β) Định lý về dung lượng kênh truyền Giả sử ma trạn A có dạng vuông và có ma trận nghịch đảo là A-1 Ký hiệu A=||pij|| với i=1,2, ,M và j =1,2, ,M 1 A- =||qij|| với i=1,2, ,M và j =1,2, ,M M ⎡ M ⎤ Đặt tham số dk= ∑q jk exp2 ⎢− ∑q ji H(Y / X = xi )⎥,∀k = 1, M j=1 ⎣ i=1 ⎦ Nếu dk>0 thì dung lượng kênh truyền có dạng: ⎧ M ⎡ M ⎤⎫ C = Log⎨∑exp2 ⎢− ∑q ji H (Y / X = xi )⎥⎬ ⎩ j=1 ⎣ i=1 ⎦⎭ -C Giá trị cực đại đạt khi tín hiệu vào X=X* thỏa phân phối P(X*=xk)=2 dk Hay C=max I(X/Y)=I(X*/Y) Chú ý: - Điều kiện dk>0 cho phép hàm I(X/Y) là hàm lồi => Tồn tại Max tuyệt đối tại phân phối của -C X* với p(X*=xk)=2 dk =pk (với mọi k). - Nếu điều kiện ma trận vuông hoặc ma trận ngịch đảo không thỏa thì giá trị cực đại max sẽ nằm trên đường biên của miền xác định {pk>0 và -Σpk=1} Bài tập 1. Cho một kênh truyền có ma trận truyền tin như sau: x1 ⎡1/ 2 1/ 3 1/ 6⎤ x ⎢1/ 3 1/ 6 1/ 2⎥ 2 ⎢ ⎥ x3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ y1 y2 y3 Tính dung lượng kênh truyền. 2. Chứng minh các công thức tính dung lượng kênh truyền trên. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 52
- Giáo trình: Lý thuyết thông tin. BÀI 4.3: LƯỢC ĐỒ GIẢI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết đặt vấn đề bài toán giải mã, - Hiểu các khái niệm cơ bản của kỹ thuật truyền tin, - Biết và hiểu các dạng sai số cơ bản của kỹ thuật truyền tin, - Hiểu phương pháp xây dựng lược đồ giải mã tối ưu, - Vận dụng xây dựng lược đồ giải mã tối ưu và tính các dạng xác suất truyền sai. Đặt vấn đề bài toán giải mã Phân tích yêu cầu giải mã: Khi truyền giá trị xi, ta sẽ nhận được yj. Đối với kênh truyền không nhiễu thì yj chính là xi. Đối với kênh truyền có nhiễu thì yj có thể khác xi. Do đó ta cần tìm cách giải mã yj về giá trị xi khi kênh truyền có nhiễu. Phép phân hoạch các giá trị ở đầu nhận: Phép phân hoạch tập các giá trị ở đầu nhập yj ∈ Y là phép phân chia tập Y thành các tập con Bi sao cho: ⎧Bi I B j = ∅ ⎪ 1. ⎨ M (∀ i ≠ j) ⎪ Bi = Y ⎩Ui=1 2. Khi nhận yj ∈ Bi thì giải mã về xi. Ví dụ bài toán giải mã Cho tập các từ mã truyền X và tập các dãy n bit nhận được Y như sau: X={0000, 0101, 1110, 1011} Y={0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111} Giả sử ta có thể phân hoạch tập Y thành các tập con Bi như sau: B1={0000, 1000, 0001, 0010} B2={0101, 1101, 0100, 0111} B3={1110, 0110, 1111, 1100} B4={1011, 0011, 1010, 1001} Giả sử nhận yj = 0011 thì giải mã về x4 = 1011 vì yj ∈ B4. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 53
- Giáo trình: Lý thuyết thông tin. Các khái niệm cơ bản của kỹ thuật truyền tin Xét sơ đồ truyền tin như sau: R Kênh Nguồn Bộ tạo mã Bộ giải mã Nhận ký tự ký tự nhiễu giải mã mã P(e) X∈{x1, , xM} Y∈{y1, , yL} Diễn giải: - Nguồn phát tín hiệu (hay thông báo) với vận tốc R (tín hiệu/giây). - Tín hiệu được mã hóa từ bộ ký tự mã. - Tín hiệu mã hóa được truyền trên kênh với vận tốc C (ký tự/giây), C đồng thời là dung lượng của kênh truyền. - Tín hiệu truyền trên kênh có thể bị nhiễu với xác suất P(e). - Trước khi nhận, tín hiệu mã hóa được giải mã theo một phương thức tối ưu và độ chính xác cao nhất có thể có. Bài toán đặt ra ở đây: tìm giải pháp tạo mã sao cho sai số đầu nhận có xác suất nhỏ hơn ε bất kỳ (ε < P(e)) đồng thời với đồng bộ hóa: vận tốc phát thông báo ở nguồn R và vận tốc truyền tải ≤ C (C là dung lượng kênh). Các khái niệm cơ bản: Từ mã: là dãy n ký tự truyền hay dãy n ký tự nhận đúng. Bộ mã (S,n): là tập hợp gồm S từ mã với độ dài mỗi từ mã đều bằng n và được ký hiệu là x(1), , x(s). Lược đồ giải mã: là một hàm gán cho một dãy n ký tự nhận được yj một từ mã của bộ mã W = {w1, w2, , ws}. Ký hiệu: g(yj) = wi Lược đồ giải mã tối ưu: là lược đồ giải mã sao cho tổng xác suất truyền sai là nhỏ nhất hay tổng xác suất truyền đúng là lớn nhất. * Nghĩa là: khi nhận yj thì ta giải mã về wi sao cho: * P(wi /yj) = Max{P(wk/yj)} ∀wk ∈ W Ví dụ minh họa các khái niệm cơ bản Giả sử kênh truyền từng bit với C=1, nguồn phát thông báo với tốc độ R=2/5 bit/giây (R<C). Để thuận lợi cho mã hóa và giảm nhiễu, ta xét từng khoảng thời gian n = 5 giây. Như vậy trong khoảng thời gian n = 5 giây, ta có: nR - Tập hợp các tín hiệu khác nhau là 2 = 4. Giả sử 4 tín hiệu là m1, m2, m3, m4. - Số bit được phát ra là nR=2 bit và một tín hiệu dạng mi được kết cấu bởi một dãy các bit. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 54
- Giáo trình: Lý thuyết thông tin. - Quá trình mã hóa các tín hiệu m1, m2, m3, m4 cần chú ý là: mỗi mi cần được mã hóa với số bit tối đa là nC=5 bit. Vậy, ta có thể mã hóa các tín hiệu mi theo 2 cách sau: Cách 1: m1=00000 m2=01101 m3=11010 m4=10111 Cách 2: m1=00 m2=01 m3=10 m4=11 Nếu sử dụng cách 1 với độ dài 5 bit, trong đó 5 bit có thể hiểu là có 2 bit thông tin cần truyền và 3 bit con lại là 3 bit được bổ sung để phát hiện nhiễu theo một phương pháp nào đó sẽ được đề cập ở các nội dung tiếp theo sau. Với cách mã hóa này, ta có nhiều khả năng phát hiện và sửa sai do nhiễu. Nếu sử dụng cách 2 thì trường hợp có 1 bit truyền sai sẽ dẫn đến trùng lặp sang một trong các tín hiệu khác. Ví dụ truyền m1=00 và nhận 2 bit là 01 (do nhiễu), trong trường hợp này 01 chính là m2, đây là một tín hiệu đúng nên ta không thể phát hiện có nhiễu hay không nhiễu. Như vậy, trong khoảng thời gian truyền và dung lượng kênh cho phép, ta cần mã hóa mỗi tín hiệu càng dài càng tốt nhưng không được vượt quá độ dài mã cho phép. Trường hợp với thời gian n=5 và c= 1 bit thì nC=5 là số bit tối đa có thể truyền nên ta chỉ mã hóa tín hiệu với độ dài mã tối đa là 5 bit. Các dạng sai số cơ bản Xác suất truyền sai từ mã xi: p(e/xi)= ∑ p(Y=yj ∉Bi/X=xi) M Xác suất truyền sai trung bình: p(e) = ∑ p(X = xi ) p(e / xi ) i=1 Xác suất truyền sai lớn nhất: p m (e) = Max p(e / xi ) i=1,M Phương pháp xây dựng lượt đồ giải mã tối ưu Theo công thức Bayes: Ta có: P(wk/yj) = [p(wk).p(yj/wk)] / p(yj) với (∀wk ∈ W) Từ định nghĩa lược đồ giải mã tối ưu: ⇒ tìm wk sao cho P(wk/yj) → Max ⇔ p(wk).p(yj/wk) → Max. Như vậy, ta có thể xây dựng lược đồ giải mã tối ưu theo các bước sau: Bước 0: Khởi tạo các Bi = φ (∀i) Bước lặp: xét với mọi yj ∈Y + Tính: p(w1).p(yj/w1) p(w2).p(yj/w2) p(wM).p(yj/wM) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 55
- Giáo trình: Lý thuyết thông tin. + So sánh các giá trị tính trên và chọn giá trị w*i sao cho p(w*i).p(yj/w*i)= Max {p(wk).p(yj/wk)} (∀wk ∈ W) + Bi = Bi + {yj} và g(yj) = w*i. Minh họa xây dựng lược đồ giải mã tối ưu Bài toán: Cho ma trận truyền tin A và xác suất ở đầu truyền như sau: x1 ⎡1/ 2 1/ 3 1/ 6⎤ x ⎢1/ 3 1/ 6 1/ 2⎥ 2 ⎢ ⎥ x3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ y1 y2 y3 Với p(x1)=1/2; p(x2)=p(x3)=1/4. Hãy xây dựng lược đồ giải mã tối ưu. Áp dụng phương pháp xây dựng lược đồ giải mã tối ưu: Bước 0: B1={}; B2={}; B3={}; Bước 1: Nhận giá trị y1, ta tính: + p(x1).p(y1/x1)= 1/2.1/2 = 1/4 (Max) + p(x2).p(y1/x2)= 1/4.1/3 = 1/12 + p(x3).p(y1/x3)= 1/4.1/6 = 1/24 Do p(x1).p(y1/x1) lớn nhất nên liệt kê y1 vào tập hợp B1 tương ứng với x1. => B1={y1}. Bước 2: Nhận giá trị y2, ta tính: + p(x1).p(y2/x1)= 1/2 . 1/3 = 1/6 (Max) + p(x2).p(y2/x2)= 1/4 . 1/6 = 1/24 + p(x3).p(y2/x3)= 1/4 . 1/2 = 1/8 Do p(x1).p(y1/x1) lớn nhất nên liệt kê y2 vào tập hợp B1 tương ứng với x1. => B1={y1, y2}. Bước 3: Nhận giá trị y3, ta tính: + p(x1).p(y3/x1)= 1/2 . 1/6 = 1/12 + p(x2).p(y3/x2)= 1/4 . 1/2 = 1/8 (Max) + p(x3).p(y3/x3)= 1/4 . 1/3 = 1/12 Do p(x1).p(y2/x1) lớn nhất nên liệt kê y3 vào tập hợp B2 tương ứng với x2. => B2={y3}. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 56
- Giáo trình: Lý thuyết thông tin. Kết quả: Phân hoạch: B1={y1, y2}, B2={y3} và B3={}. Lược đồ giải mã tối ưu: Nhận Giải mã y x Nhóm B 1 1 1 y2 x2 Nhóm B2 y3 x3 Minh họa cách tính các sai số Xét lại ví dụ minh họa xây dựng lược đồ giải mã tối ưu trên, ta có: - Ma trận truyền tin A: x1 ⎡1/ 2 1/ 3 1/ 6⎤ x ⎢1/ 3 1/ 6 1/ 2⎥ 2 ⎢ ⎥ x3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ y1 y2 y3 - Xác suất ở đầu truyền: p(x1)=1/2; p(x2)=p(x3)=1/4. - Lược đồ giải mã tối ưu: Nhận Giải mã y x Nhóm B 1 1 1 y2 x2 Nhóm B2 y3 x3 - Phân hoạch: B1={y1, y2}, B2={y3} và B3={}. Tính các xác suất truyền sai: Xác suất truyền sai một từ mã: Xác suất truyền sai từ mã x1: p(e/x1)= ∑ p(Y=yj ∉B1/X=x1) = p(y3/x1) =1/6 Xác suất truyền sai từ mã x2: p(e/x2)= ∑ p(Y=yj ∉B2/X=x2) = p(y1/x2) + p(y2/x2) =1/3+1/6=1/2 Xác suất truyền sai từ mã x3: p(e/x3)= ∑ p(Y=yj ∉B3/X=x3) = p(y1/x3) + p(y2/x3) + p(y3/x3) =1/6+1/3+1/2=1 M Xác suất truyền sai trung bình: p(e) = ∑ p(X = xi ) p(e / xi ) i=1 ⇒ p(e)=p(x1).p(e/x1) + p(x2).p(e/x2) + p(x3).p(e/x3) = 1/2.1/6 + 1/4.1/2 + 1/4.1 = 11/24 Xác suất truyền sai lớn nhất: p m (e) = Max p(e / xi ) i=1,M ⇒ pm(e) = Max{ p(e/x1), p(e/x2), p(e/x3)} = p(e/x3) =1 Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 57
- Giáo trình: Lý thuyết thông tin. Bài tập 1 1. Cho ma trận truyền tin sau: x1 ⎡1/ 2 1/ 3 1/ 6⎤ x ⎢1/ 3 1/ 6 1/ 2⎥ 2 ⎢ ⎥ x3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ y1 y2 y3 Biết xác suất ở đầu truyền: p(x1)=5/10, p(x2)=3/10, p(x3)=2/10. - Tính dung lượng kênh truyền. - Xây dựng lược đồ giải mã tối ưu. - Tính các sai số p(e) và pm(e). 2. Cho ma trận truyền tin sau: x1 ⎡7 /12 3/12 2 /12⎤ x ⎢2 /12 7 /12 3/12⎥ 2 ⎢ ⎥ x3 ⎣⎢3/12 2 /12 7 /12⎦⎥ y1 y2 y3 Biết xác suất ở đầu truyền: p(x1)=1/3, p(x2)=1/3, p(x3)=1/3. - Tính dung lượng kênh truyền. - Xây dựng lược đồ giải mã tối ưu - Tìm các sai số p(e) và pm(e). Bài Tập 2 1. Cho ma trận truyền tin sau: ⎛ 1 1 1 ⎞ x1 ⎜ 2 3 6⎟ x ⎜ 1 1 1 ⎟ 2 ⎜ 6 2 3 ⎟ x ⎜ 1 1 1 ⎟ 3 ⎝ 3 6 2⎠ y1 y2 y3 Biết p(x1)=1/2, p(x2)=1/4, p(x3)=1/4. - Tính dung lượng kênh truyền. - Xây dựng lược đồ giải mã tối ưu. - Tính các sai số p(e) và pm(e). 2. Cho ma trận truyền tin sau: x ⎛7 /10 2/10 1/10 ⎞ 1 ⎜ ⎟ x2 ⎜1/10 7 /10 2/10⎟ ⎜ ⎟ x3 ⎝2/10 1/10 7/10⎠ y1 y2 y3 Biết xác suất truyền p(x1)=0.4, p(x2)=0.4, p(x3)=0.2. - Tính dung lượng kênh truyền. - Xây dựng lược đồ giải mã tối ưu. - Tính các sai số p(e) và pm(e). Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 58
- Giáo trình: Lý thuyết thông tin. CHƯƠNG 5: SỬA LỖI Mục tiêu: Xây dựng nguyên tắc sửa lỗi dựa vào khoảng cách Hamming. Trên nguyên tắc này, phương pháp sửa lỗi “kiểm tra chắn lẻ (parity check)” được xây dựng và tạo ra quy trình sửa lỗi tối ưu và phù hợp với công nghệ truyền tin hiện nay. BÀI 5.1: NGUYÊN LÝ KHOẢNG CÁCH NHỎ NHẤT HAMMING Mục tiêu: Sau khi hoàn tất bài học này bạn có thể hiểu: - Định nghĩa khoảng cách Hamming - Kênh truyền đối xứng nhị phân và lược đồ giải mã tối ưu - Quan hệ giữa xác suất giải mã và khoảng cách Hamming - Nguyên lý khoảng cách nhỏ nhất của Hamming. Khoảng cách Hamming Định nghĩa: cho v1 và v2 là 2 dãy nhị phân dài n bit, ta gọi khoảng cách Hamming giữa 2 dãy v1, v2 là số bit tương ứng khác nhau. Ký hiệu: d(v1, v2). Ví dụ: v1=10101010 v2=10101111 Ta nhận thấy rằng bit thứ 6 và bit thứ 8 giữa giữa v1 và v2 là khác nhau nên số bit tương ứng khác nhau giữa v1 và v2 là 2. Do đó, ta nói khoảng cách Hamming giữa v1 và v2 là 2 hay d(v1, v2) = 2 Kênh truyền đối xứng nhị phân và lược đồ giải mã tối ưu Xét kênh truyền đối xứng nhị phân. Giả sử ta truyền các dãy từ mã nhị phân có độ dài n bits với xác suất truyền sai 1 bit là β. 1-β 0 0 β 1 1-β 1 Gọi W = {w1, w2, ,ws} là tập s từ mã truyền, độ dài mỗi từ mã đều bằng n bit. n V = {v1, v2, ., v2 } là tập các dãy n bit nhận được ở cuối kênh với W có phân phối đều, xác suất để nhận vj khi truyền wi là p(vj/wi) = pij. * Theo lược đồ giải mã tối ưu ta có: khi nhận vj thì giải mã về wi sao cho: * P(wi /vj) = Max{P(wk/vj)} (∀wi ∈ W) Ta có: P(wk/yj) = [p(wk).p(yj/wk)] / p(yj) với (∀wk ∈ W) ⇒ P(wk/yj) → Max ⇔ p(wk).p(yj/wk) → Max. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 59
- Giáo trình: Lý thuyết thông tin. Do W có phân phối đều nên P(wk/yj) → Max ⇔ p(yj/wk) → Max * * * Vậy: để tìm wi sao cho P(wi /vj) = Max{P(wk/vj)} ta chỉ cần tìm wi sao cho * P(vj/ wi ) = Max{P(vj/ wk)} (chỉ dựa vào ma trân truyền tin A) Ví dụ kênh truyền đối xứng nhị phân Xét ma trận truyền tin A và xác suất ở đầu truyền như sau: w1 ⎡1/ 2 1/ 3 1/ 6⎤ ⎢ ⎥ w2 1/ 3 1/ 6 1/ 2 A= ⎢ ⎥ và p(w1) = p(w2) = p(w3) = 1/3. w3 ⎣⎢1/ 6 1/ 2 1/ 3⎦⎥ v1 v2 v3 dựa vào lược đồ giải mã tối ưu ta có: − Nhận v1 giải mã về w1 − Nhận v2 giải mã về w3 − Nhận v3 giải mã về w2. Quan hệ giữa xác suất giải mã và khoảng cách Hamming Giả sử nhận được v: Xét 2 từ mã w1 và w2 cần chọn để giải mã cho v. + Gọi d1=d(v, w1), d2=d(v,w2). d1 n−d1 + Ta có: p(v/w1)= β (1− β ) (xác suất đế nhận v khi truyền w1). d2 n−d2 P(v/w2)= β (1− β ) (xác suất đế nhận v khi truyền w2). d n−d d −d p(v / w ) β 1 (1− β ) 1 ⎛1− β ⎞ 2 1 So sánh xác suất: 1 = = ⎜ ⎟ d2 n−d2 ⎜ ⎟ p(v / w2 ) β (1− β ) ⎝ β ⎠ 1− β Nếu nhiễu 0 1 β Do đó: P(v/w1)>p(v/w2) ⇔ d1 <d2 Nhận xét: xác suất giải mã càng lớn thì khoảng cách Hamming càng nhỏ. Nguyên lý Hamming Định lý: trên kênh truyền đối xứng nhị phân với s từ mã ở đầu truyền có độ dài n bit, lược đồ giải mã tối ưu có thể thay thế bằng lược đồ giải mã theo khoảng cách Hamming với nguyên lý: nếu nhận được v, ta sẽ giải ra w*i sao cho d(v,w*i)=Min d(v,wk) (với ∀wk ∈ W). Ví dụ: xét bộ mã W={w1=00000, w2=10011, w3=11100, w4=01111} Giả sử nhận được dãy v=01011. ta có: d(v,w1)=3; d(v,w2)=2; d(v,w3)=4; d(v,w4)=1. vậy v được giải về w4 vì khoảng cách Hamming giữa v và w4 là nhỏ nhất. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 60
- Giáo trình: Lý thuyết thông tin. Bài tập 1. Cho bộ mã W={w1=000000, w2=101010, w3=111000, w4=111111} và nhận được dãy v=010111, khi đó giải mã về từ mã nào? diễn giải? 2. Cho bộ mã W={w1=000000, w2=010101, w3=000111, w4=111111} và Nhận được dãy v=010111, khi đó giải mã về từ mã nào? diễn giải? Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 61
- Giáo trình: Lý thuyết thông tin. BÀI 5.2: BỔ ĐỀ VỀ TỰ SỬA LỖI VÀ CẬN HAMMING Mục tiêu Sau khi hoàn tất bài học này bạn có thể: - Biết được Bổ đề về tự sửa lỗi, - Hiểu Định lý về cận Hamming, - Biết phân loại được các dạng lỗi, - Làm cơ sở lý thuyết cho các phương pháp sửa lỗi được trình bài trong các bài học tiếp theo. Bổ đề về tự sửa lỗi Đặt vấn đề: một từ mã w dài n bit khi được truyền tuần tự từng bit có thể sai e bit. Vấn đề đặt ra là khoáng cách (Hamming) giữa các từ mã và sai số e quan hệ với nhau như thế nào để có thể phân biệt tốt nhất đồng thời tất cả các từ mã? Bổ đề sau xác định quan hệ này. Bổ đề: Xét bộ mã W={w1, w2, , ws} gồm có s từ mã nhị phân dài n bit và 1 số nguyên dương e. 1. Nếu d(wi, wj) ≥ 2e+1 (với ∀ i≠j ) Khi đó: tất cả các dãy nhận được v có số bit lỗi ≤ e thì v có thể tự điều chỉnh (hay tự sửa lỗi). 2. Nếu d(wi, wj) ≥ 2e (với ∀ i≠j ) Khi đó: tất cả các dãy nhận được v có số bit lỗi < e thì v có thể tự điều chỉnh. Tất cả các dãy nhận được có số bit lỗi = e thì ta chỉ phát hiện là v có lỗi và không thể tự điều chỉnh được. 3. Ngược lại; Nếu v có số chữ số bit lỗi ≤ e và có thể tự điều chỉnh thì d(wi, wj)≥ 2e+1 (với ∀ i≠j ). Nếu v có số chữ số bit lỗi ≤ e-1 tự điều chỉnh được và tất cả các tín hiệu với số chữ số bit lỗi ≤ e được phát hiện thì khoảng cách giữa các từ mã luôn thỏa: d(wi,wj) ≥ 2e (với ∀ i≠j ). Chứng minh và minh họa bổ đề a. Giả sử: d(w, w’) ≥ 2e+1 với ∀ i≠j . Nếu w và w’ có cùng khoảng cách đối với dãy v thì d(v,w)=d(v,w’)≥ e+1. Vậy , nếu d(v, w*) ≤ e thì v có thể được giải mã ra w*. b. Nếu d(wi,wj)≥ 2e với ∀ i≠j, có khả năng có v, w và w’ với số chữ số lỗi là: d(v,w)=d(v,w’)=e (d(v,w)+ d(v,w’) ≥ d(w,w’)≥ 2e). Có thể phát hiện ra các từ mã gần v, nhưng do tồn tại cùng lúc nhiều từ mã gần nhất với v dẫn đến không giải mã được, ngược lại hoàn toàn tương tự. Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 62
- Giáo trình: Lý thuyết thông tin. Minh họa: a. d(wi, wj)= 2e+1= 7, e=3 Nếu v∈Bi thì v được giải mã về wi Nếu v∈Bj thì v được giải mã về wj wi * * wj v b. d(wi, wj) = 2e = 8 (e = 4, e - 1=3) nếu v∉Bi , v∉Bj => các điểm cách tâm khoảng cách 3 thì luôn được giải mã, còn các điểm cách tâm 4 thì chỉ phát hiện lỗi chứ không thể giải mã được. c. Mã 3 chiều (x, y, z) bắt đầu từ gốc 000. Cứ một tín hiệu thay đổi thì mã bị đẩy đi theo 1 cạnh, chẳng hạn: 000 cách 010, 001 bởi 1 cạnh, 011 cách 010, 111 và 001 bởi 1 cạnh. Như vậy, nếu ta chọn w1=010, w2=001, w3=111 thì khoảng cách giữa chúng là 2 d(w1, w2)=d(w1, w3)=d(w2, w3)=2 vậy nếu có lỗi phát sinh thì chỉ phát hiện chứ không sửa được. y w3=111 x 110 w1=010 101 100 000 z w2=001 Cận Hamming. Đặt vấn đề: trong tổng số 2n dãy nhị nhân dài n bit có thể chọn ra bao nhiêu dãy để tạo thành một bộ mã có thể tự điều chỉnh được e bit lỗi. Định lý cận Hamming cho chúng ta xác định số từ mã có độ dài n bit với giả thiết: có khả năng tự sửa được e bit lỗi (điều kiện cần tự sửa lỗi). Định lý: Nếu bộ mã W có s từ mã có độ dài n bit có thể tự sửa được e bit lỗi thì 2n s ≤ e i ∑Cn i=1 i Ghi chú: Cn = n!/(i!*(n-i)!) Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 63
- Giáo trình: Lý thuyết thông tin. Chứng minh: Xét từ mã nhị phân wi có độ dài n bit và có khả năng tự sửa được e bit lỗi. e 0 1 2 e i Số dãy vj sai khác với wi từ 0 đến e bit là :Cn + Cn + Cn + + Cn = ∑Cn i=0 e i n Tương ứng với s từ mã, tổng số dãy vj có thể tự sửa lỗi là : s.∑Cn ≤ 2 i=0 (2n là tổng số dãy nhị phân dài n bits). 2n => s ≤ e i ∑Cn i=1 Phân các dạng lỗi n Giả sử ta truyền từ mã n bit wi ∈ W ( 1 ≤ i ≤ s) và nhận được dãy n bit vj ( 1≤ j ≤ 2 ). Các loại lỗi có thể phát hiện sau: Lỗi có thể tự điều chỉnh: Trong trường hợp này tồn tại duy nhất từ mã w*i sao cho d(vj, w*i)= Min d(vj, wk) với ∀wk ∈ W. => vj được giải mã về w*i Lỗi chỉ phát hiện không điều chỉnh được: Trong trường hợp này tồn tại từ mã w*i và w i sao cho d(vj, w*i)= d(vj, w i)=Min d(vj, wk) với ∀wk ∈ W => vj không thể giải mã chính xác. Lỗi không phát hiện được. Trong trường hợp ta giải mã ra w*i nhưng khác với wi đã truyền. Bài tập 1. Cho n=7 và e=2, hãy áp dụng định lý cận Hamming cho biêt số từ mã tối đa của bộ mã W. 2. Cho n=7 và e=2, hãy áp dụng định lý cận Hamming cho biêt số từ mã tối đa của bộ mã W. 3. Hãy cho một ví dụ cụ thể minh họa các trường hợp phân loại lỗi. BÀI 5.3: MÃ KIỂM TRA CHẴN LẺ Mục tiêu: Sau khi hoàn tất bài học này bạn có thể: - Hiểu bộ mã kiểm tra chẵn lẻ, - Hiểu phương pháp kiểm tra chẵn lẻ, Biên soạn: TS. L ê Quy ết Thắng, ThS. Phan Tấn Tài & Ks. Dương Văn Hiếu. 64