Bài giảng khai phá dữ liệu

pdf 78 trang huongle 6380
Bạn đang xem 20 trang mẫu của tài liệu "Bài giảng khai phá dữ liệu", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfbai_giang_khai_pha_du_lieu.pdf

Nội dung text: Bài giảng khai phá dữ liệu

  1. TRƢỜNG ĐẠI HỌC HÀNG HẢI VIỆT NAM KHOA CÔNG NGHỆ THÔNG TIN BỘ MÔN HỆ THỐNG THÔNG TIN BÀI GIẢNG KHAI PHÁ DỮ LIỆU TÊN HỌC PHẦN: KHAI PHÁ DỮ LIỆU MÃ HỌC PHẦN: 17409 TRÌNH ĐỘ ĐÀO TẠO : ĐẠI HỌC CHÍNH QUY DÙNG CHO SV NGÀNH: CÔNG NGHỆ THÔNG TIN HẢI PHÒNG - 2011
  2. 2 MỤC LỤC Nội dung Trang Chƣơng 1. Tổng quan kho dữ liệu (Data warehouse) 5 1.1. Các chiến lược xử lý và khai thác thông tin 5 1.2. Định nghĩa kho dữ liệu 6 1.3. Mục đích của kho dữ liệu 7 1.4. Đặc tính của dữ liệu trong kho dữ liệu 8 1.5. Phân biệt kho dữ liệu với các cơ sở dữ liệu tác nghiệp 10 Chƣơng 2. Tổng quan về khai phá dữ liệu 13 2.1. Khai phá dữ liệu là gì? 13 2.2. Phân loại các hệ thống khai phá dữ liệu 13 2.3. Những nhiệm vụ chính 14 2.4. Tích hợp hệ thống khai phá dữ liệu với cơ sở dữ liệu hoặc kho 16 2.5. Các phương pháp khai phá dữ liệu 17 2.6. Lợi thế của khai phá dữ liệu so với phương pháp cơ bản 21 2.7. Lựa chọn phương pháp 23 2.8. Những thách thức trong ứng dụng và nghiên cứu trong kỹ thuật khai phá dữ liệu 24 Chƣơng 3. Tiền xử lý dữ liệu 28 3.1. Mục đích 28 3.2. Làm sạch dữ liệu 29 3.3. Tích hợp và biến đổi dữ liệu 31 Chƣơng 4. Khai phá dựa trên các mẫu phổ biến và luật kết hợp 40 4.1. Khái niệm cơ bản 40 4.2. Luật kết hợp 41 4.3. Phát biểu bài toán phát hiện luật kết hợp 44 4.4. Phát hiện luật kết hợp dựa trên hệ thông tin nhị phân 45 4.5. Khai phá luật kết hợp trên hệ thông tin mờ 51 Chƣơng 5. Phân lớp và dự đoán 68 5.1. Khái niệm cơ bản 68 5.2. Phân lớp dựa trên cây quyết định 70
  3. 3 Tên học phần: Khai phá dữ liệu Loại học phần: 2 Bộ môn phụ trách giảng dạy: Hệ thống Thông tin Khoa phụ trách: CNTT. Mã học phần: 17409 Tổng số TC: 2 Tổng số tiết Lý thuyết Thực hành/ Xemina Tự học Bài tập lớn Đồ án môn học 45 30 15 0 không không Học phần học trƣớc: Cơ sở dữ liệu; Cơ sở dữ liệu nâng cao; Hệ quản trị CSDL Học phần tiên quyết: Không yêu cầu. Học phần song song: Không yêu cầu. Mục tiêu của học phần: Cung cấp các kiến thức cơ bản về kho dữ liệu lớn và các kỹ thuật khai phá dữ liệu. Nội dung chủ yếu: Tổng quan về kho dữ liệu và khai phá dữ liệu; Phương pháp tổ chức lưu trữ dữ liệu lớn, và các kỹ thuật khai phá dữ liệu; Phân tích dữ liệu sử dụng phương pháp phân cụm; Ứng dụng kỹ thuật khai phá dữ liệu. Nội dung chi tiết: PHÂN PHỐI SỐ TIẾT TÊN CHƢƠNG MỤC TS LT TH BT KT Chƣơng 1. Tổng quan kho dữ liệu (Data warehouse) 6 4 2 1.1. Các chiến lược xử lý và khai thác thông tin 1.2. Định nghĩa kho dữ liệu 1.3. Mục đích của kho dữ liệu 1.4. Đặc tính của dữ liệu trong kho dữ liệu 1.5. Phân biệt kho dữ liệu với các cơ sở dữ liệu tác nghiệp Chƣơng 2. Tổng quan về khai phá dữ liệu 9 6 3 2.1. Khai phá dữ liệu là gì? 2.2. Phân loại các hệ thống khai phá dữ liệu 2.3. Những nhiệm vụ chính 2.4. Tích hợp hệ thống khai phá dữ liệu với cơ sở dữ liệu hoặc kho 2.5. Các phương pháp khai phá dữ liệu 2.6. Lợi thế của khai phá dữ liệu so với phương pháp cơ bản 2.7. Lựa chọn phương pháp 2.8. Những thách thức trong ứng dụng và nghiên cứu trong kỹ thuật khai phá dữ liệu Chƣơng 3. Tiền xử lý dữ liệu 9 6 3 3.1. Mục đích 3.2. Làm sạch dữ liệu 3.3. Tích hợp và biến đổi dữ liệu Chƣơng 4. Khai phá dựa trên các mẫu phổ biến và 12 8 4 luật kết hợp 4.1. Khái niệm cơ bản 4.2. Luật kết hợp 4.3. Phát biểu bài toán phát hiện luật kết hợp 4.4. Phát hiện luật kết hợp dựa trên hệ thông tin nhị phân 4.5. Khai phá luật kết hợp trên hệ thông tin mờ Chƣơng 5. Phân lớp và dự đoán 9 6 3 5.1. Khái niệm cơ bản 5.2. Phân lớp dựa trên cây quyết định
  4. 4 Nhiệm vụ của sinh viên: Tham dự các buổi học lý thuyết và thực hành, làm các bài tập được giao, làm các bài thi giữa học phần và bài thi kết thúc học phần theo đúng quy định. Tài liệu học tập: 1. J. Han, M. Kamber, Data Mining: Concepts and Techniques, 2nd edition, Morgan Kaufmann, 2006. 2. P. N. Tan, M. Steinbach, V. Kumar, Introduction to Data Mining, Addison-Wesley, 2006. 3. Paulraj Ponnian, Data Warehousing Fundamentals, John Wiley. Hình thức và tiêu chuẩn đánh giá sinh viên: - Hình thức thi: tự luận hoặc trắc nghiệm. - Tiêu chuẩn đánh giá sinh viên: căn cứ vào sự tham gia học tập của sinh viên trong các buổi học lý thuyết và thực hành, kết quả làm các bài tập được giao, kết quả của các bài thi giữa học phần và bài thi kết thúc học phần. Thang điểm: Thang điểm chữ A, B, C, D, F. Điểm đánh giá học phần: Z = 0,3X + 0,7Y. Bài giảng này là tài liệu chính thức và thống nhất của Bộ môn Hệ thống Thông tin, Khoa Công nghệ Thông tin và được dùng để giảng dạy cho sinh viên. Ngày phê duyệt: / / Trƣởng Bộ môn
  5. 5 Chương 1. Tổng quan về kho dữ liệu (Datawarehouse) 1.1. Các chiến lƣợc xử lý và khai thác thông tin Sự phát triển của công nghệ thông tin và việc ứng dụng công nghệ thông tin trong nhiều lĩnh vực của đời sống, kinh tế xã hội trong nhiều năm qua cũng đồng nghĩa với lượng dữ liệu đã được các cơ quan thu thập và lưu trữ ngày một tích luỹ nhiều lên. Họ lưu trữ các dữ liệu này vì cho rằng trong nó ẩn chứa những giá trị nhất định nào đó. Tuy nhiên, theo thống kê thì chỉ có một lượng nhỏ của những dữ liệu này (khoảng từ 5% đến 10%) là luôn được phân tích, số còn lại họ không biết sẽ phải làm gì hoặc có thể làm gì với chúng nhưng họ vẫn tiếp tục thu thập rất tốn kém với ý nghĩ lo sợ rằng sẽ có cái gì đó quan trọng đã bị bỏ qua sau này có lúc cần đến nó. Một vấn đề đặt ra là làm thế nào để tổ chức, khai thác những khối lượng dữ liệu khổng lồ và đa dạng đó được? Về phía người sử dụng, các khó khăn gặp phải thường là: Không thể tìm thấy dữ liệu cần thiết Dữ liệu rải rác ở rất nhiều hệ thống với các giao diện và công cụ khác nhau, khiến tốn nhiều thời gian chuyền từ hệ thống này sang hệ thống khác. Có thể có nhiều nguồn thông tin đáp ứng được đòi hỏi, nhưng chúng lại có những khác biệt và khó phát hiện thông tin nào là đúng. Không thể lấy ra được dữ liệu cần thiết Thường xuyên phải có chuyên gia trợ giúp, dẫn đến công việc bị dồn đống. Có những loại thông tin không thể lấy ra được nếu không mở rộng khả năng làm việc của hệ thống có sẵn. Không thể hiểu dữ liệu tìm thấy Mô tả dữ liệu nghèo nàn và thường xa rời với các thuật ngữ nghiệp vụ quen thuộc. Không thể sử dụng được dữ liệu tìm thấy Kết quả thường không đáp ứng về bản chất dữ liệu và thời gian tìm kiếm. Dữ liệu phải chuyên đổi bằng tay vào môi trường làm việc của người sử dụng. Những vấn đề về hệ thống thông tin: “Phát triển các chương trình ứng dụng khác nhau là không đơn giản”. Một chức năng được thể hiện ở rất nhiều chương trình, nhưng việc tổ chức và sử dụng nó là rất khó khăn do hạn chế về kỹ thuật. Chuyển đổi dữ liệu từ các khuôn dạng tác nghiệp khác nhau để phù hợp với người sử dụng là rất khó khăn. “Duy trì những chương trình này gặp rất nhiều vấn đề” Một thay đổi ở một ứng dụng sẽ ảnh hưởng đến các ứng dụng khác có liên quan.
  6. 6 Thông thường sự phụ thuộc lẫn nhau giữa các chương trình không rõ ràng hoặc là không xác định được. Do sự phức tạp của công việc chuyển đổi cũng như toàn bộ quá trình bảo trì dẫn đến mã nguồn của các chương trình trở nên hết sức phức tạp. “Khối lượng dữ liệu lưu trữ tăng rất nhanh” Không kiểm soát được khả năng chồng chéo dữ liệu trong các môi trường thông tin dẫn đến khối lượng dữ liệu tăng nhanh. “Quản trị dữ liệu phức tạp” Thiếu những định nghĩa chuẩn, thống nhất về dữ liệu dẫn đến việc mất khả năng kiểm soát môi trường thông tin. Một thành phần dữ liệu tồn tại ở nhiều nguồn khác nhau. Giải pháp cho tất cả các vấn đề nêu trên chính là việc xây dựng một kho dữ liệu (Data Warehouse) và phát triển một khuynh hướng kỹ thuật mới đó là kỹ thuật phát hiện tri thức và khai phá dữ liệu (KDD - Knowledge Discovery and Data Mining). Trước hết, chúng ta nhắc lại một vài khái niệm cơ bản liên quan đến dữ liệu, cơ sở dữ liệu, kho dữ liệu 1.2. Định nghĩa kho dữ liệu Thông thường chúng ta coi dữ liệu như một dãy các bit, hoặc các số và các ký hiệu, hoặc các “đối tượng” với một ý nghĩa nào đó khi được gửi cho một chương trình dưới một dạng nhất định. Chúng ta sử dụng các bit để đo lường các thông tin và xem nó như là các dữ liệu đã được lọc bỏ các dư thừa, được rút gọn tới mức tối thiểu để đặc trưng một cách cơ bản cho dữ liệu. Chúng ta có thể xem tri thức như là các thông tin tích hợp, bao gồm các sự kiện và các mối quan hệ giữa chúng. Các mối quan hệ này có thể được hiểu ra, có thể được phát hiện, hoặc có thể được học. Nói cách khác, tri thức có thể được coi là dữ liệu có độ trừu tượng và tổ chức cao . Theo John Ladley, kỹ nghệ kho dữ liệu (DWT - Data Warehouse Technology) là tập các phương pháp, kỹ thuật và các công cụ có thể kết hợp, hỗ trợ nhau để cung cấp thông tin cho người sử dụng trên cơ sở tích hợp từ nhiều nguồn dữ liệu, nhiều môi trường khác nhau. Kho dữ liệu (Data Warehouse), là tuyển chọn các cơ sở dữ liệu tích hợp, hướng theo các chủ đề nhất định, được thiết kế để hỗ trợ cho chức năng trợ giúp quyết định, mà mỗi đơn vị dữ liệu liên quan đến một khoảng thời gian cụ thể. Kho dữ liệu thường có dung lượng rất lớn, thường là hàng Gigabytes hay có khi tới hàng Terabytes. Kho dữ liệu được xây dựng để tiện lợi cho việc truy cập từ nhiều nguồn, nhiều kiểu dữ liệu khác nhau sao cho có thể kết hợp được cả những ứng dụng của các công nghệ hiện đại và vừa có thể kế thừa được từ các hệ thống đã có từ trước. Dữ liệu được phát sinh từ các hoạt động hàng ngày và được thu thập xử lý để phục vụ công việc nghiệp vụ cụ thể của một tổ chức, vì vậy thường được gọi
  7. 7 là dữ liệu tác nghiệp và hoạt động xử lý dữ liệu này gọi là xử lý giao dịch trực tuyến (OLPT - On Line Transaction Processing). Dòng dữ liệu trong một tổ chức (cơ quan, xí nghiệp, công ty, vv ) có thể mô tả khái quát như sau: Dữ liệu tác nghiệp Kho dữ liệu HỆ THỐNG Kho dữ liệu cá nhân DI SẢN Kho dữ liệu cục bộ (có sẵn) Siêu dữ liệu Hình 1.1. Luồng dữ liệu trong một tổ chức Dữ liệu cá nhân không thuộc phạm vi quản lý của hệ quản trị kho dữ liệu. Nó chứa các thông tin được trích xuất ra từ các hệ thống dữ liệu tác nghiệp, kho dữ liệu và từ những kho dữ liệu cục bộ của những chủ đề liên quan bằng các phép gộp, tổng hợp hay xử lý theo một cách nào đó. 1.3. Mục đích của kho dữ liệu Mục tiêu chính của kho dữ liệu nhằm đáp ứng các tiêu chuẩn cơ bản: Phải có khả năng đáp ứng mọi yêu cầu về thông tin của người sử dụng. Hỗ trợ để các nhân viên của tổ chức thực hiên tốt, hiệu quả công việc của mình, như có những quyết định hợp lý, nhanh và bán được nhiều hàng hơn, năng suất cao hơn, thu được lợi nhuận cao hơn v v Giúp cho tổ chức xác định, quản lý và điều hành các dự án, các nghiệp vụ một cách hiệu quả và chính xác. Tích hơp dữ liệu và siêu dữ liệu từ nhiều nguồn khác nhau. Muốn đạt được những yêu cầu trên thì DW phải: Nâng cao chất lượng dữ liệu bằng các phương pháp làm sạch và tinh lọc dữ liệu theo những hướng chủ đề nhất định. Tổng hợp và kết nối dữ liệu. Đồng bộ hoá các nguồn dữ liệu với DW. Phân định và đồng nhất các hệ quản trị cơ sở dữ liệu tác nghiệp như là các công cụ chuẩn để phục vụ cho DW.
  8. 8 Quản lí siêu dữ liệu (metadata) Cung cấp thông tin được tích hợp, tóm tắt hoặc được liên kết, tổ chức theo các chủ đề. Các kết quả khai thác kho dữ liệu được dùng trong hệ thống hỗ trợ quyết định (Decision Support System - DSS), các hệ thống thông tin tác nghiệp hoặc hỗ trợ cho các truy vấn đặc biệt. Mục tiêu cơ bản của mọi tổ chức là lợi nhuận và điều này được mô tả như sau: Lợi nhuận Lợi tức Chi phí Bán hàng Xác định giá Chi phí cố định Chi phí biến đổi Đề xuất kinh doanh Chi phí trong sản xuất Hình 1.2. Mối quan hệ về cách nhìn nhận trong hệ thống Để thực hiện chiến lược kinh doanh hiệu quả, các nhà lãnh đạo vạch ra phương hướng kinh doanh hàng hoá. Việc xác định giá của hàng hoá và quá trình bán hàng sẽ sản sinh lợi tức. Tuy nhiên, để có được hàng hóa kinh doanh thì cần phải mất các khoản chi phí. Lợi tức trừ đi chi phí sẽ cho lợi nhuận của đơn vị. 1.4. Đặc tính của dữ liệu trong kho dữ liệu Đặc điểm cơ bản của kho dữ liệu là một tập hợp dữ liệu có các đặc tính sau : - Tính tích hợp - Tính hướng chủ đề - Tính ổn định - Dữ liệu tổng hợp 1.4.1. Tính tích hợp (Intergration) Dữ liệu trong kho dữ liệu được tổ chức theo nhiều cách khác nhau sao cho phù hợp với các quy ước đặt tên, thống nhất về số đo, cơ cấu mã hoá và cấu trúc vật lý của dữ liệu, v v Một kho dữ liệu là một khung nhìn thông tin mức toàn bộ đơn vị sản xuất kinh doanh đó, thống nhất toàn bộ các khung nhìn khác nhau thành một khung nhìn theo một chủ điểm nào đó. Ví dụ, hệ thống xử lý giao dịch trực tuyến (OLAP) truyền thống được xây dựng trên một vùng nghiệp vụ. Một hệ thống bán hàng và một hệ thống tiếp thị (marketing) có thể có chung một dạng thông tin khách hàng. Tuy nhiên, các vấn đề về tài chính cần có một khung nhìn khác về khách hàng. Khung nhìn đó bao gồm các phần dữ liệu khác nhau về tài chính và marketing.
  9. 9 Tính tích hợp thể hiện ở chỗ: dữ liệu tập hợp trong kho dữ liệu được thu thập từ nhiều nguồn được trộn ghép với nhau thành một thể thống nhất. 1.4.2. Tính hướng chủ đề Dữ liệu trong kho dữ liệu được tổ chức theo chủ đề phục vụ cho tổ chức dễ dàng xác định được các thông tin cần thiết trong từng hoạt động của mình. Ví dụ, trong hệ thống quản lý tài chính cũ có thể có dữ liệu được tổ chức cho các chức năng: cho vay, quản lý tín dụng, quản lý ngân sách, v v Ngược lại, trong kho dữ liệu về tài chính, dữ liệu được tổ chức theo chủ điểm dựa vào các đối tượng: khách hàng, sản phẩm, các xí nghiệp, v v Sự khác nhau của 2 cách tiếp cận trên dẫn đến sự khác nhau về nội dung dữ liệu lưu trữ trong hệ thống. * Kho dữ liệu không lưu trữ dữ liệu chi tiết, chỉ cần lưu trữ dữ liệu mang tính tổng hợp phục vụ chủ yếu cho quá trình phân tích để trợ giúp quyết định. * CSDL trong các ứng dụng tác nghiệp lại cần xử lý dữ liệu chi tiết, phục vụ trực tiếp cho các yêu cầu xử lý theo các chức năng của lĩnh vực ứng dụng hiện thời. Do vậy, các hệ thống ứng dụng tác nghiệp (Operational Application System - OAS) cần lưu trữ dữ liệu chi tiết. Mối quan hệ của dữ liệu trong hệ thống này cũng khác, đòi hỏi phải có tính chính xác, có tính thời sự, v v * Dữ liệu cần gắn với thời gian và có tính lịch sử. Kho chứa dữ liệu bao hàm một khối lượng lớn dữ liệu có tính lịch sử. Dữ liệu được lưu trữ thành một loạt các snapshot (ảnh chụp dữ liệu). Mỗi bản ghi phản ánh những giá trị của dữ liệu tại một thời điểm nhất định thể hiện khung nhìn của một chủ điểm trong một giai đoạn. Do vậy cho phép khôi phục lại lịch sử và so sánh tương đối chính xác các giai đoạn khác nhau. Yếu tố thời gian có vai trò như một phần của khoá để đảm bảo tính đơn nhất của mỗi sản phẩm hàng hoá cà cung cấp đặc trưng về thời gian cho dữ liệu. Ví dụ, trong hệ thống quản lý kinh doanh cần có dữ liệu lưu trữ về đơn giá cuả mặt hàng theo ngày (đó chính là yếu tố thời gian). Cụ thể mỗi mặt hàng theo một đơn vị tính và tại một thời điểm xác định phải có một đơn giá khác nhau (sự biến động về giá cả mặt hàng xăng dầu trong thời gian qua là một minh chứng điển hình). Dữ liệu trong OAS thì cần phải chính xác tại thời điểm truy cập, còn ở DW thì chỉ cần có hiệu lực trong khoảng thời gian nào đó, trong khoảng 5 đến 10 năm hoặc lâu hơn. Dữ liệu của CSDL tác nghiệp thường sau một khoảng thời gian nhất định sẽ trở thành dữ liệu lịch sử và chúng sẽ được chuyển vào trong kho dữ liệu. Đó chính là những dữ liệu hợp lý về những chủ điểm cần lưu trữ.
  10. 10 So sánh về CSDL tác nghiệp và ảnh chụp dữ liệu, ta thấy: CSDL tác nghiệp Ảnh chụp dữ liệu Thời gian ngắn (30 – 60 ngày) Thời gian dài (5 – 10 năm) Có thể có yếu tố thời gian hoặc không Luôn có yếu tố thời gian Dữ liệu có thể được cập nhật Khi dữ liệu được chụp lại thì không cập nhật được Bảng 1.1. Tính thời gian của dữ liệu 1.4.3. Dữ liệu có tính ổn định (nonvolatility) Dữ liệu trong DW là dữ liệu chỉ đọc và chỉ có thể được kiểm tra, không thể được thay đổi bởi người dùng đầu cuối (terminal users). Nó chỉ cho phép thực hiện 2 thao tác cơ bản là nạp dữ liệu vào kho và truy cập vào các cung trong DW. Do vậy, dữ liệu không biến động. Thông tin trong DW phải được tải vào sau khi dữ liệu trong hệ thống điều hành được cho là quá cũ. Tính không biến động thể hiện ở chỗ: dữ liệu được lưu trữ lâu dài trong kho dữ liệu. Mặc dù có thêm dữ liệu mới nhập vào nhưng dữ liệu cũ trong kho dữ liệu vẫn không bị xoá hoặc thay đổi. Điều đó cho phép cung cấp thông tin về một khoảng thời gian dài, cung cấp đủ số liệu cần thiết cho các mô hình nghiệp vụ phân tích, dự báo. Từ đó có được những quyết định hợp lý, phù hợp với các quy luật tiến hoá của tự nhiên. 1.4.4. Dữ liệu tổng hợp Dữ liệu tác nghiệp thuần tuý không được lưu trữ trong DW. Dữ liệu tổng hợp được tích hợp lại qua nhiều giai đoạn khác nhau theo các chủ điểm đã nêu ở trên. 1.5. Phân biệt kho dữ liệu với các cơ sở dữ liệu tác nghiệp Trên cơ sở các đặc trưng của DW, ta phân biệt DW với những hệ quản trị CSDL tác nghiệp truyền thống: Kho dữ liệu phải được xác định hướng theo chủ đề. Nó được thực hiện theo ý đồ của người sử dụng đầu cuối. Trong khi đó các hệ CSDL tác nghiệp dùng để phục vụ các mục đích áp dụng chung. Những hệ CSDL thông thường không phải quản lý những lượng thông tin lớn mà quản lý những lượng thông tin vừa và nhỏ. DW phải quản lý một khối lượng lớn các thông tin được lưu trữ trên nhiều phương tiện lưu trữ và xử lý khác nhau. Đó cũng là đặc thù của DW. DW có thể ghép nối các phiên bản (version) khác nhau của các cấu trúc CSDL. DW tổng hợp thông tin để thể hiện chúng dưới những hình thức dễ hiểu đối với người sử dụng. DW tích hợp và kết nối thông tin từ nhiều nguồn khác nhau trên nhiều loại phương tiện lưu trữ và xử lý thông tin nhằm phục vụ cho các ứng dụng xử lý tác nghiệp trực tuyến. DW có thể lưu trữ các thông tin tổng hợp theo một chủ đề nghiệp vụ nào đó sao cho tạo ra các thông tin phục vụ hiệu quả cho việc phân tích của người sử dụng.
  11. 11 DW thông thường chứa các dữ liệu lịch sử kết nối nhiều năm trước của các thông tin tác nghiệp được tổ chức lưu trữ có hiệu quả và có thể được hiệu chỉnh lại dễ dàng. Dữ liệu trong CSDL tác nghiệp thường là mới, có tính thời sự trong một khoảng thời gian ngắn. Dữ liệu trong CSDL tác nghiệp được chắt lọc và tổng hợp lại để chuyển sang môi trường DW. Rất nhiều dữ liệu khác không được chuyển về DW, chỉ những dữ liệu cần thiết cho công tác quản lý hay trợ giúp quyết định mới được chuyển sang DW. Nói một cách tổng quát, DW làm nhiệm vụ phân phát dữ liệu cho nhiều đối tượng (khách hàng), xử lý thông tin nhiều dạng như: CSDL, truy vấn dữ liệu (SQL query), báo cáo (report) v v
  12. 12 BÀI TẬP: LÝ THUYẾT: 1. Kho dữ liệu là gì? 2. Cho ví dụ về các hệ thống hoặc lĩnh vực nào đó có đủ điều kiện để xây dựng các kho dữ liệu lớn? 3. Một bảng dữ liệu có 50.000 bản ghi liệu có thể được gọi là một kho dữ liệu lớn hay chưa? Lý giải cho câu trả lời? 4. Cho ví dụ về một nguồn dữ liệu lưu trữ có cấu trúc bảng, cấu trúc semi-structured, hoặc không cấu trúc? 5. Phân biệt kho dữ liệu với cơ sở dữ liệu tác nghiệp? THỰC HÀNH: 1. Cài đặt bộ ứng dụng Microsoft Visual Studio 2005? 2. Cài đặt và tìm hiệu dịch vụ Data analysis? 3. Quan sát và tìm hiểu cơ sở dữ liệu NorthWind?
  13. 13 Chương 2: Tổng quan về khai phá dữ liệu 2.1. Khai phá dữ liệu Khai phá dữ liệu được dùng để mô tả quá trình phát hiện ra tri thức trong CSDL. Quá trình này kết xuất ra các tri thức tiềm ẩn từ dữ liệu giúp cho việc dự báo trong kinh doanh, các hoạt động sản xuất, Khai phá dữ liệu làm giảm chi phí về thời gian so với phương pháp truyền thống trước kia (ví dụ như phương pháp thống kê). Sau đây là một số định nghiã mang tính mô tả của nhiều tác giả về khai phá dữ liệu. Định nghĩa của Ferruzza: “Khai phá dữ liệu là tập hợp các phương pháp được dùng trong tiến trình khám phá tri thức để chỉ ra sự khác biệt các mối quan hệ và các mẫu chưa biết bên trong dữ liệu” Định nghĩa của Parsaye: “Khai phá dữ liệu là quá trình trợ giúp quyết định, trong đó chúng ta tìm kiếm các mẫu thông tin chưa biết và bất ngờ trong CSDL lớn” Định nghĩa của Fayyad: “Khai phá tri thức là một quá trình không tầm thường nhận ra những mẫu dữ liệu có giá trị, mới, hữu ích, tiềm năng và có thể hiểu được”. 2.2. Các ứng dụng của khai phá dữ liệu Phát hiện tri thức và khai phá dữ liệu liên quan đến nhiều ngành, nhiều lĩnh vực: thống kê, trí tuệ nhân tạo, cơ sở dữ liệu, thuật toán, tính toán song song và tốc độ cao, thu thập tri thức cho các hệ chuyên gia, quan sát dữ liệu Đặc biệt phát hiện tri thức và khai phá dữ liệu rất gần gũi với lĩnh vực thống kê, sử dụng các phương pháp thống kê để mô hình dữ liệu và phát hiện các mẫu, luật Ngân hàng dữ liệu (Data Warehousing) và các công cụ phân tích trực tuyến (OLAP- On Line Analytical Processing) cũng liên quan rất chặt chẽ với phát hiện tri thức và khai phá dữ liệu. Khai phá dữ liệu có nhiều ứng dụng trong thực tế, ví dụ như: Bảo hiểm, tài chính và thị trường chứng khoán: phân tích tình hình tài chính và dự báo giá của các loại cổ phiếu trong thị trường chứng khoán. Danh mục vốn và giá, lãi suất, dữ liệu thẻ tín dụng, phát hiện gian lận, Thống kê, phân tích dữ liệu và hỗ trợ ra quyết định. Ví dụ như bảng sau: Dân số thế giới Dân số thế giới Dân số thế giới Năm Năm Năm (triệu ngƣời) (triệu ngƣời) (triệu ngƣời) 1950 2555 1970 3708 1990 5275 1951 2593 1971 3785 1991 5359 1952 2635 1972 3862 1992 5443 1953 2680 1973 3938 1993 5524
  14. 14 1954 2728 1974 4014 1994 5604 1955 2779 1975 4087 1995 5685 1956 2832 1976 4159 1996 5764 1957 2888 1977 4231 1997 5844 1958 2945 1978 4303 1998 5923 1959 2997 1979 4378 1999 6001 1960 3039 1980 4454 2000 6078 1961 3080 1981 4530 2001 6153 1962 3136 1982 4610 2002 6228 1963 3206 1983 4690 1964 3277 1984 4769 1965 3346 1985 4850 1966 3416 1986 4932 1967 3486 1987 5017 1968 3558 1988 5102 1969 3632 1989 5188 Nguồn: U.S. Bureau of the Census, International Data Base. Cập nhật ngày 10/10/2002. Bảng 2.1. Dân số thế giới tính tại thời điểm giữa năm Điều trị y học và chăm sóc y tế: một số thông tin về chuẩn đoán bệnh lưu trong các hệ thống quản lý bệnh viện. Phân tích mối liên hệ giữa các triệu chứng bệnh, chuẩn đoán và phương pháp điều trị (chế độ dinh dưỡng, thuốc, ) Sản xuất và chế biến: Quy trình, phương pháp chế biến và xử lý sự cố. Text mining và Web mining: Phân lớp văn bản và các trang Web, tóm tắt văn bản, Lĩnh vực khoa học: Quan sát thiên văn, dữ liệu gene, dữ liệu sinh vật học, tìm kiếm, so sánh các hệ gene và thông tin di truyền, mối liên hệ gene và một số bệnh di truyền, Mạng viễn thông: Phân tích các cuộc gọi điện thoại và hệ thống giám sát lỗi, sự cố, chất lượng dịch vụ, 2.3. Các bƣớc của quá trình khai phá dữ liệu Quy trình phát hiện tri thức thường tuân theo các bước sau:
  15. 15 Hình 2.1. Quy trình phát hiện tri thức Bước thứ nhất: Hình thành, xác định và định nghĩa bài toán. Là tìm hiểu lĩnh vực ứng dụng từ đó hình thành bài toán, xác định các nhiệm vụ cần phải hoàn thành. Bước này sẽ quyết định cho việc rút ra được các tri thức hữu ích và cho phép chọn các phương pháp khai phá dữ liệu thích hợp với mục đích ứng dụng và bản chất của dữ liệu. Bước thứ hai: Thu thập và tiền xử lý dữ liệu. Là thu thập và xử lý thô, còn được gọi là tiền xử lý dữ liệu nhằm loại bỏ nhiễu (làm sạch dữ liệu), xử lý việc thiếu dữ liệu (làm giàu dữ liệu), biến đổi dữ liệu và rút gọn dữ liệu nếu cần thiết, bước này thường chiếm nhiều thời gian nhất trong toàn bộ qui trình phát hiện tri thức. Do dữ liệu được lấy từ nhiều nguồn khác nhau, không đồng nhất, có thể gây ra các nhầm lẫn. Sau bước này, dữ liệu sẽ nhất quán, đầy đủ, được rút gọn và rời rạc hoá. Bước thứ ba: Khai phá dữ liệu, rút ra các tri thức. Là khai phá dữ liệu, hay nói cách khác là trích ra các mẫu hoặc/và các mô hình ẩn dưới các dữ liệu. Giai đoạn này rất quan trọng, bao gồm các công đoạn như: chức năng, nhiệm vụ và mục đích của khai phá dữ liệu, dùng phương pháp khai phá nào? Thông thường, các bài toán khai phá dữ liệu bao gồm: các bài toán mang tính mô tả - đưa ra tính chất chung nhất của dữ liệu, các bài toán dự báo - bao gồm cả việc phát hiện các suy diễn dựa trên dữ liệu hiện có. Tuỳ theo bài toán xác định được mà ta lựa chọn các phương pháp khai phá dữ liệu cho phù hợp. Bước thứ tư: Sử dụng các tri thức phát hiện được. Là hiểu tri thức đã tìm được, đặc biệt là làm sáng tỏ các mô tả và dự đoán. Các bước trên có thể lặp đi lặp lại một số lần, kết quả thu được có thể được lấy trung bình trên tất cả các lần thực hiện. Các kết quả của quá trình phát hiện tri thức có thể được đưa và ứng dụng trong các lĩnh vực khác nhau. Do các kết quả có thể là các dự đoán hoặc các mô tả nên chúng có thể được đưa vào các hệ thống hỗ trợ ra quyết định nhằm tự động hoá quá trình này. Tóm lại: KDD là một quá trình kết xuất ra tri thức từ kho dữ liệu mà trong đó khai phá dữ liệu là công đoạn quan trọng nhất.
  16. 16 2.4. Nhiệm vụ chính trong khai thác dữ liệu Quá trình khai phá dữ liệu là quá trình phát hiện ra mẫu thông tin. Trong đó, giải thuật khai phá tìm kiếm các mẫu đáng quan tâm theo dạng xác định như các luật, phân lớp, hồi quy, cây quyết định, 2.4.1. Phân lớp (phân loại - classification) Là việc xác định một hàm ánh xạ từ một mẫu dữ liệu vào một trong số các lớp đã được biết trước đó. Mục tiêu của thuật toán phân lớp là tìm ra mối quan hệ nào đó giữa thuộc tính dự báo và thuộc tính phân lớp. Như thế quá trình phân lớp có thể sử dụng mối quan hệ này để dự báo cho các mục mới. Các kiến thức được phát hiện biểu diễn dưới dạng các luật theo cách sau: “Nếu các thuộc tính dự báo của một mục thoả mãn điều kiện của các tiền đề thì mục nằm trong lớp chỉ ra trong kết luận”. Ví dụ: Một mục biểu diễn thông tin về nhân viên có các thuộc tính dự báo là: họ tên, tuổi, giới tính, trình độ học vấn, và thuộc tính phân loại là trình độ lãnh đạo của nhân viên. 2.4.2. Hồi qui (regression) Là việc học một hàm ánh xạ từ một mẫu dữ liệu thành một biến dự đoán có giá trị thực. Nhiệm vụ của hồi quy tương tự như phân lớp, điểm khác nhau chính là ở chỗ thuộc tính để dự báo là liên tục chứ không phải rời rạc. Việc dự báo các giá trị số thường được làm bởi các phương pháp thống kê cổ điển, chẳng hạn như hồi quy tuyến tính. Tuy nhiên, phương pháp mô hình hoá cũng được sử dụng, ví dụ: cây quyết định. Ứng dụng của hồi quy là rất nhiều, ví dụ: dự đoán số lượng sinh vật phát quang hiện thời trong khu rừng bằng cách dò tìm vi sóng bằng các thiết bị cảm biến từ xa; ước lượng sác xuất người bệnh có thể chết bằng cách kiểm tra các triệu chứng; dự báo nhu cầu của người dùng đối với một sản phẩm, 2.4.3. Phân nhóm (clustering) Là việc mô tả chung để tìm ra các tập hay các nhóm, loại mô tả dữ liệu. Các nhóm có thể tách nhau hoặc phân cấp hay gối lên nhau. Có nghĩa là dữ liệu có thể vừa thuộc nhóm này lại vừa thuộc nhóm khác. Các ứng dụng khai phá dữ liệu có nhiệm vụ phân nhóm như phát hiện tập các khách hàng có phản ứng giống nhau trong CSDL tiếp thị; xác định các quang phổ từ các phương pháp đo tia hồng ngoại, Liên quan chặt chẽ đến việc phân nhóm là nhiệm vụ đánh giá dữ liệu, hàm mật độ xác suất đa biến/ các trường trong CSDL. 2.4.4. Tổng hợp (summarization) Là công việc liên quan đến các phương pháp tìm kiếm một mô tả tập con dữ liệu [1, 2, 5]. Kỹ thuật tổng hợp thường áp dụng trong việc phân tích dữ liệu có tính thăm dò và báo cáo tự động. Nhiệm vụ chính là sản sinh ra các mô tả đặc trưng cho một lớp. Mô tả loại này là một kiểu tổng hợp, tóm tắt các đặc tính chung của tất cả hay hầu hết các mục của một lớp. Các mô tả đặc trưng thể
  17. 17 hiện theo luật có dạng sau: “Nếu một mục thuộc về lớp đã chỉ trong tiền đề thì mục đó có tất cả các thuộc tính đã nêu trong kết luận”. Lưu ý rằng luật dạng này có các khác biệt so với luật phân lớp. Luật phát hiện đặc trưng cho lớp chỉ sản sinh khi các mục đã thuộc về lớp đó. 2.4.5. Mô hình hoá sự phụ thuộc (dependency modeling) Là việc tìm kiếm một mô hình mô tả sự phụ thuộc giữa các biến, thuộc tính theo hai mức: Mức cấu trúc của mô hình mô tả (thường dưới dạng đồ thị). Trong đó, các biến phụ thuộc bộ phận vào các biến khác. Mức định lượng mô hình mô tả mức độ phụ thuộc. Những phụ thuộc này thường được biểu thị dưới dạng theo luật “nếu - thì” (nếu tiền đề là đúng thì kết luận đúng). Về nguyên tắc, cả tiền đề và kết luận đều có thể là sự kết hợp logic của các giá trị thuộc tính. Trên thực tế, tiền đề thường là nhóm các giá trị thuộc tính và kết luận chỉ là một thuộc tính. Hơn nữa hệ thống có thể phát hiện các luật phân lớp trong đó tất cả các luật cần phải có cùng một thuộc tính do người dùng chỉ ra trong kết luận. Quan hệ phụ thuộc cũng có thể biểu diễn dưới dạng mạng tin cậy Bayes. Đó là đồ thị có hướng, không chu trình. Các nút biểu diễn thuộc tính và trọng số của liên kết phụ thuộc giữa các nút đó. 2.4.6. Phát hiện sự biến đổi và độ lệch (change and deviation dectection) Nhiệm vụ này tập trung vào khám phá hầu hết sự thay đổi có nghĩa dưới dạng độ đo đã biết trước hoặc giá trị chuẩn, phát hiện độ lệch đáng kể giữa nội dung của tập con dữ liệu thực và nội dung mong đợi. Hai mô hình độ lệch hay dùng là lệch theo thời gian hay lệch theo nhóm. Độ lệch theo thời gian là sự thay đổi có ý nghĩa của dữ liệu theo thời gian. Độ lệch theo nhóm là sự khác nhau của giữa dữ liệu trong hai tập con dữ liệu, ở đây tính cả trường hợp tập con dữ liệu này thuộc tập con kia, nghĩa xác định dữ liệu trong một nhóm con của đối tượng có khác đáng kể so với toàn bộ đối tượng không? Theo cách này, sai sót dữ liệu hay sai lệch so với giá trị thông thường được phát hiện. Vì những nhiệm vụ này yêu cầu số lượng và các dạng thông tin rất khác nhau nên chúng thường ảnh hưởng đến việc thiết kế và chọn phương pháp khai phá dữ liệu khác nhau. Ví dụ như phương pháp cây quyết định (sẽ được trình bày dưới đây) tạo ra được một mô tả phân biệt được các mẫu giữa các lớp nhưng không có tính chất và đặc điểm của lớp. 2.5. Các phƣơng pháp khai phá dữ liệu Khai phá dữ liệu là lĩnh vực mà con người luôn tìm cách đạt được mực đích sử dụng thông tin của mình. Quá trình khai phá dữ liệu là quá trình phát hiện mẫu, trong đó phương pháp khai phá dữ liệu để tìm kiếm các mẫu đáng quan tâm theo dạng xác định. Có thể kể ra đây một vài phương pháp như: sử dụng công cụ truy vấn, xây dựng cây quyết định, dựa theo khoảng cách (K-láng giềng gần), giá trị trung bình, phát hiện luật kết hợp, Các phương pháp trên có thể được phỏng theo và được tích hợp vào các hệ thống lai để khai phá dữ liệu theo thống kê trong nhiều năm nghiên cứu.
  18. 18 Tuy nhiên, với dữ liệu rất lớn trong kho dữ liệu thì các phương pháp này cũng đối diện với thách thức về mặt hiệu quả và quy mô. 2.5.1. Các thành phần của giải thuật khai phá dữ liệu Giải thuật khai phá dữ liệu bao gồm 3 thành phần chính như sau: biểu diễn mô hình, kiểm định mô hình và phương pháp tìm kiếm. Biểu diễn mô hình: Mô hình được biểu diễn theo một ngôn ngữ L nào đó để miêu tả các mẫu có thể khai thác được. Mô tả mô hình rõ ràng thì học máy sẽ tạo ra mẫu có mô hình chính xác cho dữ liệu. Tuy nhiên, nếu mô hình quá lớn thì khả năng dự đoán của học máy sẽ bị hạn chế. Như thế sẽ làm cho việc tìm kiếm phức tạp hơn cũng như hiểu được mô hình là không đơn giản hoặc sẽ không thể có các mẫu tạo ra được một mô hình chính xác cho dữ liệu. Ví dụ mô tả cây quyết định sử dụng phân chia các nút theo 1 trường dữ liệu, chia không gian đầu vào thành các siêu phẳng song song với trục các thuộc tính. Phương pháp cây quyết định như vậy không thể khai phá được dữ liệu dạng công thức X = Y dù cho tập học có quy mô lớn thế nào đi nữa. Vì vậy, việc quan trọng là người phân tích dữ liệu cần phải hiểu đầy đủ các giả thiết miêu tả. Một điều cũng khá quan trọng là người thiết kế giải thuật cũng phải diễn tả được các giả thiết mô tả nào được tạo ra bởi giải thuật nào. Khả năng miêu tả mô hình càng lớn thì càng làm tăng mức độ nguy hiểm do bị học quá và làm giảm đi khả năng dự đoán các dữ liệu chưa biết. Hơn nữa, việc tìm kiếm sẽ càng trở lên phức tạp hơn và việc giải thích mô hình cũng khó khăn hơn. Mô hình ban đầu được xác định bằng cách kết hợp biến đầu ra (phụ thuộc) với các biến độc lập mà biến đầu ra phụ thuộc vào. Sau đó phải tìm những tham số mà bài toán cần tập trung giải quyết. Việc tìm kiếm mô hình sẽ đưa ra được một mô hình phù hợp với tham số được xác định dựa trên dữ liệu (trong một số trường hợp khác thì mô hình và các tham số lại thay đổi để phù hợp với dữ liệu). Trong một số trường hợp, tập các dữ liệu được chia thành tập dữ liệu học và tập dữ liệu thử. Tập dữ liệu học được dùng để làm cho tham số của mô hình phù hợp với dữ liệu. Mô hình sau đó sẽ được đánh giá bằng cách đưa các dữ liệu thử vào mô hình và thay đổi các tham số cho phù hợp nếu cần. Mô hình lựa chọn có thể là phương pháp thống kê như SASS, một số giải thuật học máy (ví dụ như cây quyết định và các quyết định học có thầy khác), mạng neuron, suy diễn hướng tình huống (case based reasoning), các kỹ thuật phân lớp. Kiểm định mô hình (model evaluation): Là việc đánh giá, ước lượng các mô hình chi tiết, chuẩn trong quá trình xử lý và phát hiện tri thức với sự ước lượng có dự báo chính xác hay không và có thoả mãn cơ sở logic hay không? Ước lượng phải được đánh giá chéo (cross validation) với việc mô tả đặc điểm bao gồm dự báo chính xác, tính mới lạ, tính hữu ích, tính hiểu được phù hợp với các mô hình. Hai phương pháp logic và thống kê chuẩn có thể sử dụng trong mô hình kiểm định. Phương pháp tìm kiếm: Phương pháp này bao gồm hai thành phần: tìm kiếm tham số và tìm kiếm mô hình. Trong tìm kiếm tham số, giải thuật cần tìm kiếm các tham số để tối ưu hóa các tiêu
  19. 19 chuẩn đánh giá mô hình với các dữ liệu quan sát được và với một mô tả mô hình đã định. Việc tìm kiếm không cần thiết đối với một số bài toán khá đơn giản: các đánh giá tham số tối ưu có thể đạt được bằng các cách đơn giản hơn. Đối với các mô hình chung thì không có các cách này, khi đó giải thuật “tham lam” thường được sử dụng lặp đi lặp lại. Ví dụ như phương pháp giảm gradient trong giải thuật lan truyền ngược (backpropagation) cho các mạng neuron. Tìm kiếm mô hình xảy ra giống như một vòng lặp qua phương pháp tìm kiếm tham số: mô tả mô hình bị thay đổi tạo nên một họ các mô hình. Với mỗi một mô tả mô hình, phương pháp tìm kiếm tham số được áp dụng để đánh giá chất lượng mô hình. Các phương pháp tìm kiếm mô hình thường sử dụng các kỹ thuật tìm kiếm heuristic vì kích thước của không gian các mô hình có thể thường ngăn cản các tìm kiếm tổng thể, hơn nữa các giải pháp đơn giản (closed form) không dễ đạt được. 2.5.2. Phương pháp suy diễn / quy nạp Một cơ sở dữ liệu là một kho thông tin nhưng các thông tin quan trọng hơn cũng có thể được suy diễn từ kho thông tin đó. Có hai kỹ thuật chính để thực hiện việc này là suy diễn và quy nạp. Phương pháp suy diễn: Nhằm rút ra thông tin là kết quả logic của các thông tin trong cơ sở dữ liệu. Ví dụ như toán tử liên kết áp dụng cho bảng quan hệ, bảng đầu chứa thông tin về các nhân viên và phòng ban, bảng thứ hai chứa các thông tin về các phòng ban và các trưởng phòng. Như vậy sẽ suy ra được mối quan hệ giữa các nhân viên và các trưởng phòng. Phương pháp suy diễn dựa trên các sự kiện chính xác để suy ra các tri thức mới từ các thông tin cũ. Mẫu chiết xuất được bằng cách sử dụng phương pháp này thường là các luật suy diễn. Phương pháp quy nạp: phương pháp quy nạp suy ra các thông tin được sinh ra từ cơ sở dữ liệu. Có nghĩa là nó tự tìm kiếm, tạo mẫu và sinh ra tri thức chứ không phải bắt đầu với các tri thức đã biết trước. Các thông tin mà phương pháp này đem lại là các thông tin hay các tri thức cấp cao diễn tả về các đối tượng trong cơ sở dữ liệu. Phương pháp này liên quan đến việc tìm kiếm các mẫu trong CSDL. Trong khai phá dữ liệu, quy nạp được sử dụng trong cây quyết định và tạo luật. 2.5.3. Phương pháp ứng dụng K-láng giềng gần Sự miêu tả các bản ghi trong tập dữ liệu khi trỏ vào không gian nhiều chiều là rất có ích đối với việc phân tích dữ liệu. Việc dùng các miêu tả này, nội dung của vùng lân cận được xác định, trong đó các bản ghi gần nhau trong không gian được xem xét thuộc về lân cận (hàng xóm – láng giềng) của nhau. Khái niệm này được dùng trong khoa học kỹ thuật với tên gọi K-láng giềng gần, trong đó K là số láng giềng được sử dụng. Phương pháp này rất hiệu quả nhưng lại đơn giản. Ý tưởng thuật toán học K-láng giềng gần là “thực hiện như các láng giềng gần của bạn đã làm”. Ví dụ: Để dự đoán hoạt động của cá thể xác định, K-láng giềng tốt nhất của cá thể được xem xét, và trung bình các hoạt động của các láng giềng gần đưa ra được dự đoán về hoạt động của cá thể đó.
  20. 20 Kỹ thuật K-láng giềng gần là một phương pháp tìm kiếm đơn giản. Tuy nhiên, nó có một số mặt hạn chế giới là hạn phạm vi ứng dụng của nó. Đó là thuật toán này có độ phức tạp tính toán là luỹ thừa bậc 2 theo số bản ghi của tập dữ liệu. Vấn đề chính liên quan đến thuộc tính của bản ghi. Một bản ghi gồm hiều thuộc tính độc lập, nó bằng một điểm trong không gian tìm kiếm có số chiều lớn. Trong các không gian có số chiều lớn, giữa hai điểm bất kỳ hầu như có cùng khoảng cách. Vì thế mà kỹ thuật K-láng giềng không cho ta thêm một thông tin có ích nào, khi tất cả các cặp điểm đều là các láng giềng. Cuối cùng, phương pháp K-láng giềng không đưa ra lý thuyết để hiểu cấu trúc dữ liệu. Hạn chế đó có thể được khắc phục bằng kỹ thuật cây quyết định. 2.5.4. Phương pháp sử dụng cây quyết định và luật Với kỹ thuật phân lớp dựa trên cây quyết định, kết quả của quá trình xây dựng mô hình sẽ cho ra một cây quyết định. Cây này được sử dụng trong quá trình phân lớp các đối tượng dữ liệu chưa biết hoặc đánh giá độ chính xác của mô hình. Tương ứng với hai giai đoạn trong quá trình phân lớp là quá trình xây dựng và sử dụng cây quyết định. Quá trình xây dựng cây quyết định bắt đầu từ một nút đơn biểu diễn tất cả các mẫu dữ liệu. Sau đó, các mẫu sẽ được phân chia một cách đệ quy dựa vào việc lựa chọn các thuộc tính. Nếu các mẫu có cùng một lớp thì nút sẽ trở thành lá, ngược lại ta sử dụng một độ đo thuộc tính để chọn ra thuộc tính tiếp theo làm cơ sở để phân chia các mẫu ra các lớp. Theo từng giá trị của thuộc tính vừa chọn, ta tạo ra các nhánh tương ứng và phân chia các mẫu vào các nhánh đã tạo. Lặp lại quá trình trên cho tới khi tạo ra được cây quyết định, tất cả các nút triển khai thành lá và được gán nhãn. Quá trình đệ quy sẽ dừng lại khi một trong các điều kiện sau được thỏa mãn: - Tất cả các mẫu thuộc cùng một nút. - Không còn một thuộc tính nào để lựa chọn. - Nhánh không chứa mẫu nào. Phần lớn các giải thuật sinh cây quyết định đều có hạn chế chung là sử dụng nhiều bộ nhớ. Lượng bộ nhớ sử dụng tỷ lệ thuận với kích thước của mẫu dữ liệu huấn luyện. Một chương trình sinh cây quyết định có hỗ trợ sử dụng bộ nhớ ngoài song lại có nhược điểm về tốc độ thực thi. Do vậy, vấn đề tỉa bớt cây quyết định trở nên quan trọng. Các nút lá không ổn định trong cây quyết định sẽ được tỉa bớt. Kỹ thuật tỉa trước là việc dừng sinh cây quyết định khi chia dữ liệu không có ý nghĩa. 2.5.5. Phương pháp phát hiện luật kết hợp Phương pháp này nhằm phát hiện ra các luật kết hợp giữa các thành phần dữ liệu trong cơ sở dữ liệu. Mẫu đầu ra của giải thuật khai phá dữ liệu là tập luật kết hợp tìm được. Ta có thể lấy một ví dụ đơn giản về luật kết hợp như sau: sự kết hợp giữa hai thành phần A và B có nghĩa là sự xuất hiện của A trong bản ghi kéo theo sự xuất hiện của B trong cùng bản ghi đó: A => B.
  21. 21 Cho một lược đồ R={A , , A } các thuộc tính với miền giá trị {0,1}, và một quan hệ r 1 p trên R. Một luật kết hợp trên r được mô tả dưới dạng X=>B với X  R và B R\X. Về mặt trực giác, ta có thể phát biểu ý nghĩa của luật như sau: nếu một bản ghi của bảng r có giá trị 1 tại mỗi thuộc tính thuộc X thì giá trị của thuộc tính B cũng là 1 trong cùng bản ghi đó. Ví dụ như ta có tập cơ sở dữ liệu về các mặt hàng bán trong siêu thị, các dòng tương ứng với các ngày bán hàng, các cột tương ứng với các mặt hàng thì giá trị 1 tại ô (20/10, bánh mì) xác định rằng bánh mì đã bán ngày hôm đó cũng kéo theo sự xuất hiện giá trị 1 tại ô (20/10, bơ). Cho W  R, đặt s(W,r) là tần số xuất hiện của W trong r được tính bằng tỷ lệ của các hàng trong r có giá trị 1 tại mỗi cột thuộc W. Tần số xuất hiện của luật X=>B trong r được định nghĩa là s(X  {B}, r) còn gọi là độ hỗ trợ của luật, độ tin cậy của luật là s(X  {B}, r)/s(X, r). Ở đây X có thể gồm nhiều thuộc tính, B là giá trị không cố định. Nhờ vậy mà không xảy ra việc tạo ra các luật không mong muốn trước khi quá trình tìm kiếm bắt đầu. Điều đó cũng cho thấy không gian tìm kiếm có kích thước tăng theo hàm mũ của số lượng các thuộc tính ở đầu vào. Do vậy cần phải chú ý khi thiết kế dữ liệu cho việc tìm kiếm các luật kết hợp. Nhiệm vụ của việc phát hiện các luật kết hợp là phải tìm tất cả các luật X=>B sao cho tần số của luật không nhỏ hơn ngưỡng σ cho trước và độ tin cậy của luật không nhỏ hơn ngưỡng θ cho trước. Từ một cơ sở dữ liệu ta có thể tìm được hàng nghìn và thậm chí hàng trăm nghìn các luật kết hợp. Ta gọi một tập con X  R là thường xuyên trong r nếu thỏa mãn điều kiện s(X, r)≥σ. Nếu biết tất cả các tập thường xuyên trong r thì việc tìm kiếm các luật rất dễ dàng. Vì vậy, giải thuật tìm kiếm các luật kết hợp trước tiên đi tìm tất cả các tập thường xuyên này, sau đó tạo dựng dần các luật kết hợp bằng cách ghép dần các tập thuộc tính dựa trên mức độ thường xuyên. Các luật kết hợp có thể là một cách hình thức hóa đơn giản. Chúng rất thích hợp cho việc tạo ra các kết quả có dữ liệu dạng nhị phân. Giới hạn cơ bản của phương pháp này là ở chỗ các quan hệ cần phải thưa theo nghĩa không có tập thường xuyên nào chứa nhiều hơn 15 thuộc tính. Giải thuật tìm kiếm các luật kết hợp tạo ra số luật ít nhất phải bằng với số các tập phổ biến và nếu như một tập K phổ biến có kích thước K thì phải có ít nhất là 2 tập phổ biến. Thông tin về các tập phổ biến được sử dụng để ước lượng độ tin cậy của các tập luật kết hợp. 2.6. Lợi thế của khai phá dữ liệu so với phƣơng pháp cơ bản Như đã phân tích ở trên, ta thấy phương pháp khai phá dữ liệu không có gì là mới và hoàn toàn dựa trên các phương pháp cơ bản đã biết. Vậy khai phá dữ liệu có gì khác so với các phương pháp đó? Và tại sao khai phá dữ liệu lại có ưu thế hơn hẳn chúng? Các phân tích sau đây sẽ giải đáp các câu hỏi này. 2.6.1. Học máy (Machine Learning)
  22. 22 Mặc dù người ta đã cố gắng cải tiến các phương pháp học máy để có thể phù hợp với mục đích khai phá dữ liệu nhưng sự khác biệt giữa cách thiết kế, các đặc điểm của cơ sở dữ liệu đã làm cho phương pháp học máy trở nên không phù hợp với mục đích này, mặc dù cho đến nay, phần lớn các phương pháp khai phá dữ liệu vẫn đựa trên nền tảng cơ sở của phương pháp học máy. Những phân tích sau đây sẽ cho thấy điều đó. Trong quản trị cơ sở dữ liệu, một cơ sở dữ liệu là một tập hợp được tích hợp một cách logic của dữ liệu được lưu trong một hay nhiều tệp và được tổ chức để lưu trữ có hiệu quả, sửa đổi và lấy thông tin liên quan được dễ dàng. Ví dụ như trong CSDL quan hệ, dữ liệu được tổ chức thành các tệp hoặc các bảng có các bản ghi có độ dài cố định. Mỗi bản ghi là một danh sách có thứ tự các giá trị, mỗi giá trị được đặt vào một trường. Thông tin về tên trường và giá trị của trường được đặt trong một tệp riêng gọi là thư viện dữ liệu (data dictionary). Một hệ thống quản trị cơ sở dữ liệu sẽ quản lý các thủ tục (procedures) để lấy, lưu trữ, và xử lý dữ liệu trong các cơ sở dữ liệu đó. Trong học máy, thuật ngữ cơ sở dữ liệu chủ yếu đề cập đến một tập các mẫu (instance hay example) được lưu trong một tệp. Các mẫu thường là các vector đặc điểm có độ dài cố định. Thông tin về các tên đặc điểm, dãy giá trị của chúng đôi khi cũng được lưu lại như trong từ điển dữ liệu. Một giải thuật học còn sử dụng tập dữ liệu và các thông tin kèm theo tập dữ liệu đó làm đầu vào và đầu ra biểu thị kết quả của việc học (ví dụ như một khái niệm). Với so sánh cơ sở dữ liệu thông thường và CSDL trong học máy như trên, có thể thấy là học máy có khả năng được áp dụng cho cơ sở dữ liệu, bởi vì không phải học trên tập các mẫu mà học trên tệp các bản ghi của CDSL. Tuy nhiên, phát hiện tri thức trong cơ sở dữ liệu làm tăng thêm các vấn đề vốn đã là điển hình trong học máy và đã quá khả năng của học máy. Trong thực tế, cơ sở dữ liệu thường động, không đầy đủ, bị nhiễu, và lớn hơn nhiều so với tập các dữ liệu học máy điển hình. Các yếu tố này làm cho hầu hết các giải thuật học máy trở nên không hiệu quả trong hầu hết các trường hợp. Vì vậy trong khai phá dữ liệu, cần tập trung rất nhiều công sức vào việc vượt qua những khó khăn, phức tạp này trong CSDL. 2.6.2. Phương pháp hệ chuyên gia Các hệ chuyên gia cố gắng nắm bắt các tri thức thích hợp với bài toán nào đó. Các kỹ thuật thu thập giúp cho việp háp đó là một cách suy diễn các chuyên gia con người. Mỗi phương pháp đó là một cách suy diễn các luật từ các ví dụ và giải pháp đối với bài toán chuyên gia đưa ra. Phương pháp này khác với khai phá dữ liệu ở chỗ các ví dụ của chuyên gia thường ở mức chất lượng cao hơn rất nhiều so với các dữ liệu trong cơ sở dữ liệu, và chúng thường chỉ bao được các trường hợp quan trọng. Hơn nữa, các chuyên gia sẽ xác nhận tính giá trị và hữu dụng của các mẫu phát hiện được. Cũng như với các công cụ quản trị cơ sở dữ liệu, ở các phương pháp này đòi hỏi có sự tham gia của con người trong việc phát hiện tri thức 2.6.3. Phát kiến khoa học
  23. 23 Khai phá dữ liệu rất khác với phát kiến khoa học ở chỗ khai phá trong CSDL ít có chủ tâm và có điều kiện hơn. Các dữ liệu khoa học có ừ thực nghiệm nhằm loại bỏ một số tác động của các tham số để nhấn mạnh độ biến thiên của một hay một số tham số đích. Tuy nhiên, các cơ sở dữ liệu thương mại điển hình lại ghi một số lượng thừa thông tin về các dự án của họ để đạt được một số mục đích về mặt tổ chức. Độ dư thừa này (hay có thể gọi là sự lẫn lộn – confusion) có thể nhìn thấy và cũng có thể ẩn chứa trong các mối quan hệ dữ liệu. Hơn nữa, các nhà khoa học có thể tạo lại các thí nghiệm và có thể tìm ra rằng các thiết kế ban đầu không thích hợp. Trong khi đó, các nhà quản lý cơ sở dữ liệu hầu như không thể xa xỉ đi thiết kế lại các trường dữ liệu và thu thập lại dữ liệu. 2.6.4. Phương pháp thống kê Một câu hỏi hiển nhiên là khai phá dữ liệu khác gì so với phương pháp thống kê. Một câu hỏi hiển nhiên là khai phá dữ liệu khác gì so với phương pháp thống kê. Từ nhiều năm nay, con người đã sử dụng phương pháp thống kê một cách rất hiệu quả để đạt được mục đích của mình. Mặc dù các phương pháp thống kê cung cấp một nền tảng lý thuyết vững chắc cho các bài toàn phân tích dữ liệu nhưng chỉ có tiếp cận thống kê thuần túy thôi chưa đủ. Thứ nhất, các phương pháp thống kê chuẩn không phù hợp đối với các kiểu dữ liệu có cấu trúc trong rất nhiều các CSDL. Thứ hai, thống kê hoàn toàn theo dữ liệu (data driven), nó không sử dụng tri thức sẵn có về lĩnh vực. Thứ ba, các kết quả phân tích thống kê có thể sẽ rất nhiều và khó có thể làm rõ được. Cuối cùng, các phương pháp thống kê cần có sự hướng dẫn của người dùng để xác định phân tích dữ liệu như thế nào và ở đâu. Sự khác nhau cơ bản giữa khai phá dữ liệu và thống kê là ở chỗ khai phá dữ liệu là một phương tiện được dùng bởi người sử dụng đầu cuối chứ không phải là các nhà thống kê. Khai phá dữ liệu tự động quá trình thống kê một cách có hiệu quả, vì vậy làm nhẹ bớt công việc của người dùng đầu cuối, tạo ra một công cụ dễ sử dụng hơn. Như vậy, nhờ có khai phá dữ liệu, việc dự đoán và kiểm tra rất vất vả trước đây có thể được đưa lên máy tính, được tính, dự đoán và kiểm tra một cách tự động. 2.7. Lựa chọn phƣơng pháp Các giải thuật khai phá dữ liệu tự động vẫn mới chỉ ở giai đoạn phát triển ban đầu. Người ta vẫn chưa đưa ra được một tiêu chuẩn nào trong việc quyết định sử dụng phương pháp nào và trong trường hợp hợp nào thì có hiệu quả. Hầu hết các kỹ thuật khai phá dữ liệu đều mới đối với lĩnh vực kinh doanh. Hơn nữa lại có rất nhiều kỹ thuật, mỗi kỹ thuật được sử dụng cho nhiều bài toán khác nhau. Vì vậy, ngay sau câu hỏi “khai phá dữ liệu là gì?” sẽ là câu hỏi “vậy thì dùng kỹ thuật nào?”. Câu trả lời tất nhiên là không đơn giản. Mỗi phương pháp đều có điểm mạnh và yếu của nó, nhưng hầu hết các điểm yếu đều có thể khắc phục được. Vậy thì phải làm như thế nào để áp dụng kỹ thuật một cách thật đơn giản, dễ sử dụng để không cảm thấy những phức tạp vốn có của kỹ thuật đó.
  24. 24 Để so sánh các kỹ thuật cần phải có một tập lớn các quy tắc và các phương pháp thực nghiệm tốt. Thường thì quy tắc này không được sử dụng khi đánh giá các kỹ thuật mới nhất. Vi vậy mà những yêu cầu cải thiện độ chính xác không phải lúc nào cũng thực hiện được. Nhiều công ty đã đưa ra những sản phẩm sử dụng kết hợp nhiều kỹ thuật khai phá dữ liệu khác nhau với hy vọng nhiều kỹ thuật sẽ tốt hơn. Nhưng thực tế cho thấy nhiều kỹ thuật chỉ thêm nhiều rắc rối và gây khó khăn cho việc so sánh giữa các phương pháp và các sản phẩm này. Theo nhiều đánh giá cho thấy, khi đã hiểu được các kỹ thuật và nghiên cứu tính giống nhau giữa chúng, người ta thấy rằng nhiều kỹ thuật lúc đầu thì có vẻ khác nhau nhưng thực chất ra khi hiểu được các kỹ thuật này thì thấy chúng hoàn toàn giống nhau. Tuy nhiên, đánh giá này cũng chỉ để tham khảo vì cho đến nay, khai phá dữ liệu vẫn còn là kỹ thuật mới chứa nhiều tiềm năng mà người ta vẫn chưa khai thác hết. 2.8. Những thách thức trong ứng dụng và nghiên cứu trong kỹ thuật khai phá dữ liệu Ở đây, ta đưa ra một số khó khăn trong việc nghiên cứu và ứng dụng kỹ thuật khai phá dữ liệu. Tuy nhiên, thế không có nghĩa là việc giải quyết là hoàn toàn bế tắc mà chỉ muốn nêu lên rằng để khai phá được dữ liệu không phải đơn giản, mà phải xem xét cũng như tìm cách giải quyết những vấn đề này. Ta có thể liệt kê một số khó khăn như sau: 2.8.1. Các vấn đề về cơ sở dữ liệu Đầu vào chủ yếu của một hệ thống khai thác tri thức là các dữ liệu thô trong cơ sở phát sinh trong khai phá dữ liệu chính là từ đây. Do các dữ liệu trong thực tế thường động, không đầy đủ, lớn và bị nhiễu. Trong những trường hợp khác, người ta không biết cơ sở dữ liệu có chứa các thông tin cần thiết cho việc khai thác hay không và làm thế nào để giải quyết với sự dư thừa những thông tin không thích hợp này. • Dữ liệu lớn: Cho đến nay, các cơ sở dữ liệu với hàng trăm trường và bảng, hàng triệu bản ghi và với kích thước đến gigabytes đã là chuyện bình thường. Hiện nay đã bắt đầu xuất hiện các cơ sở dữ liệu có kích thước tới terabytes. Các phương pháp giải quyết hiện nay là đưa ra một ngưỡng cho cơ sở dữ liệu, lấu mẫu, các phương pháp xấp xỉ, xử lý song song (Agrawal et al, Holsheimer et al). • Kích thước lớn: không chỉ có số lượng bản ghi lớn mà số các trường trong cơ sở dữ liệu cũng nhiều. Vì vậy mà kích thước của bài toán trở nên lớn hơn. Một tập dữ liệu có kích thước lớn sinh ra vấn đề làm tăng không gian tìm kiếm mô hình suy diễn. Hơn nữa, nó cũng làm tăng khả năng một giải thuật khai phá dữ liệu có thể tìm thấy các mẫu giả. Biện pháp khắc phục là làm giảm kích thước tác động của bài toán và sử dụng các tri thức biết trước để xác định các biến không phù hợp. • Dữ liệu động: Đặc điểm cơ bản của hầu hết các cơ sở dữ liệu là nội dung của chúng thay đổi liên tục. Dữ liệu có thể thay đổi theo thời gian và việc khai phá dữ liệu cũng bị ảnh hưởng bởi thời điểm quan sát dữ liệu. Ví dụ trong cơ sở dữ liệu về tình trạng bệnh nhân, một số giá trị dữ liệu
  25. 25 là hằng số, một số khác lại thay đổi liên tục theo thời gian (ví dụ cân nặng và chiều cao), một số khác lại thay đổi tùy thuộc vào tình huống và chỉ có giá trị được quan sát mới nhất là đủ (ví dụ nhịp đập của mạch). Vậy thay đổi dữ liệu nhanh chóng có thể làm cho các mẫu khai thác được trước đó mất giá trị. Hơn nữa, các biến trong cơ sở dữ liệu của ứng dụng đã cho cũng có thể bị thay đổi, bị xóa hoặc là tăng lên theo thời gian. Vấn đề này được giải quyết bằng các giải pháp tăng trưởng để nâng cấp các mẫu và coi những thay đổi như là cơ hội để khai thác bằng cách sử dụng nó để tìm kiếm các mẫu bị thay đổi. • Các trường không phù hợp: Một đặc điểm quan trọng khác là tính không thích hợp của dữ liệu, nghĩa là mục dữ liệu trở thành không thích hợp với trọng tâm hiện tại của việc khai thác. Một khía cạnh khác đôi khi cũng liên quan đến độ phù hợp là tính ứng dụng của một thuộc tính đối với một tập con của cơ sở dữ liệu. Ví dụ trường số tài khoản Nostro không áp dụng cho các tác nhân. • Các giá trị bị thiếu: Sự có mặt hay vắng mặt của giá trị các thuộc tính dữ liệu phù hợp có thể ảnh hưởng đến việc khai phá dữ liệu. Trong hệ thống tương tác, sự thiếu vắng dữ liệu quan trọng có thể dẫn đến việc yêu cầu cho giá trị của nó hoặc kiểm tra để xác định giá trị của nó. Hoặc cũng có thể sự vắng mặt của dữ liệu được coi như một điều kiện, thuộc tính bị mất có thể được coi như một giá trị trung gian và là giá trị không biết. Các trường bị thiếu: Một quan sát không đầy đủ cơ sở dữ liệu có thể làm cho các dữ liệu có giá trị bị xem như có lỗi. Việc quan sát cơ sở dữ liệu phải phát hiện được toàn bộ các thuộc tính có thể dùng để giải thuật khai phá dữ liệu có thể áp dụng nhằm giải quyết bài toán. Giả sử ta có các thuộc tính để phân biệt các tình huống đáng quan tâm. Nếu chúng không làm được điều đó thì có nghĩa là đã có lỗi trong dữ liệu. Đối với một hệ thống học để chuẩn đoán bệnh sốt rét từ một cơ sở dữ liệu bệnh nhân thì trường hợp các bản ghi của bệnh nhân có triệu chứng giống nhau nhưng lại có các chẩn đoán khác nhau là do trong dữ liệu đã bị lỗi. Đây cũng là vấn đề thường xảy ra trong cơ sở dữ liệu kinh doanh. Các thuộc tính quan trọng có thể sẽ bị thiếu nếu dữ liệu không được chuẩn bị cho việc khai phá dữ liệu. Độ nhiễu và không chắc chắn: Đối với các thuộc tính đã thích hợp, độ nghiêm trọng của lỗi phụ thuộc vào kiểu dữ liệu của các giá trị cho phép. Các giá trị của các thuộc tính khác nhau có thể là các số thực, số nguyên, chuỗi và có thể thuộc vào tập các giá trị định danh. Các giá trị định danh này có thể sắp xếp theo thứ tự từng phần hoặc đầy đủ, thậm chí có thể có cấu trúc ngữ nghĩa. Một yếu tố khác của độ không chắc chắn chính là tính kế thừa hoặc độ chính xác mà dữ liệu cần có, nói cách khác là độ nhiễu crên các phép đo và phân tích có ưu tiên, mô hình thống kê mô tả tính ngẫu nhiên được tạo ra và được sử dụng để định nghĩa độ mong muốn và độ dung sai của dữ liệu. Thường thì các mô hình thống kê được áp dụng theo cách đặc biệt để xác định một cách chủ quan các thuộc tính để đạt được các thống kê và đánh giá khả năng chấp nhận của các (hay tổ hợp các) giá trị thuộc tính. Đặc biệt là với dữ liệu kiểu số, sự đúng đắn của dữ liệu có thể là một yếu tố trong việc khai phá. Ví dụ như trong việc đo nhiệt độ cơ thể, ta thường cho phép chênh lệch 0.1 độ.
  26. 26 Nhưng việc phân tích theo xu hướng nhạy cảm nhiệt độ của cơ thể lại yêu cầu độ chính xác cao hơn. Để một hệ thống khai thác có thể liên hệ đến xu hướng này để chuẩn đoán thì lại cần có một độ nhiễu trong dữ liệu đầu vào. Mối quan hệ phức tạp giữa các trường: các thuộc tính hoặc các giá trị có cấu trúc phân cấp, các mối quan hệ giữa các thuộc tính và các phương tiện phức tạp để diễn tả tri thức về nội dung của cơ sở dữ liệu yêu cầu các giải thuật phải có khả năng sử dụng một cách hiệu quả các thông tin này. Ban đầu, kỹ thuật khai phá dữ liệu chỉ được phát triển cho các bản ghi có giá trị thuộc tính đơn giản. Tuy nhiên, ngày nay người ta đang tìm cách phát triển các kỹ thuật nhằm rút ra mối quan hệ giữa các biến này. 2.8.2. Một số vấn đề khác “Quá phù hợp” (Overfitting) Khi một giải thuật tìm kiếm các tham số tốt nhất cho đó sử dụng một tập dữ liệu hữu hạn, nó có thể sẽ bị tình trạng “quá độ” dữ liệu (nghĩa là tìm kiếm quá mức cần thiết gây ra hiện tượng chỉ phù hợp với các dữ liệu đó mà không có khả năng đáp ứng cho các dữ liệu lạ), làm cho mô hình hoạt động rất kém đối với các dữ liệu thử. Các giải pháp khắc phục bao gồm đánh giá chéo (cross-validation), thực hiện theo nguyên tắc nào đó hoặc sử dụng các biện pháp thống kê khác. Đánh giá tầm quan trọng thống kê: Vấn đề (liên quan đến overfitting) xảy ra khi một hệ thống tìm kiếm qua nhiều mô hình. Ví dụ như nếu một hệ thống kiểm tra N mô hình ở mức độ quan trọng 0,001 thì với dữ liệu ngẫu nhiên trung bình sẽ có N/1000 mô hình được chấp nhận là quan trọng. Để xử lý vấn đề này, ta có thể sử dụng phương pháp điều chỉnh thống kê trong kiểm tra như một hàm tìm kiếm, ví dụ như điều chỉnh Bonferroni đối với các kiểm tra độc lập. • Khả năng biểu đạt của mẫu: Trong rất nhiều ứng dụng, điều quan trọng là những điều khai thác được phải cáng dễ hiểu với con người càng tốt. Vì vậy, các giải pháp thường bao gồm việc diễn tả dưới dạng đồ họa, xây dựng cấu trúc luật với các đồ thị có hướng (Gaines), biểu diễn bằng ngôn ngữ tự nhiên (Matheus et al.) và các kỹ thuật khác nhằm biểu diễn tri thức và dữ liệu. Sự tương tác với người sử dụng và các tri thức sẵn có: rất nhiều công cụ và phương pháp khai phá dữ liệu không thực sự tương tác với người dùng và không dễ dàng kết hợp cùng với các tri thức đã biết trước đó. Việc sử dụng tri thức miền là rất quan trọng trong khai phá dữ liệu. Đã có nhiều biện pháp nhằm khắc phục vấn đề này như sử dụng cơ sở dữ liệu suy diễn để phát hiện tri thức, những tri thức này sau đó được sử dụng để hướng dẫn cho việc tìm kiếm khai phá dữ liệu hoặc sử dụng sự phân bố và xác suất dữ liệu trước đó như một dạng mã hóa tri thức có sẵn. Bài tập: 1. Kỹ thuật khai phá dữ liệu là gì? 2. Nhiệm vụ chính của quá trình khai phá dữ liệu?
  27. 27 3. Trình bày các nét khác nhau cơ bản giữa kỹ thuật khai phá dữ liệu với các phương pháp như máy học, thống kê? 4. Các bước của quá trình khai phá dữ liệu? 5. Hãy cho ví dụ ứng dụng kỹ thuật khai phá dữ liệu trong thực tế?
  28. 28 Chương 3: Tiền xử lý dữ liệu 3.1. Mục đích Các Kỹ thuật datamining đều thực hiện trên các cơ sở dữ liệu, nguồn dữ liệu lớn. Đó là kết quả của quá trình ghi chép liên tục thông tin phản ánh hoạt động của con người, các quá trình tự nhiên Tất nhiên các dữ liệu lưu trữ hoàn toàn là dưới dạng thô, chưa sẵn sàng cho việc phát hiện, khám phá thông tin ẩn chứa trong đó. Do vậy chúng cần phải được làm sạch cũng như biến đổi về các dạng thích hợp trước khi tiến hành bất kỳ một phân tích nào. Để thực hiện được việc trích rút thông tin hữu ích, hay áp dụng các phương pháp khai phá như phân lớp, dự đoán thì nguồn dữ liệu thô ban đầu cần phải trải qua nhiều công đoạn biến đổi. Các công đoạn này có rất nhiều cách thực hiện tùy thuộc vào nhu cầu ví dụ như: Giảm thiểu kích thước, chích chọn các dữ liệu thực sự quan trọng, giới hạn phạm vi của các dữ liệu thời gian thực, hoặc thay đổi, điều chỉnh các dữ liệu sao cho phù hợp nhất với yêu cầu đặt ra. Tất nhiên không nên quá kỳ vọng vào việc áp dụng máy tính để tìm ra các tri thức hữu ích mà không có sự trợ giúp của con người, cũng như không thể mong muốn rằng một nguồn dữ liệu sau khi biến đổi của bài toán này lại có thể phù hợp với một bài toán khai phá khác. Ví dụ, Một Công ty điện tử đưa ra yêu cầu phân tích dữ liệu bán hàng tại các chi nhánh. Khi đó nhân viên phân tích cần phải kiểm tra kỹ lưỡng cơ sở dữ liệu bán hàng của toàn công ty cũng như kho xưởng để xác định và lựa chọn các thuộc tính hoặc chiều thông tin đưa vào phân tích như: Chủng loại mặt hàng, mặt hàng, giá cả, chi nhánh bán ra. Tuy nhiên không thể tránh khỏi việc các giao dịch thường nhật có những sai lỗi nhất định trong quá trình ghi chép của nhân viên bán hàng. Các sai lỗi đó rất đa dạng từ việc không ghi lại thông tin cho đến việc ghi sai thông tin so với quy định, quy chuẩn bình thường. Do vậy công việc phân tích sẽ khó thể triển khai được nếu giữ nguyên nguồn dữ liệu ban đầu ở trạng thái chưa đầy đủ (thiếu giá trị thuộc tính hoặc các thuộc tính nhất định chỉ chứa các dữ liệu tổng hợp), nhiễu (có chứa lỗi, hoặc biên của giá trị khác so với dự kiến), và không phù hợp (ví dụ, có sự khác biệt trong mã số chi nhánh được sử dụng để phân loại). Những điều nêu trong ví dụ trên là hoàn toàn có thực trong thế giới hiện tại, đơn giản là vào thời điểm thu thập chúng không được coi là quan trọng, các dữ liệu liên quan không được ghi lại do một sự hiểu nhầm, hoặc do trục trặc thiết bị. Ngoài ra còn có các trường hợp các dữ liệu đã ghi sau khi qua một quá trình xem xét nào trước đó đã bị xóa đi, cũng như việc ghi chép sự biến đổi mang tính lịch sử của các giao dịch có thể bị bỏ qua mà chỉ giữ lại những thông tin tổng hợp vào thời điểm xét. Do vậy, làm phát sinh nhu cầu làm sạch dữ liệu là để tìm (điền) thêm các giá trị thiếu, làm mịn các dữ liệu nhiễu hoặc loại bỏ các giá trị không ý nghĩa, dữ liệu gây mâu thuẫn. Quá trình chuẩn bị dữ liệu phục vụ khai phá dữ liệu thông thường gồm: - Làm sạch dữ liệu;
  29. 29 - Tích hợp dữ liệu; - Biến đổi dữ liệu; - Rút gọn dữ liệu. 3.2. Làm sạch dữ liệu 3.2.1. Thiếu giá trị Hãy xem xét một kho dữ liệu bán hàng và quản lý khách hàng. Trong đó có thể có một hoặc nhiều giá trị mà khó có thể thu thập được ví dụ như thu nhập của khách hàng. Vậy làm cách nào để chúng ta có được các thông tin đó, hãy xem xét các phương pháp sau. - Bỏ qua các bộ: Điều này thường được thực hiện khi thông tin nhãn dữ liệu bị mất. Phương pháp này không phải lúc nào cũng hiệu quả trừ khi các bộ có chứa một số thuộc tính không thực sự quan trọng. - Điền vào các giá trị thiếu bằng tay: Phương pháp này thường tốn thời gian và có thể không khả thi cho một tập dữ liệu nguồn lớn với nhiều giá trị bị thiếu. - Sử dụng các giá trị quy ước để điền vào cho giá trị thiệu: Thay thế các giá trị thuộc tính thiếu bởi cùng một hằng số quy ước, chẳng hạn như một nhãn ghi giá trị “Không biết” hoặc “∞”. Tuy vậy điều này cũng có thể khiến cho chương trình khai phá dữ liệu hiểu nhầm trong một số trường hợp và đưa ra các kết luận không hợp lý.
  30. 30 - Sử dụng các thuộc tính có nghĩa là để điền vào cho giá trị thiếu: Ví dụ, ta biết thu nhập bình quân đầu người của một khu vực lầ 800.000đ, giá trị này có thể được dùng thể thay thế cho giá trị thu nhập bị thiếu của khách hàng trong khu vực đó. - Sử dụng các giá trị của các bộ cùng thể loại để thay thế cho giá trị thiếu: Ví dụ, nếu khách hàng A thuộc cùng nhóm phân loại theo rủi ro tín dụng với một khách hàng B khác trong khi đó khách hàng này có thông tin thu nhập bình quân. Ta có thể sử dụng giá trị đó để điền vào cho giá trị thu nhập bình quân của khách hàng A . - Sử dụng giá trị có tỉ lệ xuất hiện cao để điền vào cho các giá trị thiếu.: Điều này có thể xác định bằng phương pháp hồi quy, các công cụ suy luận dựa trên lý thuyết Bayersian hay cây quyết định 3.2.2. Dữ liệu nhiễu Nhiễu dữ liệu là một lỗi ngẫu nhiên hay do biến động của các biến trong quá trình thực hiện, hoặc sự ghi chép nhầm lẫn ko được kiểm soát Ví dụ cho thuộc tính như giá cá, làm cách nào để có thể làm mịn thuộc tính này để loại bỏ dữ liệu nhiễu. Hãy xem xét các kỹ thuật làm mịn sau: Mảng lƣu giá các mặt hàng: 4, 8, 15, 21, 21, 24, 25, 28, 34 Phân thành các bin Bin 1: 4, 8 , 15 Bin 2: 21, 21, 24 Bin 3: 25, 28, 34 Làm mịn sử dụng phƣơng pháp trung vị Bin 1: 9, 9 ,9 Bin 2: 22, 22, 22 Bin 3: 29, 29, 29 Làm mịn biên Bin 1: 4, 4, 15 Bin 2: 21, 21, 24 Bin 3: 25, 25, 34 Bảng 3.1. Ví dụ về phƣơng pháp làm mịn Binning a. Binning: Làm mịn một giá trị dữ liệu được xác định thông qua các giá trị xung quanh nó. Ví dụ, các giá trị giá cả được sắp xếp trước sau đó phân thành các dải khác nhau có cùng kích thước 3 (tức mỗi “Bin” chứa 3 giá trị).
  31. 31 - Khi làm mịn trung vị trong mỗi bin, các giá trị sẽ được thay thế bằng giá trị trung bình các giá trị có trong bin - Làm mịn biên: các giá trị nhỏ nhất và lớn nhất được xác định và dùng làm danh giới của bin. Các giá trị còn lại của bin sẽ được thay thế bằng một trong hai giá trị trên tùy thuộc vào độ lệch giữa giá trị ban đầu với các giá trị biên đó. Ví dụ, bin 1 có các giá trị 4, 8, 15 với giá trị trung bình là 9. Do vậy nếu làm mịn trung vị các giá trị ban đầu sẽ được thay thế bằng 9. Còn nếu làm mịn biên giá trị 8 ở gần giá trị 4 hơn nên nó được thay thế bằng 4. b. Hồi quy: Phương pháp thường dùng là hồi quy tuyến tính, để tìm ra được một mối quan hệ tốt nhất giữa hai thuộc tính (hoặc các biến), từ đó một thuộc tính có thể dùng để dự đoán thuộc tính khác. Hồi quy tuyến tính đa điểm là một sự mở rộng của phương pháp trên, trong đó có nhiều hơn hai thuộc tính được xem xét, và các dữ liệu tính ra thuộc về một miền đa chiều. Hình 3.1. Phân cụm dữ liệu khách hàng dựa trên thông tin địa chỉ c. Nhóm cụm: Các giá trị tương tự nhau được tổ chức thành các nhóm hay “cụm" trực quan. Các giá trị rơi ra bên ngoài các nhóm này sẽ được xem xét để làm mịn để đưa chúng 3.3. Tích hợp và biến đổi dữ liệu 3.3.1. Tích hợp dữ liệu Trong nhiều bài toán phân tích, chúng ta phải đồng ý rằng nguồn dữ liệu dùng để phân tích không thông nhất. Để có thể phân tích được, các dữ liệu này cần phải được tích hợp, kết hơp thành một kho dữ liệu thống nhất. Về dạng thức, các nguồn dữ liệu có thể được lưu trữ rất đa dạng từ: các cơ sở dữ liệu phổ dụng, các tập tin flat-file, các dữ liệu khối . Vấn đề đặt ra là làm thế nào có thể tích hợp chúng mà vẫn đảm bảo tính tương đương của thông tin giữa các nguồn.
  32. 32 Ví dụ, làm thế nào mà người phân tích dữ liệu hoặc máy tính chắc chắn rằng thuộc tính id của khách hàng trong một cơ sở dữ liệu A và số hiệu cust trong một flat-file là các thuộc tính giống nhau về tính chất? Việc tích hợp luôn cần các thông tin diễn tả tính chất của mỗi thuộc tính (siêu dữ liệu) như: tên, ý nghĩa, kiểu dữ liệu, miền xác định, các quy tắc xử lý giá trị rỗng, bằng không . Các siêu dữ liệu sẽ được sử dụng để giúp chuyển đổi các dữ liệu. Do vậy bước này cũng liên quan đến quá trình làm sạch dữ liệu. Dƣ thừa dữ liệu: Đây cũng là một vấn đề quan trọng, ví dụ như thuộc tính doanh thu hàng năm có thể là dư thừa nếu như nó có thể được suy diễn từ các thuộc tính hoặc tập thuộc tính khác. Một số dư thừa có thể được phát hiện thông qua các phân tích tương quan, Giả sử cho hai thuộc tính, việc phân tích tương quan có thể chỉ ra mức độ một thuộc tính phụ thuộc vào thuộc tính kia, dựa trên các dữ liệu có trong nguồn. Với các thuộc tính số học, chúng ta có thể đánh giá sự tương quan giữa hai thuộc tính A và B bằng cách tính toán độ tương quan như sau: Trong đó: - N là số bộ - ai và bi là các giá trị của thuộc tính A và B tại bộ thứ i - và biểu diễn ý nghĩa các giá trị của A và B - và biểu diễn độ lệch chuẩn của A và B - là tổng của tích AB (với mỗi bộ, giá trị của thuộc tính A được nhân với giá trị của thuộc tính b trong bộ đó) - Lưu ý rằng Nếu lớn hơn 0, thì A và B có khả năng có mối liên hệ tương quan với nhau, nghĩa là nếu giá trị A tăng thì giá trị cua B cũng tăng lên. Giá trị này càng cao thì mối quan hệ càng chặt chẽ. Và hệ quả là nếu giá trị đủ cao thì một trong hai thuộc tính A (hoặc B) có thể được loại bỏ. Nếu bằng 0 thì A và B là độc lập với nhau và giữa chúng không có mối quan hệ nào. Nếu nhỏ hơn 0 thì A và B có mối quan hệ tương quan nghịch, khi đó nếu một thuộc tính tăng thì giá trị của thuộc tính kia giảm đi. Chú ý rằng, nếu giữa A và B có mối quan hệ tương quan thì không có nghĩa chúng có mối quan hệ nhân quả, nghĩa là A hoặc B biến đổi là do sự tác độ từ thuộc tính kia. Ví dụ có thể xem xét mối quan hệ tương quan giữa số bệnh viện và số vụ tai nạn ô tô ở một địa phương. Hai thuộc tính
  33. 33 này thực sự không có quan hệ nhân quả trực tiếp mà chúng quan hệ nhân quả với một thuộc tính thứ 3 là dân số. Với nguồn dữ liệu rời rạc, một mối quan hệ tương quan giữa hai thuộc tính A và B có thể được khám phá ra qua phép kiểm 2. Giả sử A có c giá trị không lặp được ký hiệu là a1, a2, , ac. B có r giá trị không lặp, ký hiệu b1, b2, , br. Bảng biểu diễn mối quan hệ A và B có thể được xây dựng như sau: - c giá trị của A tạo thành cột - r giá trị của B tạo hành hàng. - Gọi (Aj, Bj) biểu diễn các trường hợp mà thuộc tính A nhận giá trị ai, B nhận giá trị bi Giá trị 2 được tính như sau Trong đó: - là tần xuất quan sát được các trường hợp (Aj, Bj) - là tần xuất dự kiến các trường hợp (Aj, Bj) Với N là tổng số bộ, là số bộ có chứa giá trị ai cho thuộc tính A, là tổng số bộ có chứa trị bj cho thuộc tính B. Ví dụ: phân tích tương quan của các thuộc tính sử dụng phương pháp 2 Giả sử có một nhóm 1500 người được khảo sát. Giới tính của họ được ghi nhận sau đó họ sẽ được hỏi về thể loại sách yêu thích thuộc hai dạng hư cấu và viễn tưởng. Như vậy ở đây có hai thuộc tính “giới tính” và “sở thích đọc”. Số lần xuất hiện của các trường hợp được cho trong bảng sau Nam Nữ Tổng Hư cấu 250 (90) 200 (360) 450 Viễn tưởng 50 (210) 1000 (840) 1050 Tổng 300 1200 1500 Vậy chúng ta tính được
  34. 34 Chú ý trên mỗi dòng tổng số các tần xuất xuất hiện dự kiến được ghi trong cặp ngoặc () và tổng số tần xuất dự kiến trên mỗi cột bằng với tổng số tần xuất quan sát được trên cột đó. Từ bảng dữ liệu cho thấy bậc tự do (r-1)(c-1) = (2-1)(2-1) = 1. Với 1 bậc tự do, giá trị cần để bác bỏ giả thiết này ở mức 0.001 là 10.828. Và với giá trị tính được như trên 507.93 cho thấy giải thuyết sở thích đọc là độc lập với giới tính là không chắc chắn, hai thuộc tính này có một quan hệ tương quan khá mạnh trong nhóm người được khảo sát. 3.3.2. Biến đổi dữ liệu Trong phần này các dữ liệu sẽ được biến đổi sang các dạng phù hợp cho việc khai phá dữ liệu. Các phương pháp thường thấy như: - Làm mịn: Phương pháp này loại bỏ các trường hợp nhiễu khỏi dữ liệu ví dụ như các phương pháp binning, hồi quy, nhóm cụm. - Tổng hợp: trong đó tổng hợp hoặc tập hợp các hành động được áp dụng trên dữ liệu. Ví dụ thấy rằng doanh số bán hàng hàng ngày có thể được tổng hợp để tính toán hàng tháng và hàng năm. Bước này thường được sử dụng để xây dựng một khối dữ liệu cho việc phân tích. - Khái quát hóa dữ liệu, trong đó các dữ liệu mức thấp hoặc thô được thay thế bằng các khái niệm ở mức cao hơn thông qua kiến trúc khai niệm. Ví dụ, các thuộc tính phân loại ví dụ như “Đường phố” có thể khái quát hóa lên mức cao hơn thành “Thành phố” hay “Quốc gia”. Tương tự như vậy các giá trị số, như tuổi có thể được ánh xạ lên khái niệm cao hơn như “Trẻ”, “Trung niên”, “Có tuổi” - Chuẩn hóa, trong đó các dữ liệu của thuộc tính được quy về các khoảng giá trị nhỏ hơn ví dụ như từ -1.0 đến 1.0, hoặc từ 0.0 đến 1.0 - Xác định thêm thuộc tính, trong đo các thuộc tính mới sẽ được thêm vào nguồn dữ liệu để giúp cho quá trình khai phá. Trong phần này chúng ta sẽ xem xét phƣơng pháp chuẩn hóa làm chủ đạo Một thuộc tính được chuẩn hóa bằng cách ánh xạ một cách có tỉ lệ dữ liệu về một khoảng xác định ví dụ như 0.0 đến 1.0. Chuẩn hóa là một phần hữu ích của thuật toán phân lớp trong mạng noron, hoặc thuật toán tính toán độ lệch sử dụng trong việc phân lớp hay nhóm cụm các phần tử liền kề. Chúng ta sẽ xem xét ba phương pháp: min-max, z-score, và thay đổi số chữ số phần thập phân (decimal scaling) a. Min-Max
  35. 35 Thực hiện một biến đổi tuyến tính trên dữ liệu ban đầu. Giả sử rằng minA và maxA là giá trị tối thiểu và tối đa của thuộc tính A. Chuẩn hóa min-max sẽ ánh xạ giá trị v của thuộc tính A thành v‟ trong khoảng [new_minA, new_maxA] bằng cách tính toán Ví dụ: Giả sử giá trị nhỏ nhất và lớn nhất cho thuộc tính “thu nhập bình quân” là 500.000 và 4.500.000. Chúng ta muốn ánh xạ giá trị 2.500.000 về khoảng [0.0, 1.0] sử dụng chuẩn hóa min- max. Giá trị mới thu được là b. z-score Với phương pháp này, các giá trị của một thuộc tính A được chuẩn hóa dựa vào độ lệch tiêu chuẩn và trung bình của A. Một giá trị v của thuộc tính A được ánh xạ thành v‟ như sau: Với ví dụ phía trên: Giả sử thu nhập bình quân có độ lệch tiêu chuẩn và trung bình là: 1.000.000 và 500.000. Sử dụng phương pháp z-score thì giá trị 2.500.000 được ánh xạ thành c. Thay đổi số chữ số phần thập phân (decimal scale) Phương pháp này sẽ di chuyển dấu phân các phần thập phân của các giá trị của thuộc tính A. Số chữ số sau dấu phân cách phần thập phân được xác định phụ thuộc vào giá trị tuyệt đối lớn nhất có thể có của thuộc tính A. Khi đó giá trị v sẽ được ánh xạ thành v‟ bằng cách tính Trong đó j là giá trị nguyên nhỏ nhất thỏa mãn Max(|v‟|) < 1 Ví dụ: Giả sử rằng các giá trị của thuộc tính A được ghi nhận nằm trong khoảng -968 đến 917. Giá trị tuyệt đối lớn nhất của miền là 986. Để thực hiện chuẩn hóa theo phương pháp ánh này, trước đó chúng ta mang các giá trị chia cho 1.000 (j = 3). Như vậy giá trị -986 sẽ chuyển thành - 0.986 và 917 được chuyển thành 0.917 3.3.3. Thu nhỏ dữ liệu Việc khai phá dữ liệu luôn được tiến hành trên các kho dữ liệu khổng lồ và phức tạp. Các kỹ thuật khai phá khi áp dụng trên chúng luôn tốn thời gian cũng như tài tuyên của máy tính. Do vậy đòi hỏi chúng cần được thu nhỏ trước khi áp dụng các kỹ thuật khai phá. Một số chiến lược thu nhỏ dữ liệu như sau:
  36. 36 - Tổng hợp khối dữ liệu, trong đó các hành động tổng hợp được áp dụng trên dữ liệu để hình thành các khối. - Lựa chọn tập thuộc tính con, trong đó các thuộc tính không thích hợp, yếu hoặc dư thừa hay các chiều sẽ được loại bỏ - Rút gọn chiều, trong đó các cơ chế mã hóa sẽ rút gọn kích thước dữ liệu - Rút gọn số học, trong đó các dữ liệu sẽ được thay thế bằng các dữ liệu phụ nhỏ hơn nhưng cùng biểu diễn vấn đề. - Rời rạc và phân cấp khái niệm , trong đó cá giá trị của các thuộc tính được thay thế bằng các dải khái niệm ở mức cao hơn. Dạng thức rời rạc hóa dữ liệu sử dụng rút gọn số học thường rất hữu dụng cho việc tự động phát sinh các dải phân cấp khái niệm. Phương pháp này cho phép việc khai phá dữ liệu diễn ra ở các mức trừu tượng. a. Tổng hợp khối dữ liệu Hãy xem xét dữ liệu bán hàng của một đơn vị, các dữ liệu đó được tổ chức báo cáo theo hàng quý cho các năm từ 2008 đến 2010. Tuy nhiên việc khai phá dữ liệu lại quan tâm hơn đến các báo cáo bán hàng theo năm chứ không phải theo từng quý. Do đó các dữ liệu nên được tổng hợp thành báo cáo tổng về tình hình bán hàng theo năm hơn là theo quý. Hình 3.2. Dữ liệu bán hàng
  37. 37 Hình 3.3. Dữ liệu tổng hợp Phân cấp khái niệm có thể tồn tại ở mỗi thuộc tính, nó cho phép phân tích dữ liệu ở nhiều mức trừu tượng. Ví dụ, phân cấp chi nhánh cho phép các chi nhánh được nhóm lại theo thừng vùng dựa trên địa chỉ. Khối dữ liệu cho phép truy cập nhanh đến các dữ liệu đã tính toán, tống hợp do vậy nó khá phù hợp với các quá trình khái phá. Các khối dữ liệu được tạo ở mức trừu tượng thấp thường được gọi là cuboid. Các cuboid tương ứng với một tập thực thể nào đó ví dụ như người bán hàng, khách hàng. Các khối này cung cấp nhiều thông tin hữu dụng cho quá trình phân tích. Khối dữ liệu ở mức trừu tượng cao gọi là apex cuboid, trong hình 3.3 trên thể hiện dữ liệu bán hàng cho cả 3 năm, tất cả các loại mặt hàng và các chi nhánh. Khối dữ liệu được tạo từ nhiều mức trừu tượng thường được gọi là cuboids, do vậy khối dữ liệu thường được gọi bằng tên khác là lưới cuboids. b. Lựa chọn tập thuộc tính con Nguồn dữ liệu dùng phân tích có thể chứa hàng trăm thuộc tích, rất nhiều trong số đó có thể không cần cho việc phân tích hoặc chúng là dư thừa. Ví dụ nếu nhiệm vụ phân tích chỉ liên quan đến việc phân loại khách hàng xem họ có hoặc không muốn mua một đĩa nhạc mới hay không. Khi đó thuộc tính điện thoại của khách hàng là không cần thiết khi so với các thuộc tính như độ tuổi, sở thích âm nhạc. Mặc dù vậy việc lựa chọn thuộc tính nào cần quan tâm là một việc khó khăn và mất thời gian đặt biệt khi các đặc tính của dữ liệu là không rõ ràng. Giữ các thuộc tình cần, bỏ các thuộc tính không hữ ích cũng sẽ có thể gây nhầm lẫn, và sai lệch kết quả của các thuật toàn khai phá dữ liệu. Phương pháp này rút gọn kích thước dữ liệu bằng cách loại bỏ các thuộc tính không hữu ích hoặc dư thừa (hoặc loại bỏ các chiều). Mục đích chính là tìm ra tập thuộc tính nhỏ nhất sao cho khi áp dụng các phương pháp khai phá dữ liệu thì kết quả thu được là gần sát nhất với kết quả khi sử dụng tất cả các thuộc tính.
  38. 38 Vậy làm cách nào để tìm ra một tập thuộc tính con đủ tốt từ tập thuộc tính ban đầu. Nhớ rằng với N thuộc tính chúng ta sẽ có 2n tập thuộc tính con. Việc phát sinh và xem xét hết các tập này là khá tốn công sức cũng như tài nguyên đặc biệt khi N và số các lớp dữ liệu tăng lên. Do vậy cần có các phương pháp khác, một trong số đó là phương pháp tìm kiếm tham lam, nó sẽ duyệt qua không gian thuộc tính và tìm kiếm các lựa chọn tốt nhất vào thời điểm xét. Lựa chọn tăng dần Loại bớt Cây quyết định Tậpthuộc tính ban đầu Tậpthuộc tính ban đầu Tậpthuộc tính ban đầu {A1, A2, A3, A4, A5, A6} {A1, A2, A3, A4, A5, A6} {A1, A2, A3, A4, A5, A6} Tập rút gọn ban đầu {} => {A1, A3, A4, A5, A6} => {A1} => {A1, A4, A5, A6} => {A1, A4} => Kết quả {A1, A4, A6} => Kết quả {A1, A4, A6} => Kết quả {A1, A4, A6} Bảng 3.2. Ví dụ kỹ thuật rút gọn Việc lựa chọn ra thuộc tính tốt (xấu) được xác định thông qua các phép kiểm thống kê, trong đó giả sử rằng thuộc tính đang xét là độc lập với các thuộc tính khác hoặc phương pháp đánh giá thuộc tính sử dụng độ đo thông tin thường được dùng trong việc xây dựng cây quyết định phân lớp. Các kỹ thuật lựa chọn thường dùng như: 1. Lựa chọn tăng dần: Xuất phát từ một tập rỗng các thuộc tính, các thuộc tính tốt nhất mỗi khi xác định được sẽ được thêm vào tập này. Lặp lại bước trên cho đến khi không thêm được thuộc tính nào nữa. 2. Loại bớt: Xuất phát từ tập có đầy đủ các thuộc tính. Ở mỗi bước loại ra các thuộc tính tồi nhất. 3. Kết hợp giữa phương pháp loại bớt và lựa chọn tăng dần bằng cách tại mỗi bước ngoài việc lựa chọn thêm các thuộc tính tốt nhất đưa vào tập thì cũng đồng thời loại bỏ đi các thuộc tính tồi nhất khỏi tập đang xét. 4. Cây quyết đinh: Khi sử dụng, cây được xây dựng từ nguồn dữ liệu ban đầu. Tất cả các thuộc tính không xuất hiện trên cây được coi là không hữu ích. Tập các thuộc tính có trên cây sẽ là tập thuộc tính rút gọn
  39. 39 Bài tập: 1. Nếu một thuộc tính trong nguồn dữ liệu Điểm-Sinh viên có các giá trị A, B, C, D, F thì kiểu dữ liệu dự kiến của thuộc tính đó trong quá trình tiền xử lý là gì? 2. Cho mảng một chiều X = {−5.0, 23.0, 17.6, 7.23, 1.11}, hãy chuẩn hóa mảng sử dụng a. Decimal scaling: trong khoảng [−1, 1]. b. Min-max: trong khoảng [0, 1]. c. Min-max: trong khoảng [−1, 1]. d. Phương pháp độ lệch e. So sánh kết quả của các dạng chuẩn trên và cho nhận xét về ưu nhược điểm của các phương pháp? 3. Làm mịn dữ liệu sử dụng kỹ thuật làm tròn cho tập sau: Y = {1.17, 2.59, 3.38, 4.23, 2.67, 1.73, 2.53, 3.28, 3.44} Sau đó biểu diễn tập thu được với các độ chính xác: a. 0.1 b. 1. 4. Cho tập mẫu với các giá trị bị thiếu o X1 = {0, 1, 1, 2} o X2 = {2, 1, −, 1} o X3 = {1, −, −, 0} o X4 = {−, 2, 1, −} Nếu miền xác định của tất cả các thuộc tính là [0, 1, 2], hãy xác định các giá trị bị thiếu biết rằng các giá trị đó có thể là một trong số các xác trị của miền xác định? Hãy giải thích những cái được và mất nếu rút gọn chiều của kho dữ liệu lớn trong quá trình tiền xử lý dữ liệu?
  40. 40 Chương 4: Luật kết hợp 4.1. Khái niệm cơ bản Từ khi được giới thiệu từ năm 1993, bài toán khai thác luật kết hợp nhận được rất nhiều sự quan tâm của nhiều nhà khoa học. Ngày nay việc khai thác các luật như thế vẫn là một trong những phương pháp khai thác mẫu phổ biến nhất trong việc khám phá tri thức và khai thác dữ liệu (KDD: Knowledge Discovery and Data Mining). Mục đích chính của khai phá dữ liệu là các tri thức được kết xuất ra sẽ được sử dụng trong dự báo thông tin trợ giúp trong sản xuất kinh doanh và nghiên cứu khoa học. Trong hoạt động sản xuất kinh doanh, ví dụ kinh doanh các mặt hàng tại siêu thị, các nhà quản lý rất thích có được các thông tin mang tính thống kê như: “90% phụ nữ có xem máy màu đỏ và đeo đồng hồ Thuỵ Sỹ thì dùng nước hoa hiệu Chanel” hoặc “70% khách hàng là công nhân khi mua TV thường mua loại TV 21 inches”. Những thông tin như vậy rất hữu ích trong việc định hướng kinh doanh. Vậy vấn đề đặt ra là liệu có tìm được các luật như vậy bằng các công cụ khai phá dữ liệu hay không? Câu trả lời là hoàn oàn có thể. Đó chính là nhiệm vụ khai phá luật kết hợp. Giả sử chúng ta có một cơ sở dữ liệu D. Luật kết hợp cho biết phạm vi mà trong đó sự xuất hiện của tập các thuộc tính S nào đó trong các bản ghi của D sẽ kéo theo sự xuất hiện của một tập những thuộc tính khác U cũng trong những record đó. Mỗi luật kết hợp được đặc trưng bởi một cặp tỉ lệ (ration) hỗ trợ. Mỗi tỉ lệ hỗ trợ được biểu diễn bằng tỉ lệ % những bản ghi trong D chứa cả S và U. Vấn đề khám phá luật kết hợp được phát biểu như sau: . Cho trước tỉ lệ hỗ trợ (support ration) và độ tin cậy (confidence)  . Đánh số tất cả các luật trong D có các giá trị tỉ lệ hỗ trợ và tin cậy lớn hơn và  tương ứng. Ví dụ: D là CSDL mua bán và với  = 40%,  = 90%. Vấn đề phát hiện luật kết hợp KH được thực hiện như sau: . Liệt kê (đếm) tất cả những qui luật chỉ ra sự xuất hiện một số các mục sẽ kéo theo một số mục khác. . Chỉ xét những qui luật mà tỉ lệ hỗ trợ lớn hơn 40% và độ tin cậy lớn hơn 90%. Hay chúng ta hãy tưởng tượng, một công ty bán hàng qua mạng Internet. Các khách hàng được yêu cầu điền vào các mẫu bán hàng để công ty có được một CSDL về các yêu cầu của khách hàng. Giả sử công ty quan tâm đến mối quan hệ "tuổi, giới tính, nghề nghiệp => sản phẩm". Khi đó có thể có rất nhiều câu hỏi tương ứng với luật trên. Ví dụ: trong lứa tuổi nào thì những khách hàng
  41. 41 nữ là công nhân đặt mua mặt hàng gì đó, ví dụ áo dài chẳng hạn là nhiều nhất (thoả mãn một ngưỡng nào đó)? 4.2. Luật kết hợp 4.2.1. Lý thuyết về luật kết hợp Cho một tập I = {I1, I2, ,Im} các tập m khoản mục (item), một giao dịch (transaction) T được định nghĩa như một tập con (subset) của các khoản mục trong I (T I). Tương tự như khái niệm tập hợp, các giao dịch không được trùng lặp, nhưng có thể nới rộng tính chất này của tập hợp và trong các thuật toán sau này, người ta đều giả thiết rằng các khoản mục trong một giao dịch và trong tất cả các tập mục (item set) khác, có thể coi chúng đã được sắp xếp theo thứ tự từ điển của các item. Gọi D là CSDL của n giao dịch và mỗi giao dịch được đánh nhãn với một định danh duy nhất (Unique Transasction Identifier). Nói rằng, một giao dịch T D hỗ trợ (support) cho một tập X  I nếu nó chứa tất cả các item của X, nghã là X  T, trong một số trường hợp người ta dùng ký hiệu T(X) để chỉ tập các giao dịch hỗ trợ cho X. Kí hiệu support(X) (hoặc sup(X), s(X)) là tỷ lệ phần trăm của các giao dịch hỗ trợ X trên tổng các giao dịch trong D, nghĩa là: T D X  T sup(X) = (2.1.1) D Độ hỗ trợ tối thiểu (minimum support) minsup là một giá trị cho trước bởi người sử dụng. Nếu tập mục X có sup(X) minsup thì ta nói X là một tập các mục phổ biến (hoặc large itemset). Một tập phổ biến được sử dụng như một tập đáng quan tâm trong các thuật toán, ngược lại, những tập không phải tập phổ biến là những tập không đáng quan tâm. Trong các trình bày sau này, ta sẽ sử dụng những cụm từ khác như “X có độ hỗ trợ tối thiểu”, hay “X không có độ hỗ trợ tối thiểu” cũng để nói lên rằng X thỏa mãn hay không thỏa mãn support(X) minsup. Một khoản mục X được gọi là k- itemset nếu lực lượng của X bằng k, tức là X k . 4.2.2. Định nghĩa luật kết hợp Một luật kết hợp có dạng R: X => Y, trong đó X, Y là tập các mục, X, Y  I và X Y = . X được gọi là tiên đề và Y được gọi là hệ quả của luật. Luật X => Y tồn tại một độ tin cậy c (confidence-conf). Độ tin cậy c được định nghĩa là khả năng giao dịch T hỗ trợ X thì cúng hỗ trợ Y. Ta có công thức tính độ tin cậy c như sau: p(Y  T  X  T) sup(X Y) conf(X =>Y) = p(Y  I | X  I ) = (2.1.2) p(X  T) sup(X ) Tuy nhiên, không phải bất cứ luật kết hợp nào có mặt trong tập các luật có thể được sinh ra cũng đều có ý nghĩa trên thực tế. Mà các luật đều phải thoả mãn một ngưỡng hỗ trợ và tin cậy cụ thể. Thực vậy, cho một tập các giao dịch D, bài toán phát hiện luật kết hợp là sinh ra tất cả các luật kết hợp mà có độ tin cậy conf lớn hơn độ tin cậy tối thiểu mincon và độ hỗ trợ sup lớn hơn độ hỗ
  42. 42 trợ tối thiểu minsup tương ứng do người dùng xác định. Khai phá luật kết hợp được phân thành hai bài toán con: Bài toán 1: Tìm tất cả các tập mục mà có độ hỗ trợ lớn hơn độ hỗ trợ tốt thiểu do người dùng xác định. Các tập mục thoả mãn độ hỗ trợ tối thiểu được gọi là các tập mục phổ biến. Bài toán 2: Dùng các tập mục phổ biến để sinh ra các luật mong muốn. Ý tưởng chung là nếu gọi ABCD và AB là các tập mục phổ biến, thì chúng ta có thể xác định luật nếu AB => CD giữ lại với tỷ lệ độ tin cậy: sup(ABCD) conf (2.1.3) sup(AB) nếu conf ≥ mincon thì luật được giữ lại (luật này sẽ thoả mãn độ hỗ trợ tối thiểu vì ABCD là phổ biến) 4.2.3. Một số tính chất liên quan đến các hạng mục phổ biến (frequent itemset): Tính chất 1. Độ hỗ trợ (support) cho tất cả các tập con (subset): nếu A B, A, B là tập các mục thì sup(A) sup(B) vì tất cả các giao dịch của D hỗ trợ B thì cũng hỗ trợ A. Tính chất 2. Nếu một mục trong A không có độ hỗ trợ tối thiểu trên D nghĩa là support(A) minsup. 4.2.4. Một số hƣớng tiếp cận trong khai phá luật kết hợp Lĩnh vực khai thác luật kết hợp cho đến nay đã được nghiên cứu và phát triển theo nhiều hướng khác nhau. Có những đề xuất nhằm cải tiến tốc độ thuật toán, có những đề xuất nhằm tìm kiếm luật có ý nghĩa hơn và có một số hướng chính sau đây. Luật kết hợp nhị phân (binary association rule hoặc boolean association rule) : là hướng nghiên cứu đầu tiên của luật kết hợp. Hầu hết các nghiên cứu ở thời kỳ đầu về luật kết hợp đều liên quan đến luật kết hợp nhị phân. Trong dạng luật kết hợp này, các mục (thuộc tính) chỉ được quan tâm là có hay không xuất hiện trong giao tác của cơ sở dữ liệu chứ không quan tâm về “mức độ“ xuất hiện. Ví dụ: Trong hệ thống tính cước điện thoại thì việc gọi 10 cuộc điện thoại và 1 cuộc được xem là giống nhau. Thuật toán tiêu biểu nhất khai phá dạng luật này là thuật toán Apriori và các biến thể của nó. Đây là dạng luật đơn giản và các luật khác cũng có thể chuyển về dạng luật này nhờ một số phương pháp như rời rạc hoá, mờ hoá, Một ví dụ về dạng luật này : “gọi liên tỉnh= „yes‟ AND gọi di động= „yes‟ => gọi quốc tế= „yes‟ AND gọi dịch vụ 108 = „yes‟, với độ hỗ trợ 20% và độ tin cậy 80%” Luật kết hợp có thuộc tính số và thuộc tính hạng mục (quantitative and categorial association rule) : Các thuộc tính của các cơ sở dữ liệu thực tế có kiểu rất đa dạng (nhị phân - binary, số - quantitative, hạng mục - categorial, ). Để phát hiện luật kết hợp với các thuộc tính
  43. 43 này, các nhà nghiên cứu đã đề xuất một số phương pháp rời rạc hoá nhằm chuyển dạng luật này về dạng nhị phân để có thể áp dụng các thuật toán đã có. Một ví dụ về dạng luật này “phương thức gọi = „Tự động‟ AND giờ gọi IN [„23:00:39 23:00:59‟] AND Thời gian đàm thoại IN [„200 300‟] => gọi liên tỉnh =‟có‟ , với độ hỗ trợ là 23. 53% , và độ tin cậy là 80%”. Luật kết hợp tiếp cận theo hướng tập thô (mining association rules base on rough set) : Tìm kiếm luật kết hợp dựa trên lý thuyết tập thô. Luật kết nhiều mức (multi-level association rule) : Với cách tiếp cận theo luật này sẽ tìm kiếm thêm những luật có dạng “ mua máy tính PC => mua hệ điều hành AND mua phần mềm tiện ích văn phòng, ” thay vì chỉ những luật quá cụ thể như “mua máy tính IBM PC => mua hệ điều hành Microsoft Windows AND mua phần mềm tiện ích văn phòng Microsoft Office, ”. Như vậy dạng luật đầu là dạng luật tổng quát hoá của dạng luật sau và tổng quát theo nhiều mức khác nhau. Luật kết hợp mờ (fuzzy association rule) : Với những hạn chế còn gặp phải trong quá trình rời rạc hoá các thuộc tính số (quantitave attributes), các nhà nghiên cứu đã đề xuất luật kết hợp mờ nhằm khắc phục các hạn chế trên và chuyển luật kết hợp về một dạng tự nhiên hơn, gần gũi hơn với người sử dụng một ví dụ của dạng này là : “thuê bao tư nhân = ‘yes’ AND thời gian đàm thoại lớn AND cước nội tỉnh = ‘yes’ => cước không hợp lệ = ‘yes’, với độ hỗ trợ 4% và độ tin cậy 85%”. Trong luật trên, điều kiện thời gian đàm thoại lớn ở vế trái của luật là một thuộc tính đã được mờ hoá. Luật kết với thuộc tính được đánh trọng số (association rule with weighted items) : Trong thực tế, các thuộc tính trong cơ sở dữ liệu không phải lúc nào cũng có vai trò như nhau. Có một số thuộc tính được chú trọng hơn và có mức độ quan trọng cao hơn các thuộc tính khác. Ví dụ khi khảo sát về doanh thu hàng tháng, thông tin về thời gian đàm thoại, vùng cước là quan trọng hơn nhiều so với thông tin về phương thức gọi Trong quá trình tìm kiếm luật, chúng ta sẽ gán thời gian gọi, vùng cước các trọng số lớn hơn thuộc tính phương thức gọi. Đây là hướng nghiên cứu rất thú vị và đã được một số nhà nghiên cứu đề xuất cách giải quyết bài toán này. Với luật kết hợp có thuộc tính được đánh trọng số, chúng ta sẽ khai thác được những luật “hiếm” (tức là có độ hỗ trợ thấp, nhưng có ý nghĩa đặc biệt hoặc mang rất nhiều ý nghĩa). Khai thác Luật kết hợp song song (parallel mining of association rules): Bên cạnh khai thác luật kết hợp tuần tự, các nhà làm tin học cũng tập trung vào nghiên cứu các thuật giải song song cho quá trình phát hiện luật kết hợp. Nhu cầu song song hoá và xử lý phân tán là cần thiết bởi kích thước dữ liệu ngày càng lớn hơn nên đòi hỏi tốc độ xử lý cũng như dung lượng bộ nhớ của hệ thống phải được đảm bảo. Có rất nhiều thuật toán song song khác nhau đã đề xuất để có thể không phụ thuộc vào phần cứng. Bên cạnh những nghiên cứu về những biến thể của luật kết hợp, các nhà nghiên cứu còn chú trọng đề xuất những thuật toán nhằm tăng tốc quá trình tìm kiếm tập phổ biến từ cơ sở dữ liệu.
  44. 44 Ngoài ra, còn có một số hướng nghiên cứu khác về khai thác luật kết hợp như: khai thác luật kết hợp trực tuyến, khai thác luật kết hợp được kết nối trực tuyến đến các kho dữ liệu đa chiều (Multidimensional data, data warehouse) thông qua công nghệ OLAP (Online Analysis Processing), MOLAP (multidimensional OLAP), ROLAP (Relational OLAP), ADO (Active X Data Object) for OLAP v v 4.3. Phát biểu bài toán phát hiện luật kết hợp Xét ví dụ trong giao dịch các mặt hàng được khách hàng mua tại siêu thị. Tập các mặt hàng (ở đây coi là tập các mục) I = {Bánh mì, Bơ, Sữa, Trứng} và số các giao dịch mua hàng là 4 giao dịch (|T| = 4), trong đó T = {1, 2, 3, 4} – ký hiệu các giao dịch TID. TID Tập các mục trong giao dịch 1 Bánh mì, Bơ, Trứng 2 Bơ, Sữa, Trứng 3 Bơ 4 Bánh mì, Bơ Từ bảng giao dịch trên ta rút ra: TT Tập các mục trong giao dịch Độ hỗ trợ tƣơng ứng 1 Ø (không có mặt hàng nào) 0 % 2 Bánh mì 50 % 3 Bơ 100 % 4 Sữa 25 % 5 Trứng 50 % 6 Bánh mì, Bơ 50 % 7 Bánh mì, Sữa 0 % 8 Bánh mì, Trứng 0 % 9 Bơ, Sữa 25 % 10 Bơ, Trứng 50 % 11 Sữa, Trứng 25 % 12 Bánh mì, Bơ, Sữa 0 % 13 Bánh mì, Bơ, Trứng 25 % 14 Bánh mì, Sữa, Trứng 25 % 15 Bơ, Sữa, Trứng 25 % 16 Bánh mì, Bơ, Sữa, Trứng 0 %
  45. 45 Với giá trị độ hỗ trợ tối thiểu minsup = 50 % thì tập mục phổ biến là: TT Tập các mục phổ biến Độ hỗ trợ tƣơng ứng 1 Bánh mì 50 % 2 Bơ 100 % 3 Trứng 50 % 4 Bánh mì, Bơ 50 % 5 Bơ, Trứng 50 % Nếu cho độ tin cậy tối thiểu là mincon = 60 % thì ta có các luật sau: TT Luật Độ tin cậy Thoả mãn ≥ 60% 1 Bánh mì => Bơ 100 % Có 2 Bơ => Bánh mì 50 % Không 3 Bơ =>Trứng 50 % Không 4 Trứng => Bơ 100 % Có Bảng 2.1. Minh hoạ bài toán phát hiện luật kết hợp 4.4. Phát hiện luật kết hợp dựa trên hệ thông tin nhị phân 4.4.1. Các định nghĩa hình thức trên hệ thông tin nhị phân Định nghĩa 2.2.3.1: Hệ thông tin nhị phân Cho các tập sau: O ={o1, o2, , on} là một tập hữu hạn gồm n đối tượng, D = {d1, d2, , dm} là một tập hữu hạn gồm m chỉ báo, B = {0, 1} Hệ thông tin nhị phân được định nghĩa là SB = (O, D, B, ) trong đó  là ánh xạ :O x D → B, (o,d) = 1 nếu đối tượng o có chỉ báo d và (o,d) = 0 nếu ngược lại. Định nghĩa 2.2.3.2: Các ánh xạ thông tin nhị phân Cho hệ thông tin nhị phân SB = (O, D, B, ). Cho P(O) là các tập con của O, P(D) là các tập con của D. Các ánh xạ thông tin nhị phân B và B được định nghĩa như sau: B: P(D) P(O) với ý nhĩa: cho S  D, B(S) = {o O|  d S, (o, d) = 1} B: P(O) P(D) với ý nhĩa: cho X  O, B(X) = {d D|  o X, (o, d) = 1} Định nghĩa 2.2.3.3: Tập chỉ báo phổ biến nhị phân Cho hệ thông tin nhị phân SB = (O, D, B, ) và một ngưỡng  (0, 1). Cho S  D, S là tập chỉ báo phổ biến nhị phân với ngưỡng  nếu:
  46. 46 card( B(S)) ≥ *card(O) Cho LB là một tập gồm tất cả các tập chỉ báo phổ biến nhị phân đã phát hiện từ SB, chúng có thuộc tính như sau: S LB, T  S thì T LB. Trong đó LB,h là tập con của LB nếu X LB,h thì card(X) = h (với h là số nguyên dương). Định nghĩa 2.2.3.4: Các luật kết hợp phổ biến nhị phân và hệ số tin cậy Cho hệ thông tin nhị phân SB = (O, D, B, ) và một ngưỡng  (0, 1). Cho L là một phần tử của LB, X và Y là hai tập con của L, trong đó: L = X  Y, X ≠ {}, Y ≠ {} và X  Y = {} Chúng ta xác định các luật kết hợp nhị phân giữa tập chỉ số X và tập chỉ số Y là một ánh xạ thông tin: X Y. Hệ số tin cậy của luật này được biểu diễn là: card( B (X )  B (Y)) CFB (X Y) (2.2.3.1) card( B (X )) Ta biểu diễn RB, là tập tất cả các luật kết hợp phổ biến nhị phân được phát hiện tự SB. Trong đó CFB(r) ≥ ,  r RB, Định nghĩa 2.2.3.5: Các vectơ chỉ báo nhị phân và các phép toán Cho hệ thông tin nhị phân SB = (O, D, B, ) trong đó O ={o1, o2, , on} là một tập hữu hạn gồm n đối tượng, D = {d1, d2, , dm} là một tập hữu hạn gồm m chỉ báo. Vectơ chỉ báo nhị phân Vectơ chỉ báo nhị phân vB(X) = {X1, X2, , Xn} trong đó: X  D là một vectơ với n thành phần, mỗi thành phần Xj chiếm một giá trị trong B. Cho VSB là tập tất cả các vectơ chỉ báo nhị phân của SB, nếu card(X) = 1 thì X là bộ chỉ báo của SB và Xj = (o, X) Định nghĩa 2.2.3.6: Tích vectơ chỉ báo nhị phân Cho X1, X2  D, vB(X1) = (X11, X12, , X1n), vB(X2) = (X21, X22, , X2n) là các phần tử của VSB. Tích vectơ chỉ báo nhị phân vB(X1) và vB(X2) được biểu hiện là vB(X3) = vB(X1) B vB(X2). Trong đó: vB(X3) = (X31, X32, , X3n) với X3j = min(X1j, X2j), j = 1n X3 = X1  X2 D Từ vectơ vB(X3), chúng ta biết tất cả các đối tượng hiện có trong tập chỉ báo X1 và X2. Chúng ta dùng vB(X1) để trình diễn B(X1), vB(X2) để trình diễn B(X2) và vB(X3) để trình diễn B(X3). Định nghĩa 2.2.3.7: Độ hỗ trợ các vectơ chỉ báo nhị phân Cho X1  D, độ hỗ trợ của vB(X1) biểu diễn supB(vB(X1)) được định nghĩa là: supB(vB(X1)) = {o  O| d X1, (o, d) = 1} (1) Dễ thấy rằng: card(supB(vB(X1))) = card( B(X1))
  47. 47 Tính card( B(S)) Cho S = {s1, s2, , sk} là tập con của D. Trong đó sj là bộ chỉ báo của SB, j = 1  k. Mỗi sj tương ứng với vectơ chỉ báo nhị phân vB({sj}). Các yếu tố của B(S) được tính bằng: card( B(S)) = card(supB(vB{s1}) B supB(vB{s2}) B supB(vB{sk})) (2) Chúng ta biểu diễn VSB,h là tập con của VSB chứa chỉ vectơ vB(X) trong đó X  D và card(X) = h (h là số nguyên dương cho trước). 4.4.2. Thuật toán phát hiện tập chỉ báo và luật kết hợp nhị phân Thuật toán phát triển từ thuật toán Apriori-Tid. Để phát hiện các tập chỉ báo nhị phân phổ biến từ các luật kết hợp nhị phân từ hệ thông tin nhị phân. Thuật toán này làm việc với các bit trong bộ nhớ và không làm việc với cơ sở dữ liệu trên đĩa, vì thế có thể cải tiến tốc độ quá trình phát hiện luật. Cho một CSDL và hai ngưỡng độ hỗ trợ tối thiểu minsup và độ tin cậy tối thiểu mincomf của luật kết hợp. Thuật toán Apriori-Tid có hai pha: Pha 1: Phát hiện các tập chỉ báo phổ biến dựa trên ngưỡng minsup cho trước. Pha 2: Xây dựng các luật kết hợp dựa trên một ngưỡng mincom cho trước. Cho ma trận thông tin nhị phân SB = (O, D, B, ) và một ngưỡng ,  (0, 1). Trong đó  là minsup và  là mincon. Chi tiết thuật toán Apriori-Tid như sau: Pha 1: Phát hiện tập chỉ báo phổ biến nhị phân 1. TraLoi =  ; 2. Sinh LB,1 từ SB theo thủ tục 1.a. dưới đây ; 3. for (k = 2; LB,k  * card(O)) 4. { SaveLargeSet({di}, VSB,1) ; 5. SaveDescriptorVector(vB({di}, VSB,1)) ; 6. } 7. TraLoi = LB,1 ;
  48. 48 8. Return TraLoi ; // Trong đó m = card(D) là lực lượng của lập D. 2.a. Sinh LB,1 Dựa trên thuộc tính S LB, T  S thì T LB, chúng sinh ra LB,k từ LB,k-1. Kết quả như sau: Tạo một ma trận có các dòng và cột là các thành phần của LB, k-1 1. LB,k =  ; 2. for (Mỗi X LB,k-1 && X *card(O)) && card(T) ==k) 5. { SaveLargeSet(T, LB,k) ; 6. SaveDescriptorVector(vB(T), VSB,k)) ; 7. } 8. } 9. TraLoi = LB,k ; 10. Return TraLoi ; Trong đó: SaveLargeSet(T, LB,k) là một hàm để ghi một tập chỉ báo phổ biến nhị phân T vào LB,k. SaveDescriptorVector(vB(T), VSB,k)) là một hàm để lưu một vectơ chỉ báo phổ biến nhị phân vB(T) vào VSB,k. Dựa vào (1) và (2), ta có thể tính rất nhanh supB(vB(T)) tại bước thứ k của vòng lặp ở trên, từ các phần tử của VSB,k-1. Pha 2: Phát hiện các luật phổ biến nhị phân 1. RB, =  ; // Khởi tạo tập luật ban đầu là rỗng 2. for (Mỗi L LB) 3. { for(Mỗi X, Y L và XY ={}) 4. { if(CFB(X=>Y) ) 5. SaveRule(X=>Y, RB,); // ghi luật X=>Y vào RB, 6. if(CFB(Y=>X) ) 7. SaveRule(Y=>X, RB,); // ghi luật Y=>X vào RB, 8. } 9. } 10. TraLoi = RB, ; 11. Return RB, ; // Kết thúc
  49. 49 4.4.3. Ví dụ minh hoạ Cho hệ thống các mặt hàng D = {d1, d2, d3, d4, d5} và số các giao tác mua bán O = {o1, o2, o3, o4}. Ký hiệu trong giao tác mua bán cho như bảng sau (mặt hàng nào được mua thì đánh số 1, ngược lại đánh số 0). d1 d2 d3 d4 d5 o1 1 0 1 1 0 o2 0 1 1 0 1 o3 1 1 1 0 1 o4 0 1 0 0 1 Và  = 0,5,  = 0,5. Hãy tìm các tập phổ biến và rút ra các luật kết hợp. Bảng 2.2. Hệ thông tin nhị phân mua bán hàng hoá Minh hoạ cụ thể thuật toán như sau: Ta thấy hệ thống các giao tác mua các mặt hàng tương đương như hệ thông tin nhị phân SB = (O, D, B, ). Từ hệ thông tin nhị phân ta có: O = {o1, o2, o3, o4} và D = {d1, d2, d3, d4, d5} Ta suy ra: card(O) = 4, card(D) = 5 Từ SB ta có các vectơ chỉ báo nhị phân như sau: vB({d1}) = (1, 0, 1, 0) vB({d2}) = (0, 1, 1, 1) vB({d3}) = (1, 1, 1, 0) vB({d4}) = (1, 0, 0, 0) vB({d5}) = (0, 1, 1, 1) Lặp 0: Tạo LB,1: Tính card(supB(vB({di}))) (số lượng các đối tượng có trong vectơ chỉ báo nhị phân vB({di})) với i = 1  5 ta có card(supB(vB({d1}))) = 2 card(supB(vB({d2}))) = 3 card(supB(vB({d3}))) = 3 card(supB(vB({d4}))) = 1 card(supB(vB({d5}))) = 3 Với minsup = 0,5 và mincon = 0,5 ta có: Các tập chỉ báo phổ biến là: LB,1 = {{d1}, {d2}, {d3}, {d5}} Lặp 1: Tạo LB,2 từ LB,1 : Từ LB,1 ta xây dựng một ma trận biểu diễn ánh xạ f: LB,1 LB,1 R như sau: Cho (X, Y) LB,1 LB,1 và X <>Y, T = XY
  50. 50 Giá trị của f(X, Y) = card(supB(vB(T))) với: card(T) = 2, minsup = 0,5 ta có: card(supB(T)) = card(supB(vB(X) B vB(Y))) minsup*card(O) = 2 ( trong bài toán này X, Y {{d1}, {d2}, {d3}, {d5}} ) Chú ý: Khi tính supB(vB(T)) ta sử dụng các vB(X) (cũng là các vB(Y)) đã được ghi trong VSB,1 để tăng tốc độ tính toán. Giá trị của f(X, Y) được tính trong bảng sau: (các giá trị f(X, X) ta không quan tâm) {d1} {d2} {d3} {d5} {d1} 2 2 2 1 {d2} 1 3 2 3 {d3} 2 2 3 2 {d5} 1 3 2 3 ( Các ô mà giá trị được đánh số đậm thì thoả mãn, nhưng ta chỉ lấy 1 lần vì theo lý thuyết tập hợp thì {X, Y}  {Y, X} ) Cuối cùng, ta có LB,2 = {{d1, d2}, {d1, d3}, {d2, d5}, {d3, d5}} Trong VSB,2 ta có các vectơ chỉ báo sau: vB({d1, d2}) = vB({d1}) B vB({d2}) = (1, 0, 1, 0) vB({d1, d3}) = vB({d1}) B vB({d2}) = (0, 1, 1, 0) vB({d2, d5}) = vB({d1}) B vB({d2}) = (0, 1, 1, 1) vB({d3, d5}) = vB({d1}) B vB({d2}) = (0, 1, 1, 0) Lặp 2: Tạo LB,3 từ LB,2 : Từ LB,2 ta xây dựng một ma trận biểu diễn ánh xạ f: LB,2 LB,2 R Cho (X, Y) LB,2 LB,2 và X <>Y, T = XY Giá trị của f(X, Y) = card(supB(vB(T))) với: card(T) = 3, minsup = 0,5 ta có: card(supB(T)) = card(supB(vB(X) B vB(Y))) minsup*card(O) {d1, d2} {d1, d3} {d2, d5} {d3, d5} {d1, d2} 2 1 1 1 {d1, d3} 1 2 2 2 {d2, d5} 1 2 3 2 {d3, d5} 1 2 2 2 Chú ý: Khi tính supB(vB(T)) ta sử dụng các vB(X) (cũng là các vB(Y)) đã được ghi trong VSB,s để tăng tốc độ tính toán.