Luận văn Hệ thống tự động phân luồng câu hỏi và giải đáp yêu cầu trực tuyến

1. Những kết quả chính của luận văn: Luận văn đã đạt được các kết quả chính sau đây:  Đưa ra được các lý thuyết và vấn đề gặp phải trong việc xây dựng hệ thống tự động phân luồng câu hỏi.  Nghiên cứu và ứng dụng mạng học sâu vào giải quyết bài toán phân luồng câu hỏi và trả lời câu hỏi tự động trực tuyến  Cài đặt hệ thống tự động phân luồng câu hỏi và hệ thống trả lời câu hỏi đã đạt được kết quả thực nghiệm đạt trên 50% người sử dụng hài lòng.  Phần mềm đưa vào ứng dụng giúp tiết kiệm chi phí cho nguồn nhân lực trong quá trình tiếp nhận và trả lời câu hỏi.  Tổng hợp các kết quả và hướng nghiên cứu về bài toán đã có thể đưa ra được trợ lý ảo tiếp nhận và hiểu được nhu cầu của sinh viên.  Có khả năng áp dụng vào các hệ thống tự động phân luồng câu hỏi khác như tư vấn bán hàng, tư vấn sức khỏe, . 2. Hướng phát triển của luận văn:  Tiếp tục triển khai mở rộng và thu thập nhiều câu hỏi hơn ở nhiều trường Đại học để có thể gia tăng sự huấn luyện, tăng độ chính xác.  Tiếp tục nghiên cứu các mô hình mạng học sâu giải quyết bài toán phân luồng câu hỏi và trả lời yêu cầu trực tuyến.  Tìm hiểu nhu cầu thực tế, cũng như tham khảo các ý kiến của chuyên gia để xây dựng chương trình áp dụng kỹ thuật đã nghiên cứu, bổ sung một số yếu tố khác để hoàn thiện hệ thống trả lời tự động đạt hiệu quả cao.

pdf70 trang | Chia sẻ: yenxoi77 | Lượt xem: 731 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Luận văn Hệ thống tự động phân luồng câu hỏi và giải đáp yêu cầu trực tuyến, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
luyện RNN tương tự như huấn luyện Neural Network truyền thống. Chúng ta cũng sử dụng đến thuật toán backpropagation (lan truyền ngược) nhưng có một chút tinh chỉnh. Gradient tại mỗi output không chỉ phụ thuộc vào kết quả tính toán của bước hiện tại mà còn phụ thuộc vào kết quả tính toán của các bước trước đó. Ví dụ, để tính gradient tại thời điểm t = 4, ta cần backpropagation 3 bước trước đó và cộng dồn các gradient này lại với nhau. Kĩ thuật này gọi là Backpropagation Through Time (BPPTT) [27]. Điểm hạn chế ở đây đó là hidden layer không có trí nhớ dài hạn. Vấn đề này còn gọi là vanishing/exploding gradient problem và như vậy, LSTM được sinh ra để giải quyết vấn đề này. 31 2.3.4 Các phiên bản mở rộng của RNN Trong vài năm qua, các nhà nghiên cứu đã phát triển nhiều loại mạng RNNs ngày càng tinh vi để giải quyết các mặt hạn chế của RNN. Dưới đây, là một số phiên bản mở rộng của RNN. Bidirectional RNN (RNN hai chiều): dựa trên ý tưởng output tại thời điểm t không chỉ phụ thuộc vào các thành phần trước đó mà còn phụ thuộc vào các thành phần trong tương lai. Ví dụ, để dự đoán một từ bị thiếu (missing word) trong chuỗi, ta cần quan sát các từ bên trái và bên phải xung quanh từ đó. Mô hình này chỉ gồm hai RNNs nạp chồng lên nhau. Trong đó, các hidden state được tính toán dựa trên cả hai thành phần bên trái và bên phải của mạng. Hình 2.5: Mạng RNN hai chiều. Deep (Bidirectional) RNN: tương tự như Bidirectional RNN, điểm khác biệt đó là mô hình này gồm nhiều tầng Bidirectional RNN tại mỗi thời điểm. Mô hình này sẽ cho ta khả năng thực hiện các tính toán nâng cao nhưng đòi hỏi tập huấn luyện của chúng ta phải đủ lớn. 32 Hình 2.6: Mạng RNN nhiều tầng. Long short-term memory networks (LSTM): mô hình này có cấu trúc tương tự như RNNs nhưng có cách tính toán khác đối với các trạng thái ẩn. Memory trong LSTMs được gọi là cells (hạt nhân). Ta có thể xem đây là một hộp đen nhận thông tin đầu vào gồm hidden state và giá trị. Bên trong các hạt nhân này, chúng sẽ quyết định thông tin nào cần lưu lại và thông tin nào cần xóa đi, nhờ vậy mà mô hình này có thể lưu trữ được thông tin dài hạn. 33 CHƯƠNG 3: ỨNG DỤNG MÔ HÌNH MẠNG NƠ-RON VÀO TRẢ LỜI TỰ ĐỘNG Chương này tác giả tập trung giới thiệu về mô hình mạng nơ ron có thể sản sinh ra văn bản sau khi được huấn luyện, đồng thời đề cập đến mô hình chuỗi tuần tự liên tiếp sequence to sequence. Từ đó đưa ra cách thức ứng dụng mạng nơ ron để xây dựng được một hệ thống trả lời tự động. 3.1 Phát sinh ngôn ngữ trả lời tự động Nền tảng của việc xây dựng mô hình chuỗi tuần tự (ví dụ, mô hình dịch máy) là mô hình ngôn ngữ. Ở mức cao, một mô hình ngôn ngữ đón nhận chuỗi các phần tử đầu vào, nhìn vào từng phần tử của chuỗi và cố gắng để dự đoán các phần tử tiếp theo của chuỗi văn bản. Có thể mô tả quá trình này bằng phương trình hàm số sau đây: 𝑌௧ = 𝑓(𝑌௧ିଵ) Trong đó, 𝑌௧ là phần tử chuỗi ở thời điểm t, 𝑌௧ିଵ là phần tử chuỗi ở thời điểm trước đó (t-1), và f là hàm ánh xạ các phần tử trước đó của chuỗi sang phần tử tiếp theo của chuỗi. Bởi vì chúng ta đang đề cập đến mô hình chuỗi sử dụng mạng nơ-ron, 𝑓 đại diện cho mạng nơ-ron mà có thể dự đoán được phần tử tiếp theo của một chuỗi, được cho trước bởi một phần tử hiện tại trong chuỗi đó. Mô hình ngôn ngữ có thể sinh sản, khi được huấn luyện thì chúng có thể được sử dụng để sinh ra các chuỗi thông tin bằng cách cho kết quả đầu ra ở bước trước trở lại làm đầu vào của mô hình. Hình vẽ dưới đây là sơ đồ cho thấy việc huấn luyện và quá trình sinh sản của một mô hình ngôn ngữ. Cho một chuỗi là ABCD. Một chuỗi đầu vào là một lát cắt của chuỗi cho đến phần tử cuối. Chuỗi đích target là một lát cắt của chuỗi từ phần tử thứ 2. 34 Hình 3.1: Mô hình phát sinh văn bản Hình 3.2: Quá trình huấn luyện và phát sinh văn bản Trong quá trình training, mô hình cố gắng dự đoán phần tử tiếp theo của chuỗi target được cho bởi phần tử hiện tại của chuỗi target. Trong quá trình sinh, mô hình sinh sẽ lấy kết quả đã được sinh ra ở bước trước làm đầu vào cho lần dự báo tiếp theo. Có nhiều cách khác nhau để xây dựng một mô hình ngôn ngữ, nhưng trong luận văn này chỉ đề cập đến việc huấn luyện mô hình ngôn ngữ dựa trên Mạng nơ-ron tái phát RNN. Như đã biết mạng RNN giống với mạng ANN truyền thống, nhưng thao tác và xử lý các dữ liệu dạng chuỗi. Về cơ bản mạng RNN tiếp nhận 35 mỗi phần tử của chuỗi, nhân phân tử với một ma trận, sau đó cộng tổng kết quả với kết quả ở bước trước của mạng. Ta có phương trình biểu diễn như sau: ht = activation (XtWx + ht-1Wh) Để sử dụng mạng RNN cho mô hình ngôn ngữ, chúng ta sẽ đưa chuỗi đầu vào từ t = 1 đến t = seq_length – 1 và cố gắng dự đoán chuỗi tương tự từ t = 2 đến t = seq_length – 1. Khi đầu ra của RNN được dựa trên tất cả các đầu vào của sequence, thì output của nó được biểu diễn bởi hàm Yt = g (f (Yt-1, Yt-2, , Yt1)). Hàm f tạo ra trạng thái tiếp theo của mạng RNN, trong khi hàm ánh xạ g ánh xạ trạng thái của RNN vào một giá trị trong tập các từ vựng target (vocabulary). Một cách đơn giản, f cho ra một trạng thái ẩn của mạng, trong khi hàm g cho đầu ra của mạng – giống với softmax layer của mạng nơ-ron đơn giản. Không giống với các mô hình ngôn ngữ đơn giản là chỉ dự đoán xác suất cho từ tiếp theo khi được cho bởi từ hiện tại, mô hình RNN chụp lại toàn bộ bối cảnh của chuỗi đầu vào. Do đó, RNN dự đoán xác suất tạo ra các từ tiếp theo dựa trên các từ hiện tại, cũng như tất cả các từ trước. 3.2 Mô hình chuỗi tuần tự liên tiếp RNN có thể được sử dụng như là mô hình ngôn ngữ cho việc dự đoán các phần tử của một chuỗi khi cho bởi các phần tử trước đó của một chuỗi. Tuy nhiên, chúng ta vẫn còn thiếu các thành phần cần thiết cho việc xây dựng các mô hình đối thoại, hay các mô hình máy dịch, bởi vì chúng ta chỉ có thể thao tác trên một chuỗi đơn, trong khi việc dịch hoạt động trên cả hai chuỗi – chuỗi đầu vào và chuỗi được dịch sang. Các mô hình chuỗi sang chuỗi được xây dựng bên trên mô hình ngôn ngữ bằng việc thêm vào một bộ mã hóa Encoder và một bộ giải mã Decoder. Trong bước mã hóa encode, một mô hình chuyển đổi một chuỗi đầu vào (ví dụ như một câu tiếng Anh) thành một đại diện cố định. Trong bước giải mã decode, một mô hình ngôn ngữ được huấn luyện trên cả hai chuỗi output được dịch ra và chuỗi đại 36 diện cố định (từ bộ mã hóa encoder). Khi bộ mã hóa nhìn thấy cả hai thông tin chuỗi đầu vào đã được mã hóa và chuỗi được dịch ra, nó có thể dự đoán thông minh hơn về các từ tương lai dựa vào các từ hiện tại. Ví dụ, trong một mô hình ngôn ngữ chuẩn, chúng ta có thể thấy một từ “đi” trong tiếng Việt và không chắc từ tiếp theo là về sự dịch chuyển bằng hai chi dưới (ví dụ: tôi đi rất nhanh nhưng vẫn không đuổi kịp anh ấy) hay chỉ một người nào đó đã chết (ví dụ: Anh ấy ra đi mà không kịp nói lời trăng trối). Tuy nhiên, nếu chúng ta đã đi qua một bối cảnh của bộ mã hóa, thì bộ giải mã nhận ra rằng các chuỗi đầu vào đang đề cập đến việc di chuyển của con người, chứ không phải sự việc một người đã chết. Với bối cảnh đó, bộ giải mã có thể lựa chọn từ kế tiếp thích hợp và cung cấp một bản dịch chính xác. Mô hình chuỗi sang chuỗi Seq2seq, được giới thiệu trong bài báo “Learning Pharase Representations using RNN Encoder-Decoder for Statistical Machine Translation”, kể từ đó đã trở thành mô hình cho các hệ thống đối thoại (Dialogue Systems) và Máy dịch (Machine Translation). Như vậy, chúng ta đã có thể hiểu được cơ bản về mô hình chuỗi sang chuỗi, chúng ta có thể xem xét làm thế nào để xây dựng được một mô hình dịch sử dụng mạng nơ-ron: Với bộ mã hóa, sẽ sử dụng một mạng RNN. Mạng này sẽ xử lý chuỗi đầu vào, sau đó chuyển nó thành chuỗi đầu ra của nó vào bộ giải mã decoder như một biến ngữ cảnh. Với bộ giải mã, cũng sử dụng một mạng RNN. Nhiệm vụ của nó là xem kết quả được dịch, và sau đó cố gắng dự đoán từ tiếp theo trong chuỗi được giải mã khi đã biết được từ hiện tại trong chuỗi đã được dịch. Sau khi huấn luyện, mô hình có thể dịch bằng việc mã hóa câu mà chúng ta muốn dịch và sau đó chạy mạng ở chế độ sinh văn bản. Mô hình chuỗi sang chuỗi được mô phỏng như hình dưới đây: 37 Hình 3.3: Mô hình chuỗi liên tiếp (chuỗi sang chuỗi) seq2seq. Mô hình chuỗi sang chuỗi, bộ mã hóa sinh ra một chuỗi các trạng thái. Bộ giải mã là một mô hình ngôn ngữ với một tham số bổ sung cho các trạng thái cuối cùng của bộ mã hóa. Như vậy, chúng ta đã thấy được một mô hình ngôn ngữ đơn giản cho phép chúng ta mô hình hóa các chuỗi đơn giản bằng việc dự đoán tiếp theo trong một chuỗi khi cho một từ trước đó trong chuỗi. Thêm nữa là chúng ta đã thấy quá trình xây dựng một mô hình phức tạp có phân tách các bước như mã hóa một chuỗi đầu vào thành một bối cảnh, và sinh một chuỗi đầu ra bằng việc sử dụng một mạng nơ-ron tách biệt. Trong phần sau sẽ trình bày cách thiết kế một mô hình đối thoại dựa vào mô hình chuỗi sang chuỗi seq2seq. 3.3 Mô hình trả lời tự động Bản thân mô hình seq2seq nó bao gồm hai mạng RNN: Một cho bộ mã hóa, và một cho bộ giải mã. Bộ mã hóa nhận một chuỗi (câu) đầu vào và xử lý một phần tử (từ trong câu) tại mỗi bước. Mục tiêu của nó là chuyển đổi một chuỗi các phần tử vào một vectơ đặc trưng có kích thước cố định mà nó chỉ mã hóa thông tin quan trọng trong chuỗi và bỏ qua các thông tin không cần thiết. Có thể hình 38 dung luồng dữ liệu trong bộ mã hóa dọc theo trục thời gian, giống như dòng chảy thông tin cục bộ từ một phần tử kết thúc của chuỗi sang chuỗi khác. Hình 3.4: Mô hình đối thoại seq2seq. Mỗi trạng thái ẩn ảnh hưởng đến trạng thái ẩn tiếp theo và trạng thái ẩn cuối cùng được xem như tích lũy tóm tắt về chuỗi. Trạng thái này được gọi là bối cảnh hay vevtơ suy diễn, vì nó đại diện cho ý định của chuỗi. Từ bối cảnh đó, các bộ giải mã tạo ra một chuỗi, một phần tử (word) tại một thời điểm. Ở đây, tại mỗi bước, các bộ giải mã bị ảnh hưởng bởi bối cảnh và các phần tử được sinh ra trước đó. 3.4 Một số đặc điểm khi xây dựng hệ thống trả lời tự động Có một số thách thức thể hiện một cách rõ ràng hoặc không thể thấy rõ khi xây dựng một mô hình đối thoại nói chung đang là tâm điểm được chú ý bởi nhiều nhà nghiên cứu. 3.4.1. Phụ thuộc bối cảnh Để sinh ra các câu trả lời hợp lý, các hệ thống đối thoại cần phải kết hợp với cả hai bối cảnh ngôn ngữ và bối cảnh vật lý. Trong các hội thoại dài, người nói cần theo dõi và nhớ được những gì đã được nói và những thông tin gì đã được trao đổi. Đó là một ví dụ về bối cảnh ngôn ngữ. Phương pháp tiếp cận phổ biến nhất là nhúng cuộc hội thoại vào một Vector, nhưng việc làm này đối với đoạn 39 hội thoại dài là một thách thức lớn. Các thử nghiệm trong nghiên cứu [3], [15] đều đi theo hướng này. Hướng nghiên cứu này cần kết hợp các loại bối cảnh như: Ngày/ giờ, địa điểm, hoặc thông tin về một người. 3.4.2. Kết hợp tính cách Khi phát sinh các câu trả lời, các hệ thống trợ lý ảo lý tưởng là tạo ra câu trả lời phù hợp với ngữ nghĩa đầu vào cần nhất quán giống nhau. Ví dụ, chúng ta muốn nhận được câu trả lời với mẫu hỏi “Bạn bao nhiêu tuổi” hay “Tuổi của bạn là mấy”. Điều này nghe có vẻ đơn giản, nhưng việc tổng hợp, tích hợp các kiến thức nhất quán hay “có tính cách” vào trong các mô hình đối thoại là một vấn đề rất khó để nghiên cứu. Rất nhiều các hệ thống được huấn luyện để trả lời câu hỏi thỏa đáng với ngôn ngữ, nhưng chúng không được huấn luyện để sinh ra các câu trả lời nhất quán về ngữ nghĩa. Mô hình như thế đang được nghiên cứu trong [10], tạo ra những bước đầu tiên tập trung vào hướng mô hình hóa tính cách. 3.5 Các vấn đề khó khăn khi trả lời tự động bằng Tiếng Việt Theo tác giả vấn đề khó khăn nhất khi xây dựng một hệ thống trả lời tự động đó là vấn đề xử lý Tiếng Việt. Tiếng Việt thuộc ngôn ngữ đơn lập, tức là mỗi một tiếng (âm tiết) được phát âm tách rời nhau và được thể hiện bằng một chữ viết. Đặc điểm này thể hiện rõ rệt ở tất cả các mặt ngữ âm, từ vựng, ngữ pháp. Dưới đây trình bày một số đặc điểm của tiếng Việt theo các tác giả ở Trung tâm ngôn ngữ học Việt Nam đã trình bày [30]. 3.5.1 Đặc điểm ngữ âm Tiếng Việt có một loại đơn vị đặc biệt gọi là “tiếng”, về mặt ngữ âm, mỗi tiếng là một âm tiết. Hệ thống âm vị tiếng Việt phong phú và có tính cân đối, tạo ra tiềm năng của ngữ âm tiếng Việt trong việc thể hiện các đơn vị có nghĩa. Nhiều từ tượng hình, tượng thanh có giá trị gợi tả đặc sắc. Khi tạo câu, tạo lời, người Việt rất chú ý đến sự hài hoà về ngữ âm, đến nhạc điệu của câu văn. 40 3.5.2 Đặc điểm từ vựng: Mỗi tiếng nói chung là một yếu tố có nghĩa. Tiếng là đơn vị cơ sở của hệ thống các đơn vị có nghĩa của tiếng Việt. Từ tiếng, người ta tạo ra các đơn vị từ vựng khác để định danh sự vật, hiện tượng..., chủ yếu nhờ phương thức ghép và phương thức láy. Việc tạo ra các đơn vị từ vựng ở phương thức ghép luôn chịu sự chi phối của quy luật kết hợp ngữ nghĩa, ví dụ: sinh viên, đất nước, máy bay, nhà lầu xe hơi, nhà tan cửa nát... Hiện nay, đây là phương thức chủ yếu để sản sinh ra các đơn vị từ vựng. Theo phương thức này, tiếng Việt triệt để sử dụng các yếu tố cấu tạo từ thuần Việt hay vay mượn từ các ngôn ngữ khác để tạo ra các từ, ngữ mới, ví dụ như tiếp thị, karaoke, thư điện tử (e-mail), thư thoại (voice mail), phiên bản (version), xa lộ thông tin, siêu liên kết văn bản, truy cập ngẫu nhiên, v.v. Việc tạo ra các đơn vị từ vựng ở phương thức láy thì quy luật phối hợp ngữ âm chi phối chủ yếu việc tạo ra các đơn vị từ vựng, chẳng hạn như chôm chỉa, chỏng chơ, đỏng đa đỏng đảnh, thơ thẩn, lúng lá lúng liếng, v.v. Vốn từ vựng tối thiểu của tiếng Việt phần lớn là các từ đơn tiết (một âm tiết, một tiếng). Sự linh hoạt trong sử dụng, việc tạo ra các từ ngữ mới một cách dễ dàng đã tạo điều kiện thuận lợi cho sự phát triển vốn từ, vừa phong phú về số lượng, vừa đa dạng trong hoạt động. Cùng một sự vật, hiện tượng, một hoạt động hay một đặc trưng, có thể có nhiều từ ngữ khác nhau biểu thị. Tiềm năng của vốn từ ngữ tiếng Việt được phát huy cao độ trong các phong cách chức năng ngôn ngữ, đặc biệt là trong phong cách ngôn ngữ nghệ thuật. Hiện nay, do sự phát triển vượt bậc của khoa học-kĩ thuật, đặc biệt là công nghệ thông tin, thì tiềm năng đó còn được phát huy mạnh mẽ hơn. 3.5.3 Đặc điểm ngữ pháp 41 Từ của tiếng Việt không biến đổi hình thái. Đặc điểm này sẽ chi phối các đặc điểm ngữ pháp khác. Khi từ kết hợp từ thành các kết cấu như ngữ, câu, tiếng Việt rất coi trọng phương thức trật tự từ và hư từ. Việc sắp xếp các từ theo một trật tự nhất định là cách chủ yếu để biểu thị các quan hệ cú pháp. Trong tiếng Việt khi nói “Sinh viên học giỏi” là khác với “Học giỏi sinh viên”. Khi các từ cùng loại kết hợp với nhau theo quan hệ chính phụ thì từ đứng trước giữ vai trò chính, từ đứng sau giữ vai trò phụ. Nhờ trật tự kết hợp của từ mà "củ cải" khác với "cải củ", "tình cảm" khác với "cảm tình". Trật tự chủ ngữ đứng trước, vị ngữ đứng sau là trật tự phổ biến của kết cấu câu tiếng Việt. Phương thức hư từ cũng là phương thức ngữ pháp chủ yếu của tiếng Việt. Nhờ hư từ mà tổ hợp “anh của em” khác với tổ hợp “anh và em”, “anh vì em”. Hư từ cùng với trật tự từ cho phép tiếng Việt tạo ra nhiều câu cùng có nội dung thông báo cơ bản như nhau nhưng khác nhau về sắc thái biểu cảm. Ví dụ, so sánh các câu sau đây: - Tôi đang học bài. - Bài, tôi đang học. - Bài, tôi cũng đang học. Ngoài trật tự từ và hư từ, tiếng Việt còn sử dụng phương thức ngữ điệu. Ngữ điệu giữ vai trò trong việc biểu hiện quan hệ cú pháp của các yếu tố trong câu, nhờ đó nhằm đưa ra nội dung muốn thông báo. Trên văn bản, ngữ điệu thường được biểu hiện bằng dấu câu. Sự khác nhau trong nội dung thông báo được nhận biệt khi so sánh hai câu sau: - Đêm hôm qua, cầu gãy. - Đêm hôm, qua cầu gãy. Kết luận: Qua một số đặc điểm nổi bật vừa nêu trên đây, chúng ta có thể hình dung được phần nào bản sắc và tiềm năng của tiếng Việt. 42 CHƯƠNG 4: XÂY DỰNG HỆ THỐNG TRAO ĐỔI THÔNG TIN TRỰC TUYẾN GIỮA SINH VIÊN VỚI NHÀ TRƯỜNG TẠI TRƯỜNG ĐẠI HỌC CÔNG NGHIỆP HÀ NỘI 4.1 Lựa chọn bài toán Trường Đại học Công nghiệp Hà Nội (ĐHCNHN) hiện tại đang đào tạo trên 60000 sinh viên với nhiều ngành nghề đào tạo (Tiến sĩ, Thạc sĩ, Đại học chính quy, Cao đẳng , Trung cấp chuyên nghiệp, Đào tạo Sau đại học, Đào tạo nghề), với 3 cơ sở chính đào tạo có vị trí cách xa nhau Cơ sở 1 (Số 298 đường Cầu Diễn, quận Bắc Từ Liêm, thành phố Hà Nội), Cơ sở 2 (Phường Tây Tựu, quận Bắc Từ Liêm, thành phố Hà Nội), Cơ sở 3 (Phường Lê Hồng Phong và xã Phù Vân, thành phố Phủ Lý, tỉnh Hà Nam) và có hơn 30 cơ sở liên kết đào tạo ngoài trường. Để nâng cao chất lượng giảng dạy của cán bộ, giáo viên cũng như kết quả học tập của học sinh, sinh viên trong trường nhà trường đã đầu tư xây dựng một cổng thông tin điện tử nhằm giúp sinh viên tra cứu thông tin và gửi thắc mắc liên quan đến quá trình học tập và rèn luyện của sinh viên qua mạng internet. Tuy nhiên việc giải đáp thắc mắc của toàn bộ sinh viên gặp phải một số khó khăn do hiện tại bộ phận trả lời được nằm tại nhiều cơ sở, nhiều phòng ban, sinh viên chủ yếu sử dụng các kênh thông tin không chính thức như Facebook, gây nên hiện tượng không tìm được câu trả lời thỏa đáng. Nhu cầu giải đáp phục vụ cho quá trình nghiên cứu và học tập của sinh viên còn gặp nhiều khó khăn nên trường ĐHCNHN đã xây dựng hệ thống giải đáp trực tuyến nhằm giúp giải đáp sinh viên một cách nhanh chóng và thiết thực. Việc tin học hóa cổng hỏi đáp đã giúp việc quản lý việc học tập và trao đổi trong nhà trường trở nên thuận tiện hơn, giúp cán bộ, giáo viên, học sinh, sinh viên trong trường giải quyết được những thắc mắc giúp học tập đạt kết quả tốt hơn, do đó yêu cầu đặt ra cần phải xây dựng một hệ thống trao đổi thông tin trực tuyến trong nhà trường có thể tự động phân luồng câu hỏi một cách chính xác từ người hỏi đến đúng người có khả năng trả lời là cấp thiết. 4.2 Quy trình trao đổi thông tin (hỏi đáp trực tuyến) giữa HSSV với Nhà trường tại Trường Đại học Công nghiệp Hà Nội 4.2.1 Quy trình áp dụng 44 Hình 4.1. Quy trình áp dụng 4.2.2 Mô tả quy trình áp dụng Bảng 4.1 Mô tả quy trình áp dụng Stt Bước thực hiện Người thực hiện Nội dung thực hiện Kết quả thực hiện Biểu mẫu/ Hồ sơ 1 Thiết lập hệ thống Quản trị hệ thống Quản trị hệ thống thiết lập hệ thống trao đổi thông tin giữa học sinh sinh viên với nhà trường. Phân quyền, chức năng cho các đơn vị, bộ phận liên quan đến hệ thống Phân quyền, thiết lập chức năng cho các bộ phận liên quan 2 Xác định đơn vị trả lời HSSV Ban giám hiệu Ban giám hiệu xác định đơn vị trả lời thắc mắc của học sinh sinh viên Các đơn vị trả lời học sinh sinh viên được xác định 3 Xây dựng luật và huấn luyện máy P. CTHSSV và Cá nhân/ Đơn vị trả lời Phòng Công tác học sinh sinh viên và cá nhân/đơn vị được phân công trả lời xây dựng luật (các câu hỏi, tình huống thường gặp...) huấn luyện máy Luật và huấn luyện máy được thiết lập 4 Máy học Quản trị hệ thống Máy học căn cứ vào luật ở bước trên 5 Cơ sở dữ liệu Quản trị hệ thống Quản trị hệ thống thiết lập cơ sở dữ liệu Cơ sở dữ liệu được thiết lập 6 Cơ sở dữ liệu tri thức Quản trị hệ thống Quản trị hệ thống thiết lập cơ sở dữ liệu tri thức Cơ sở dữ liệu tri thức được thiết lập 7 Kênh trao đổi thông tin Quản trị hệ thống Quản trị hệ thống thiết lập kênh trao đổi thông tin cho phép học sinh sinh viên đặt câu hỏi, các đơn vị được phân công trả lời sinh viên Kênh trao đổi thông tin được thiết lập 45 8 Đặt câu hỏi HSSV Học sinh sinh viên đặt câu hỏi trên hệ thống trao đổi thông tin Học sinh sinh viên đặt câu hỏi 9 Kiểm tra nội dung câu hỏi HSSV Bước này kiểm tra nội dung câu hỏi của học sinh sinh viên xem có hợp lệ hay không Nếu hợp lệ chuyển bước 11, nếu không hợp lệ chuyển bước 10 Mẫu phiếu thu hồ sơ 10 Thông báo câu hỏi không hợp lệ HSSV Học sinh sinh viên được thông báo câu hỏi không hợp lệ Đặt câu hỏi khác 11 Tiếp nhận nội dung câu hỏi P. CTHSSV Phòng Công tác học sinh sinh viên tiếp nhận nội dung câu hỏi của học sinh sinh viên Nội dung câu hỏi được tiếp nhận 12 Kiểm tra có sẵn trong cơ sở dữ liệu tri thức P. CTHSSV Phòng Công tác học sinh sinh viên kiểm tra xem câu hỏi có sẵn trong cơ sở dữ liệu tri thức hay không Nếu không chuyển bước 13, nếu có chuyển bước 14. 13 Thông báo không có trong cơ sở dữ liệu P. CTHSSV Phòng Công tác học sinh sinh viên kiểm tra và thông báo câu hỏi của học sinh sinh viên không có trong cơ sở dữ liệu tri thức Thông báo câu hỏi không có trong cơ sở dữ liệu tri thức Mẫu danh sách thí sinh đủ điều kiện nhập học 14 Xác định có câu trả lời/phân luồng P. CTHSSV Phòng Công tác học sinh sinh viên kiểm tra câu hỏi đã có trong cơ sở dữ liệu tri thức. Xác định phân luồng hay trả lời câu hỏi. Nếu xác định phân luồng chuyển bước 15, nếu đã có câu trả lời chuyển bước 23 15 Hiển thị đơn vị trả lời P. CTHSSV Phòng Công tác học sinh sinh viên hiển thị đơn vị trả lời câu hỏi của học sinh sinh viên Đơn vị trả lời câu hỏi của học sinh sinh viên được hiển thị 16 Có thể trả lời trực tiếp P. CTHSSV Bước này kiểm tra có thể trả lời trực tiếp sinh viên hay không Nếu trả lời trực tiếp chuyển bước 26, nếu không chuyển bước 17 46 17 Chuyển đến cá nhân/đơn vị trả lời P. CTHSSV Phòng Công tác học sinh sinh viên chuyển câu hỏi của sinh viên đến cá nhân/đơn vị được phân công trả lời Câu hỏi được chuyển đến các cá nhân/đơn vị trả lời 18 Tiếp nhận câu hỏi và xác nhận Cá nhân/đơn vị trả lời Cá nhân/ Đơn vị trả lời tiếp nhận câu hỏi Câu hỏi được tiếp nhận 19 Trả lời trực tiếp Cá nhân/đơn vị trả lời Bước này kiểm tra câu hỏi xem có thể trả lời trực tiếp không Nếu có thể trả lời trực tiếp chuyển bước 22, nếu không chuyển bước 20 20 Hẹn ngày trả lời Cá nhân/đơn vị trả lời Cá nhân/ Đơn vị trả lời hẹn ngày trả lời sinh viên Sinh viên nhận được ngày hẹn trả lời 21 Xem thông tin lịch hẹn HSSV Học sinh sinh viên kiểm tra thông tin lịch hẹn Sinh viên xem thông tin lịch hẹn 22 Trả lời câu hỏi Cá nhân/đơn vị trả lời Cá nhân/Đơn vị trả lời trả lời câu hỏi của sinh viên Câu hỏi của sinh viên được trả lời Mẫu hoá đơn nhập học 23 Hiển thị nội dung trả lời P. CTHSSV Phòng Công tác học sinh sinh viên hiển thị nội dung trả lời câu hỏi của sinh viên Nội dung câu trả lời được hiển thị 24 Chấp nhận câu trả lời P. CTHSSV Bước này kiểm tra xem nội dung câu trả lời có được chấp nhận hay không Nếu chấp nhận chuyển bước 27, nếu không chuyển bước 25 25 Có thể hiệu chỉnh P. CTHSSV Phòng Công tác học sinh sinh viên kiểm tra có thể chỉnh sửa câu trả lời hay không Nếu có chuyển bước 26, nếu không chuyển bước 17 26 Chỉnh sửa nội dung trả lời P. CTHSSV Phòng Công tác học sinh sinh viên chỉnh sửa lại nội dung trả lời cho câu hỏi Nội dung trả lời được chỉnh sửa 27 Công bố câu trả lời P. CTHSSV Phòng Công tác học sinh sinh viên công bố câu trả lời Câu trả lời được công bố 47 28 Xem nội dung trả lời HSSV Học sinh sinh viên xem nội dung câu trả lời Nội dung câu trả lời được hiển thị 29 Thỏa mãn câu hỏi HSSV Học sinh sinh viên xem câu trả lời, kiểm tra xem nội dung trả lời đã thỏa mãn với câu hỏi của mình chưa Nếu có chuyển bước 30, nếu không quay lại bước 8 30 Đánh giá mức hài lòng HSSV Học sinh sinh viên căn cứ nội dung câu trả lời nhận được, thời gian được hẹn trả lời... để đánh giá mức độ hài lòng Đánh giá mức độ hài lòng 31 Tổng hợp tình hình trao đổi thông tin P. CTHSSV Phòng Công tác học sinh sinh viên tổng hợp tình hình trao đổi thông tin giữa học sinh sinh viên và nhà trường Tổng hợp tình hình trao đổi thông tin Mẫu thống kê 32 Xem báo cáo tình hình trao đổi thông tin BGH và Cá nhân/đơn vị trả lời Ban giám hiệu và các cá nhân/đơn vị trả lời có thể xem được báo cáo tình hình trao đổi thông tin giữa học sinh sinh viên và nhà trường Xem báo cáo tình hình trao đổi thông tin 33 Máy học tri thức mới Quản trị hệ thống Máy học các tri thức mới Tham khảo mẫu 5,6 34 Tổng hợp và lưu cơ sở dữ liệu tri thức Quản trị hệ thống Quản trị hệ thống tổng hợp và lưu trữ cơ sở dữ liệu tri thức Tổng hợp, lưu trữ cơ sở dữ liệu tri thức 4.3 Kiến trúc ứng dụng Mạng học sâu DNN - Deep Neural Networks là cách tiếp cận hiện đại của các thuật toán học máy. Các mô hình học sâu có kiến trúc tương tự mạng Nơ-ron nhưng khác về cách tiếp cận vấn đề, với ý tưởng cơ bản là dữ liệu tại mỗi lớp sẽ có mức độ trừu tượng hóa (khái quát) cao hơn bằng cách tổ hợp các dữ liệu có mức trừu tượng hóa thấp ở lớp trước. DNN rất mạnh bởi vì chúng có thể thực hiện tính toán song song tùy ý với một số lượng rất ít các bước. Hơn nữa, Mạng DNN lớn có thể được huấn luyện với lan truyền ngược giám sát bất cứ khi nào tập huấn luyện được dán nhãn có đủ thông tin để xác định các thông số của mạng. Do đó, nếu có tồn tại một thiết lập thông số của một DNN lớn mà đạt được kết quả tốt, giám sát lan truyền ngược sẽ tìm thấy những thông số và giải quyết vấn đề. Trong luận văn này, chúng tôi cho thiết kế một ứng dụng đơn giản dựa vào kiến trúc Long ShortTerm Memory (LSTM) [33] có thể giải quyết các vấn đề chuỗi tuần tự liên tiếp sequence-to-sequence. Ý tưởng là sử dụng một mạng LSTM để đọc chuỗi đầu vào, một bước thời gian tại một thời điểm, để có được biểu diễn vector kích thước cố định, và sau đó sử dụng một mạng LSTM để trích xuất các trình tự đầu ra từ vector đó (hình 4.2). Mạng LSTM thứ hai về cơ bản là một mạng nơ-ron tái phát dựa trên mô hình ngôn ngữ [34, 35], ngoại trừ việc nó được bổ sung thêm các điều kiện trên các chuỗi đầu vào. LSTM có khả năng học thành công trên dữ liệu phụ thuộc thời gian tầm xa, làm cho nó trở thành một sự lựa chọn tự nhiên cho ứng dụng này do độ có trễ thời gian đáng kể giữa các đầu vào và đầu ra tương ứng của chúng (hình 4.2). 49 Hình 4.2: Kiến trúc mô hình đối thoại cho tiếng Việt Kiến trúc mô hình trên chúng tôi dựa vào kết quả nghiên cứu của Lê Viết Quốc cho bài toán hỏi đáp bằng tiếng Anh, trong [11], chúng tôi cũng sử dụng mô hình này sẽ đọc một câu đầu vào tiếng Việt, ví dụ: “A B C” và sinh ra ra một câu tiếng Việt đầu ra “W X Y Z”. Mô hình sẽ dừng dự đoán sau khi sản xuất ra một mã hiệu kết thúc câu . Lưu ý, mạng LSTM đọc câu đầu vào theo hướng ngược lại, bởi vì làm như vậy sẽ đưa ra nhiều các phụ thuộc ngắn hạn trong các dữ liệu mà làm cho các vấn đề được tối ưu hơn nhiều. Tiếp cận của chúng tôi sử dụng một khung làm việc sequence-to-sequence (seq2seq) được mô tả trong [10]. Mô hình này dựa trên một mạng nơ-ron tái phát, mà sẽ đọc chuỗi đầu vào tuần tự, một dấu hiệu (token) tại mỗi thời điểm, và dự đoán chuỗi đầu ra, cũng một dấu hiệu tại một thời điểm. Trong suốt thời gian huấn luyện, chuỗi tuần tự đầu ra được đưa vào mô hình, và việc học có thể hoàn tất bởi quá trình lan truyền ngược. Mô hình này được huấn luyện để cực đại hóa cross entropy theo đúng tuần tự cho bối cảnh của nó. Trong quá trình suy luận, mô hình cho chuỗi đầu ra đúng mà không quan sát được, bằng cách đơn giản chúng tôi nạp vào dấu hiệu token đã được dự đoán làm đầu vào để dự đoán dấu hiệu đầu ra tiếp theo. Đây là một phương pháp suy luận "tham lam". Một cách tiếp cận ít tham lam sẽ được sử dụng tìm kiếm Beam Search, đây là thuật toán tìm kiếm mà có thể phát hiện ra một đồ thị bằng việc mở rộng các nút tiềm năng trong một tập có giới hạn, bằng cách nạp một vài ứng cử viên ở các bước trước vào bước tiếp theo. Một chuỗi được dự đoán có thể được chọn dựa trên xác suất của chuỗi. 50 Cụ thể, giả sử rằng chúng ta quan sát một cuộc trò chuyện với hai lượt: người đầu tiên thốt ra “A B C”, và người thứ hai trả lời “W X Y Z”. Chúng tôi có thể sử dụng một mạng nơ-ron tái phát, và huấn luyện để ánh xạ “ABC” sang “WXYZ” như trên hình 4.2 ở trên. Các trạng thái ẩn của mô hình khi đó nhận được ký tự kết thúc chuỗi , có thể được xem như là vector ngưỡng uy nghĩ vì nó lưu trữ các thông tin của câu, hoặc nghĩ, “A B C”. Thế mạnh của mô hình này nằm ở sự đơn giản và tính tổng quát của nó. Chúng ta có thể sử dụng mô hình này cho Máy dịch, Hỏi đáp, và các cuộc trò chuyện mà không cần thay đổi nhiều trong kiến trúc. Việc áp dụng kỹ thuật này để mô hình hóa cuộc đối thoại cũng rất đơn giản: các chuỗi đầu vào có thể được nối bối cảnh đã được trò chuyện với chuỗi đầu ra là câu trả lời. Không giống như các nhiệm vụ đơn giản hơn như dịch thuật, tuy nhiên, một mô hình như sequence-to-sequence sẽ không thể “giải quyết” thành công vấn đề của việc mô hình hóa đối thoại do: các hàm mục tiêu được tối ưu hóa không nắm bắt được mục tiêu thực tế cần đạt được thông qua giao tiếp của con người, mà thường là thông tin dài hạn và dựa trên trao đổi thông tin chứ không phải là dự đoán bước tiếp theo. Việc thiếu một mô hình để đảm bảo tính thống nhất và kiến thức nói chung cũng là một hạn chế rõ ràng của một mô hình hoàn toàn không có giám sát. 4.4 Cài đặt hệ thống 4.4.1 Mô hình cài đặt Mạng nơ-ron tái phát RNN [36, 37] là một mạng tổng quát của các mạng nơ-ron truyền thẳng cho các chuỗi tuần tự. Với mỗi chuỗi đầu vào (x1, , xT) , là một mạng RNN chuẩn sẽ tính toán một chuỗi các kết quả đầu ra (y1, , yT) , bằng cách duyệt phương trình sau: ℎ௧ = 𝑠𝑖𝑔𝑚(𝑊௛௫𝑥௧ + 𝑊௛௛ℎ௧ିଵ) 51 𝑦௧ = 𝑊௬௛ℎ௧ Mạng RNN có thể dễ dàng ánh xạ tuần tự chuỗi bất cứ khi nào sự liên kết giữa đầu vào và đầu ra được biết đến trước khi hết hạn. Tuy nhiên, nó không là cách rõ ràng để áp dụng một mạng RNN cho các vấn đề mà đầu vào và đầu ra có độ dài khác nhau với các mối quan hệ phức tạp và không đơn điệu (thay đổi). Cách làm đơn giản nhất cho việc học chuỗi nói chung là ánh xạ chuỗi đầu vào thành một vector có kích thước cố định sử dụng một mạng RNN và sau đó, ánh xạ vector vào chuỗi đích sử dụng một mạng RNN khác (cách làm này được thực hiện bởi Kyunghyun Cho và cộng sự [36]). Trong khi nó có thể hoạt động trên nguyên tắc kể từ khi RNN được cung cấp với tất cả các thông tin liên quan, nó sẽ gặp khó khăn trong việc huấn luyện do sự phụ thuộc thời gian dài [33, 38]. Tuy nhiên, mạng LSTM [33] có thể học các vấn đề phụ thuộc thời gian dài, vì vậy, sử dụng mạng LSTM có thể thành công trong trường hợp này. Mục tiêu của LSTM là để ước lượng xác suất có điều kiện 𝑝(𝑦ଵ, , 𝑦் , |𝑥ଵ, , 𝑥்) trong đó (x1, , xT) là một chuỗi đầu vào và (y1, , yT’) là chuỗi đầu ra tương ứng của nó có chiều dài T’có thể khác nhau từ T. Mạng LSTM tính xác suất có điều kiện này bằng cách có được thông tin đại diện mà số chiều cố định ῡ của chuỗi đầu vào (x1, , xT) được tính bởi các trạng thái ẩn cuối cùng của mạng LSTM, và sau đó tính toán xác suất của (y1, , yT’) ới một công thức LSTM-LM tiêu chuẩn mà ban đầu trạng thái ẩn được thiết lập để đại diện ῡ của (x1, , xT): 𝑝(𝑦ଵ, , 𝑦்ᇲ|𝑥ଵ, , 𝑥்) = ෑ 𝑝(𝑦௧|𝑣, 𝑦ଵ, , 𝑦௧ିଵ) ்ᇲ ௧ୀଵ Trong phương trình này, mỗi phân phối xác suất 𝑝(𝑦ଵ, , 𝑦் , |𝑥ଵ, , 𝑥்) được biểu diễn bởi một hàm softmax trên tất cả từ trong từ vựng. Sử dụng công thức LSTM 52 của Graves, trong [37]. Chú ý là mỗi câu kết thúc với một ký hiệu đặc biệt end-of- sentence “”, cho phép mô hình để xác định một phân phối các chuỗi của tất cả các độ dài có thể. Xem lược đồ tổng quát trong hình 4.2, trong đó LSTM tính xác suất đại diện của “A”, “B”, “C”, “” và sau đó sử dụng đại diện này để tính xác xuất của “W”, “X”, “Y”, “Z”, “”. 4.4.2 Môi trường cài đặt Cấu hình phần cứng, phần mềm các gói đi kèm thực nghiệm được sử dụng trong luận văn được mô tả trong hai bảng sau đây: Bảng 4.4: Thông tin phần cứng Stt Tên thiết bị Cấu hình Ghi chú 1 Máy chủ xử lý tính toán Máy chủ GPU: BL460c Gen9: Chip: 2xE5-2680 v3/12Core 2.5Ghz Ram: 128G DDR4 RAM Ổ cứng: 02x300G SAS 10K Chíp GPU: VIDIA Grid K2 PCIe GPU 2 Máy chủ xử lý dữ liệu Máy chủ ứng dụng: BL460c Gen9: ChiP; 2xE5-2680 v3/12Core 2.5Ghz RAM: 128G DDR4 RAM Ổ cứng: - 02x300G SAS 10K - HP 300GB 12G SAS 10K 2.5in SC ENT HDD 3 Máy tính lập trình Dell Inspiron 5378 Chip: Intel Kaby Lake Core i7 - 7500U Ram: 8GB DDR4 Ổ cứng: SSD 256GB 53 Bảng 4.5: Các công cụ phần mềm được sử dụng Stt Tên phần mềm Chức năng Nguồn 1 TensorFlow https://www.tensorflow.o rg/ 2 Keras https://keras.io/ 3 Anaconda https://anaconda.org/ 4 Word2vec https://github.com/dav/w ord2vec 5 GloVe https://nlp.stanford.edu/pr ojects/glove/ 6 Visual Studio 2017 Công cụ lập trình https://www.visualstudio. com/downloads/ 7 Microsoft SQL Server 2012 Hệ quản trị cơ sở dữ liệu https://www.microsoft.co m/en- us/download/details.aspx ?id=29062 8 Windows 10 Hệ điều hành máy tính lập trình https://www.microsoft.co m/en- us/download/windows.as px 9 Windows Server 2013 Hệ điều hành máy chủ https://www.microsoft.co m/en- us/download/windows.as px 10 UETSegmenter https://github.com/phong nt570/UETsegmenter 54 4.4.3 Công cụ cài đặt - Sử dụng công cụ phân tách tự xây dựng trên nền tảng Visual Studio 2017. Cơ sở dữ liệu lưu trên hệ quản trị cơ sở dữ liệu Microsoft Server 2012. - Công cụ giao tiếp trả lời trực tuyến tự xây dựng trên nền tảng Asp.net 4.5 - Ứng dụng giao diện trên nền web gồm: HTML5, CSS, JQuery, Bootstrap, Websocket. 4.5 Kết quả đạt được Để xây dựng hệ thống trả lời tự động cho nhà trường chúng tôi đã thu thập các câu hỏi và câu trả lời từ hệ thống hỏi đáp cũ của nhà trường thu được tổng số 8500 câu hỏi chủ yếu qua hệ thống Sau quá trình tiền xử lý dữ liệu thu nhận được 16.173 câu văn bản tiếng việt. Thực hiện công việc làm sạch dữ liệu qua các bước sau.  Loại bỏ các ký tự đặc biệt, không phải chữ hoặc số  Loại bỏ các thẻ html trong câu  Chuyển các câu từ ký tự in hoa về in thường  Chuyển đổi các bảng mã khác về chuẩn Unicode  Tiền xử lý dữ liệu: Chuẩn hóa lại một số câu hỏi và câu trả lời  Tách từ  Sử dụng word2vec chuyển đầu vào cho LSTM 4.5.1 Một số kết quả 55 Giao diện của mô-đun tiếp nhận câu hỏi và tự động phân luồng Câu hỏi sau khi được hệ thống tiếp nhận sẽ được xử lý và chuyển đến bộ phận có liên quan trả lời. Trong trường hợp câu hỏi liên quan đến nhiều bộ phận thì sẽ cán bộ trong các bộ phận có thể chuyển tiếp câu hỏi đến bộ phận liên quan trả lời. Câu hỏi Trả lời Thầy cô cho e hỏi chút ạ, e có đưa e vừa thi xong muốn nộp hồ_sơ vào trường mà mình chưa biết là thủ_tục như thế nào, phải đến phòng_ban nào để nộp, và thời_gian làm_việc trong ngày và trong tuần với ạ. E xin cảm ơn :)) Em vào trang tuyển_sinh của nhà_trường để biết thông_tin nhé: https://tuyensinh.haui.edu.vn/ 56 Xin phép cho em hỏi lịch_thi lại môn vật_lý đại_cương hè này được không ạ! e cảm ơn! Em xem lịch_thi trên trang Xin phép các Thầy/Cô cho em hỏi vài vấn đề ạ. Em là học_sinh lớp KHMT2- K9. vừa qua lớp em đã dự thi môn Xác_suất_thống_kê. Chúng em vừa biết điểm xong, nhiều bạn rất bức xúc vì điểm được chấm thật sự theo chúng em nghĩ chủ quan là chưa chính_xác với bài làm. Theo em được biết thì trung tâm QLCL có phần nộp đơn phúc_tra nhưng rất nhiều bạn nói rằng phúc_khảo thì điểm sẽ xuống ạ. Vì vậy em mong các Thầy/Cô có thể giải_thích cho em quy_trình phúc_khảo bài_thi sao cho công_khai minh_bạch với những sinh viên đã dự thi được không ạ. Và Sau khi phúc_khảo người xin phúc_khảo có được phúc_khảo tiếp lại lần đã phúc khảo không ạ? (giả sử người xin phúc_khảo vẫn chưa hết thắc_mắc). Và 1 điều nữa là hôm_nay là ngày 15-02 mới có điểm, mà thời gian chờ kết quả khi phúc tra là 10 ngày, trong khi lịch_thi lại là ngày 22-02 ạ. Em mong sớm nhận được phản hồi của Thầy/Cô ạ. Em xin chân thành cảm ơn Thầy/Cô trong ban QLCL ạ! Cám ơn em đã thông_tin. Câu_hỏi sẽ được chuyển đến bộ_phận Quản_lý_chất_lượng. Xin cho e hỏi làm thế nào để kiểm_tra mình đã hoàn_thành đủ tín_chỉ để đủ điều_kiện xét tốt_nghiệp chưa ạ? E xin cảm ơn Em đăng_nhập vào trang dttc.haui.edu.vn theo tài_khoản đc cấp để kiểm_tra nhé, nếu không đc em qua phòng Đào_tạo 105 - A2 để được thầy cô giải_đáp. Bây giờ muốn đăng_kí học kì_phụ thì làm thế nào ạ! Em nghiên_cứu quy_trình đăng_ký học kỳ phụ trên 4.5.2 Hiệu năng Kết quả thực nghiệm dựa trên dữ liệu thu thập từ ngày 1/1/2013 đến nay 57 Mẫu dữ liệu câu hỏi được thu thập dựa trên hệ thống tiếp nhận câu hỏi và phân luồng. Việc đánh giá đạt dựa trên các kết quả đánh giá được xác định dựa trên đánh giá mức độ hài lòng của học sinh – sinh viên. Cụ thể như sau: - Sinh viên đăng nhập hệ thống và vào hệ thống tiếp nhận câu hỏi - Sinh viên đặt câu hỏi và hệ thống tự động phân luồng vào bộ phận liên quan tiếp nhận và trả lời. - Sinh viên sau khi nhận câu trả lời thì có phản hồi “Cảm ơn” hoặc lựa chọn chức năng đánh giá hài lòng (nhấn vào nút like). Độ đo xác định hiệu năng của giải pháp phân luồng câu hỏi được tính như sau: 𝐻à𝑖 𝑙ò𝑛𝑔 = 𝑆ố 𝑙ầ𝑛 𝑝ℎâ𝑛 𝑙𝑢ồ𝑛𝑔 đượ𝑐 đá𝑛ℎ 𝑔𝑖á đạ𝑡 𝑇ổ𝑛𝑔 𝑠ố 𝑐â𝑢 ℎỏ𝑖 Hệ thống được đánh giá dựa trên 3 mẫu dữ liệu: Mẫu số 1 từ ngày 1/1/2013 đến 1/1/2014 gồm 1333 câu hỏi được phân luồng. Mẫu số 2 từ ngày 1/1/2014 đến 1/1/2015 gồm 2150 câu hỏi được phân luồng. Mẫu số 3 từ ngày 1/1/2015 đến 1/1/2016 gồm 1982 câu hỏi được phân luồng. Kết quả số lượng câu hỏi được đánh giá đạt và hiệu năng của hệ thống (mức độ hài lòng) được thể hiện ở các bảng sau: Mẫu 1: Từ dữ liệu ngày 1/1/2013 đến 1/1/2014 Dữ liệu câu hỏi Đánh giá đạt Hài lòng 1333 300 22,5% Mẫu 2: Từ dữ liệu ngày 1/1/2014 đến 1/1/2015 Dữ liệu câu hỏi Đánh giá đạt Hài lòng 2150 1220 56,7% 58 Mẫu 3: Từ dữ liệu ngày 1/1/2015 đến 1/1/2016 Dữ liệu câu hỏi Đánh giá đạt Hài lòng 1982 1349 68% Đánh giá kết quả thí nghiệm - Qua quá trình thử nghiệm trên hệ thống kiểm tra đánh giá của nhà trường nhận thấy phần lớn câu hỏi có độ dài >110 ký tự. - Các câu hỏi được phân luồng và trả lời đạt hiệu quả 60% khiến người dùng hài lòng. - Số câu “Cảm ơn” là 1619 câu (chiếm 56%) số đánh giá đạt - Trước khi thực hiện phân luồng câu hỏi, thời gian tiếp nhận và trả lời được thống kê trung bình là 180 phút. - Thời gian tiếp nhận câu hỏi và trả lời câu hỏi sau khi được phân luồng trung bình giảm được 90 phút mỗi ngày. - Theo đánh giá chủ quan thì số lượng thắc mắc của sinh viên trực tiếp tại các phòng ban liên quan đã giảm. - Việc tiếp nhận câu hỏi và giải đáp yêu cầu của sinh viên đã góp phần giúp nhà trường tuyên truyền và phổ biến được những kiến thức, văn hóa đến sinh viên nhanh chóng hơn, tiếp kiệm thời gian và nhân lực. 59 KẾT LUẬN 1. Những kết quả chính của luận văn: Luận văn đã đạt được các kết quả chính sau đây:  Đưa ra được các lý thuyết và vấn đề gặp phải trong việc xây dựng hệ thống tự động phân luồng câu hỏi.  Nghiên cứu và ứng dụng mạng học sâu vào giải quyết bài toán phân luồng câu hỏi và trả lời câu hỏi tự động trực tuyến  Cài đặt hệ thống tự động phân luồng câu hỏi và hệ thống trả lời câu hỏi đã đạt được kết quả thực nghiệm đạt trên 50% người sử dụng hài lòng.  Phần mềm đưa vào ứng dụng giúp tiết kiệm chi phí cho nguồn nhân lực trong quá trình tiếp nhận và trả lời câu hỏi.  Tổng hợp các kết quả và hướng nghiên cứu về bài toán đã có thể đưa ra được trợ lý ảo tiếp nhận và hiểu được nhu cầu của sinh viên.  Có khả năng áp dụng vào các hệ thống tự động phân luồng câu hỏi khác như tư vấn bán hàng, tư vấn sức khỏe, ... 2. Hướng phát triển của luận văn:  Tiếp tục triển khai mở rộng và thu thập nhiều câu hỏi hơn ở nhiều trường Đại học để có thể gia tăng sự huấn luyện, tăng độ chính xác.  Tiếp tục nghiên cứu các mô hình mạng học sâu giải quyết bài toán phân luồng câu hỏi và trả lời yêu cầu trực tuyến.  Tìm hiểu nhu cầu thực tế, cũng như tham khảo các ý kiến của chuyên gia để xây dựng chương trình áp dụng kỹ thuật đã nghiên cứu, bổ sung một số yếu tố khác để hoàn thiện hệ thống trả lời tự động đạt hiệu quả cao. 60 TÀI LIỆU THAM KHẢO [1] Nhữ Bảo Vũ, Nguyễn Văn Nam. XÂY DỰNG MÔ HÌNH ĐỐI THOẠI CHO TIẾNG VIỆT TRÊN MIỀN MỞ DỰA VÀO PHƯƠNG PHÁP HỌC CHUỖI LIÊN TIẾP. Khóa luận tốt nghiệp thạc sỹ CNTT 2016 [2] Hồ Tú Bảo, Lương Chi Mai. Về xử lý tiếng Việt trong công nghệ thông tin, Viện Công nghệ Thông tin, Viện Khoa học và Công nghệ Tiên tiến Nhật bản. [3] Hà Quang Thụy & nhóm khai phá dữ liệu và ứng dụng. Bài giảng về khai phá dữ liệu, 2007 [4] Walter S. Lasecki, Ece Kamar, Dan Bohus, Conversations in the Crowd: Collecting Data for Task-Oriented Dialog Learning [5] Alan Ritter, Colin Cherry, and Bill Dolan. 2010. “Unsupervised modeling of twitter conversations”. In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, HLT ’10, pages 17 [6] Rafael E. Banchs and Haizhou Li. 2012. “Iris: a chat-oriented dialogue system based on the vector space model”. In Proceedings of the ACL 2012 System Demonstrations, pages 37–42, Jeju Island, Korea, July. Association for Computational Linguistics. [7] Karthik Narasimhan, Tejas Kulkarni, and Regina Barzilay. 2015. “Language understanding for text-based games using deep reinforcement learning”. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 1–11, Lisbon, [8] T.-H. Wen, D. Vandyke, N. Mrksic, M. Gasic, L. M. Rojas-Barahona, P.-H. Su, S. Ultes, and S. Young. 2016. A Network-based End-to-End Trainable Task-oriented Dialogue System. ArXiv eprints, April 61 [9] Heriberto Cuayahuitl. 2016. Simpleds: “A simple deep reinforcement learning dialogue system”. CoRR, abs/1601.04574 [10] Ilya Sutskever, Oriol Vinyals, Quoc V. Le, 14 Dec 2014. “Sequence to Sequence Learning with Neural Networks” pp. 1–9. [11] Oriol Vinyals, Quoc Le, 22 Jul 2015. “A Neural Conversational Model” [12] Alessandro Sordoni, Michel Galley, Michael Auli, Chris Brockett, Yangfeng Ji, Margaret Mitchell, Jian-Yun Nie, Jianfeng Gao, Bill Dolan, 22 Jun 2015. “A Neural Network Approach to Context-Sensitive Generation of Conversational Responses” [13] Iulian V. Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, Joelle Pineau, 6 Apr 2016. “Building End-To-End Dialogue Systems Using Generative Hierarchical Neural Network Models”. [14] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. 2015. A diversitypromoting objective function for neural conversation models. arXiv preprint arXiv:1510.03055 [15] Lester, J., Branting, K., and Mott, B, 2004. “Conversational agents. In Handbook of Internet Computing. Chapman & Hall”. [16] Will, T, 2007. “Creating a Dynamic Speech Dialogue”. VDM Verlag Dr. [17] Russell, S., Dewey, D., Tegmark, M. (2015). “Research Priorities for Robust and Beneficial Artificial Intelligence”. AI Magazine, 36 (4):105–114. [18] Alan M Turing. 1950. “Computing machinery and intelligence”. Mind, 59(236):433–460. [19] Joseph Weizenbaum. 1966. “Elizaa computer program for the study of natural language communication between man and machine”. Communications of the ACM, 9(1):36–45. 62 [20] Roger C Parkinson, Kenneth Mark Colby, and William S Faught. 1977. “Conversational language comprehension using integrated pattern-matching and parsing”. Artificial Intelligence, 9(2):111–134. [21] Richard S Wallace. 2009. “The anatomy of ALICE”. Springer. [22] Jurgen Schmidhuber. 2015. “Deep learning in neural networks: An overview. Neural Networks”, 61:85–117. [23] Yann LeCun, Yoshua Bengio, and Geoffrey Hinton. 2015. Deep learning. Nature, 521(7553):436–444. [24] Marilyn Walker, Grace Lin, and Jennifer Sawyer. 2012. “An annotated corpus of film dialogue for learning and characterizing character style”. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Mehmet Ugur Do ˘ gan, Bente Maegaard, Joseph ˘ Mariani, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Eighth International Conference on Language Resources and Evaluation (LREC-2012), pages 1373–1378, Istanbul, Turkey, May. European Language Resources Association (ELRA). ACL Anthology Identifier: L12-1657. [25] Francesca Bonin, Jose San Pedro, and Nuria Oliver. 2014. “A context-aware nlp approach for noteworthiness detection in cellphone conversations”. In COLING, pages 25–36. [26] Jaime Carbonell, Donna Harman, Eduard Hovy, and Steve Maiorano, John Prange and Karen Sparck-Jones. Vision Statement to Guide Research in Question & Answering (Q&A) and Text Summarization. Final version 1. 2000 [27] P. Werbos, 1990. “Backpropagation through time: what it does and how to do it”. Proceedings of IEEE. [28] Sanda M. Harabagiu, Marius A. Paşca, Steven J. Maiorano. Experiments with open-domain textual Question Answering. International Conference On 63 Computational Linguistics Proceedings of the 18th conference on Computational linguistics – Volume 1, 2000, tr. 292 - 298 [29] Eduard Hovy, Ulf Hermjakob and Lin, C.-Y. The Use of External Knowledge in Factoid QA. Paper presented at the Tenth Text REtrieval Conference (TREC 10), Gaithersburg, MD, 2001, November 13-16. [30] Trung tâm ngôn ngữ học Việt Nam. “Đặc điểm tiếng Việt”, [31] S. Hochreiter and J. Schmidhuber, 1997. “Long Short-Term Memory” Neural Computation, vol. 9, pp. 1735–1780. [32] T. Mikolov, M. Karafiát, L. Burget, J. Cernockỳ, and S. Khudanpur, 2010. “Recurrent neural network based language model”. In INTERSPEECH, pages 1045–1048. [33] M. Sundermeyer, R. Schluter, and H. Ney, 2010. “LSTM neural networks for language modeling”. In INTERSPEECH. [34] D. Rumelhart, G. E. Hinton, and R. J. Williams, 1986. “Learning representations by back-propagating errors”. Nature, 323(6088):533–536 [35] Y. Bengio, P. Simard, and P. Frasconi, 1994. “Learning long-term dependencies with gradient descent is difficult”. IEEE Transactions on Neural Networks, 5(2):157– 166. [36] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio, Sep 2014. “Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation”. [37] A. Graves, 5 Jun 2014. “Generating sequences with recurrent neural networks”. In Arxiv preprint arXiv:1308.0850. 64 PHỤ LỤC Màn hình đăng nhập hệ thống Màn hình lựa chọn mô-đun trao đổi trực tuyến 65 Chức năng trao đổi trực tuyến Chức năng xem câu hỏi và câu trả lời 66 Chức năng của thành viên có liên quan trả lời câu hỏi Chức năng chuyển câu hỏi đến bộ phận khác trả lời 67 Một số mã nguồn của hệ thống. Hàm Comment trong javascript được sử dụng dưới client để nhận đối tượng câu hỏi đưa vào hệ thống. Comment: function (formid, vnkModul, vnkID, ParentID) { var form = document.getElementById(formid); var content = kWebComment.getElementsByClassName(form, "*", "inpComment"); if (content.length == 1) { if (content[0].value == '') { kWebComment.addClassName(content[0].parentNode.parentNode, "error", true); content[0].focus(); return false; } if (vnkID != undefined && vnkModul != '') { var url = this.LoadURL('comment') + '&modul=' + vnkModul + '&id=' + vnkID + '&parentid=' + ParentID; var c = content[0].value; c = c.replace(/</g, '<'); c = c.replace(/>/g, '>'); $.post(url, { 'c': c }, function (data) { if (data.err == 0) { kWebComment.LoadSubComment(data); content[0].value = ''; } else { alert(data.msg); } }, 'json'); } } return true; } Hàm LoadComment trong javascript được sử dụng dưới client để nhận dữ liệu (Json) của hệ thống trả về, kết hợp với template được định nghĩa sẵn để view. LoadComment: function (items) { for (var i = 0; i < items.data.length; i++) { var template = $("#WallTemplate").html().format(items.data[i].cid, items.data[i].id, items.data[i].ui, items.data[i].un, items.data[i].fn, items.data[i].i, items.data[i].c, items.data[i].t, kWebsiteUrl); $('#list-wall').prepend(template); } } Hàm Comment trong được sử dụng để lưu dữ liệu nhận về từ hệ thống và chuyển dữ liệu về json và gửi về client để load dữ liệu. private void Comment(kPortalUser kuser, int Active) { using (DataTable dt = vnk_User.DB.GetUser(kuser.Username)) 68 { if (dt.Rows.Count > 0) { string content = Utils.GetRequestForm("c", ""); //content = HttpUtility.UrlDecode(content); int id = Utils.GetIntRequestString("id", 0); string modul = Utils.GetRequestString("modul", ""); int parentid = Utils.GetIntRequestString("parentid", 0); if (modul == "groups" && id == 19 && parentid == 0) Active = 0; int commentID = 0; if (id > 0 && modul != "" && content != "" && kuser.UserID > 0) { commentID = kComment.DB.kComment_Save(0, ApplicationID, "vn", 0, parentid, modul, id, "", "", "", SaveComment(Utils.Text2Html(content)), Active); string[] files = Utils.GetRequestForm("f", "").Split(','); if (files.Length > 0) { string listfile = "''"; foreach (string tfile in files) listfile += ",'" + tfile + "'"; kDB.ExecuteNonQuery(string.Format("Insert Into FileAttachComment (FileAttachID, CommentID) Select ID, {0} From FileAttach Where Filecode IN ({1})", commentID, listfile)); } kJsonObject result = new kJsonObject(); result.err = 0; result.msg = "Success"; result.data.Add(new Comment(parentid, commentID, kuser.UserID, kuser.Username, string.Format("{0} {1}", dt.Rows[0]["Lastname"], dt.Rows[0]["Firstname"]), dt.Rows[0]["Images"].ToString(), content)); Response.Write(result.ToJSON()); } } } }

Các file đính kèm theo tài liệu này:

  • pdfluan_van_he_thong_tu_dong_phan_luong_cau_hoi_va_giai_dap_yeu.pdf
Luận văn liên quan