Luận văn -Sắp hàng đa chuỗi

EM-Coffee là một chương trình phát triển thêm từ gói M-Coffee trong bộTCoffee. Ý tưởng chính của M-Coffee chính là kết hợp thông tin thu được từ nhiều thuật toán khác nhau để tạo thành một đa chuỗi thẳng hàng mới với hi vọng chúng đáng tin cậy hơn các đa chuỗi thẳng hàng sinh ra từ mỗi thuật toán riêng lẻ.

pdf38 trang | Chia sẻ: lylyngoc | Ngày: 28/10/2013 | Lượt xem: 1543 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Luận văn -Sắp hàng đa chuỗi, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
nhau này có thể được cải thiện bằng cách sử dụng mắt thường và dựa trên kinh nghiệm để bắt cặp. Tuy nhiên, cách thức này chỉ có thể áp dụng được với những chuỗi ADN ngắn vào số lượng chuỗi bắt cặp nhỏ. Đối với những Page | 4 trường hợp bắt cặp hàng trăm chuỗi và độ dài mỗi chuỗi lớn thì việc làm thủ công trên trờ nên không khả thi và mất tính hiệu quả ban đầu của nó. Để giải quyết bài toán này người ta đã đưa ra rất nhiều phương pháp tính toán và nghiên cứu nhằm mục đích tối ưu hóa bắt cặp đa chỗi. Các phương pháp này thường tiến hành sao cho nó tiến tới sấp xỉ một hàm mục tiêu cho trước. Hàm mục tiêu đơn giản nhất được đưa ra là cực tiểu hóa các phép biến đổi tồn tại giữa các cặp chuỗi sau khi sau khi đã bắt cặp xong. Tuy nhiên vẫn còn một vấn đề khá nan giải đó là việc rất khó để bắt cặp những chuỗi có sự liên hệ lẫn nhau thấp một cách chính xác mà không cần sự chỉnh sửa bằng tay dựa trên kinh nghiệm của các nhà khoa học. Đề giải quyết vấn đề này có rất nhiều phương án đã được đưa ra trong vòng 4 tới 5 thập kỉ qua. Năm 1970 Needleman và Wunsch[2] đã đưa ra một thuật toán để so sánh chuỗi ADN dựa trên quy hoạch động, thuật toán này giúp ta có khả năng bắt cặp 2 chuỗi ADN (pairwise alignment) và thu được một kết quả khá tốt. Mặc dù vậy việc mở rộng bài toán này lên thành sắp hàng đa chuỗi (multiple sequence alignment) lại là một câu chuyện hoàn toàn khác bởi độ phức tạp của thuật toán là Nk (trong đó k là số lượng chuỗi dùng để bắt cặp và N là độ dài của chuỗi). Sau đó một số phương pháp mới cũng được đưa ra, trong đó có phương pháp progessive[3] hay phương pháp chuẩn hóa lặp (iterative refinement)[4-5]. Các phương pháp này đều dựa trên các biến thể của quy hoạch động 2 chiều (two- dimentional dynamic programing) và giảm được độ phức tạp của bài toán xuống còn N2. Việc giảm được độ phức tạp của bài toán xuống còn N2 là một thành tựu rất lớn nhưng độ chính xác của sắp hàng đa chuỗi còn dựa trên chính hệ thống tính điểm của mỗi chương trình, hệ thống tính điểm càng chính xác thì độ chính xác của kết quả nó đưa ra càng cao. Nói tới hệ thống tính điểm này ta không thể không nhắc tới ClustalW, một phương pháp được phát triển bởi Thompson và các đồng nghiệp năm 1994[6]. ClustalW sử dụng cách tính toán hệ thống điểm phạt (điểm phạt cho các phép biến đổi) và hàm mục tiêu của ClustalW là làm nhỏ nhất có thể điểm phạt này. Đây chính là một trong những phương pháp đi tiên phong cho hệ thống điểm phạt ngày nay. Hiện tại, các phương pháp được phát triển nhằm mục đích giải quyết bài toán sắp hàng đa chuỗi ngày càng xuất hiện nhiều hơn. Mỗi thuật toán đều có khả năng chính xác và tính tin cậy khác nhau. Những phương pháp nổi bật nổi bật bởi độ chính xác của chúng có thể kể đến như: T-Coffee[7], MAFFT[8,14], PROBCONS[9], và MUSCLE[10]. Trong MAFFT nổi lên như một chương trình rất được ưa chuộng hiện Page | 5 nay nhờ vào tốc độ thực thi và độ tin cậy của thuật toán. Việc đánh giá độ tin cậy của một phương pháp hay thuật toán cần phải dựa trên một bộ dữ liệu chuẩn chứa đồng thời các chuỗi chưa được sắp hàng và dữ liệu chuẩn để đối sánh. Những bộ dữ liệu này thường là những bộ dữ liệu được trích chọn trong quá trình nghiên cứu của các nhà khoa học hoặc được các nhà khoa học sử dụng kinh nghiệm của mình để xác định. Kết luận: Mặc dù việc sắp hàng đa chuỗi đã được nghiên cứu và phát triển từ rất lâu nhưng nó vẫn là một bài toán cần được nghiên cứu và tiếp tục phát triển để giải quyết được các nhu cầu hiện tại cũng như trong tương lai gần. Mỗi phương pháp sắp hàng đa chuỗi đều có những ưu và nhược điểm riêng của nó và quan trọng hơn nữa là mỗi chỉ phù hợp với những kiểu dữ liệu nhất định. Chính vì vậy việc tập trung nghiên cứu nhằm mục đích cải thiện độ chính xác của các phương pháp này là điều rất cần thiết. Page | 6 Chương 2: Các phương pháp phổ biến hiện nay Sau đây, tôi xin trình bày tổng quan một số chương trình sắp hàng đa chuỗi tiêu biểu hiện nay trên thế giới. Các chương trình này đều đã khẳng định được khả năng của mình và được áp dụng khá nhiều trong lĩnh vực sinh học nói chung và sinh học phân tử nói riêng. 1.MUSCLE MUSCLE là chương trình sắp hàng đa chuỗi được phát triển bởi David Edgar năm 2004. Hiện tại MUSCLE đang được sử dụng khá rộng rãi bởi độ chính xác khá cao và tốc độ của chương trình có thể hỗ trợ người sử dụng với bộ dữ liệu lớn tới hàng ngàn chuỗi. Về mặt thuật toán, ta có thể chia thuật toán của MUSCLE ra làm ba bước chính đó là bước bắt cặp nháp, cải tiến, và bước chuẩn hóa lại. Ngoài ra tác giả đưa ra hai hệ thống tính điểm khác nhau đó là khoảng cách K-mers[11] cho bộ chuỗi chưa được bắt cặp với nhau và ma trận KIMURA[12] cho các chuỗi đã bắt cặp rồi. Hình 1: khoảng cách K-mers[10] K-mer được định nghĩa là một chuỗi các amino axit đứng liền kề nhau có độ dài bằng K. Đối với những sequence có liên hệ với nhau thì số lượng K-mer sẽ nhiều hơn các cặp sequence bình thường. Khoảng cách K-mers được định nghĩa dựa trên định nghĩa của K-mer khi ta sử dụng nó trong chuỗi kí tự. Phương pháp sử dụng K-mer này không đòi hỏi các chuỗi đã được align hay chưa và thu được kết quả với tốc độ khá Page | 7 cao. Hình 2 là một ví dụ cho khoảng cách K-mers, với K = 3 ta thu được tại phần trên K-mer là 6 và phần dưới K-mer là 13. Tương tự như vậy với K=4 tại phần trên K-mer là 4 và dưới là 9. Khoảng cách KIMURA[12] được định nghĩa là khoảng cách giữa 2 chuỗi đã được bắt cặp và được tính theo công thức: 2 1 1 1ln(1 2 ) ln( ) 2 4 2K p D P Q Q= − − − − Trong đó, P là số lượng transition đếm được giữa 2 chuỗi và Q là số lượng transversion đếm được giữa 2 chuỗi. Transition là dạng thay thế A – G hay C – T hoặc ngược lại. Trong khi đó Transversion là dạng thay thế A – C, T hay các trường hợp tương tự như vậy. Ngoài ra, còn một điểm đáng lưu ý ở MUSCLE đó là bắt cặp profiles (profile alignment). Đây là một dạng bắt cặp tương tự như bắp cặp sóng đôi (pairwise alignment) nhưng mỗi profile không còn là một chuỗi như bắt cặp sóng đôi mà là nhiều chuỗi được ghép vào. Hình 2: Các bước chạy của MUSCLE[10] Ở các bước một và hai của MUSCLE lần lượt sử dụng 2 hệ thống điểm là khoảng cách K-mers và ma trận KIMURA để dựng cây nhị phân dựa trên thuật toán Page | 8 UPGMA[13]. Mỗi nút trên cây được ghép lại bởi 2 profile và tạo ra một profile mới cho. Cứ làm như vậy cho tới gốc cuối cùng thì ta sẽ đạt được một alignment. Và đến đây coi như chúng ta đã hoàn thành việc sắp hàng đa chuỗi nếu người sử dụng không muốn chạy bước chuẩn hóa. Bước cuối cùng của MUSCLE là bước chuẩn hóa (refinement). Dựa trên cây được dựng sau hai bước trên bước này sẽ cắt bỏ một cạnh từ cây đó sau đó bắt cặp lại 2 profiles và sử dụng điểm sum of pair để tính toán nếu có cải thiện với điểm của kết quả trên thì giữ lại, nếu không thì bỏ đi. Điểm sum-of-pair là điểm để xác định khả năng bắt cặp giữa 2 chuỗi sẽ được nói tới sau trong phần kết quả thực nghiệm sử dụng BAliBASE. Về độ phức tạp của thuật toán, nếu ta chỉ chạy 2 bước đầu thì độ phức tạp thuật toán sẽ là O(N2 + NL + L2). Nếu có thêm bước chuẩn hóa lại thì độ phức tạp thuật toán là O(N3L). trong đó N là số chuỗi cần bắt cặp, L là độ dài của chuỗi. Dựa theo kết quả thực nghiệm sẽ nêu ở phần sau của tài liệu này, MUSCLE có tốc độ chạy rất tốt và có thể chạy được với bộ dữ liệu lớn, cỡ từ 1 tới vài nghìn cuỗi. 2.MAFFT MAFFT là viết tắt của Multiple Alignment using Fast Fourier Transform được đưa ra năm 2002 bởi một nhóm các tác giả người Nhật. Tại thời điểm hiện tại, MAFFT được đánh giá rất cao nhờ vào độ chính xác gần như là cao nhất trên những chuỗi full- length của bộ dữ liệu chuẩn BAliBASE đồng thời MAFFT cũng yêu cầu một thời gian để chạy tương đối dễ chịu với người sử dụng. Khác với các phương pháp khác, các tác giả của MAFFT sử dụng giả thuyết tần suất sự thay thế các amino axit phụ thộc lớn vào các thuộc tính lý hóa của nó, đặc biệt là 2 thuộc tính khối lượng(volume) và độ phân cực(polarity) [13]. Dựa trên 2 thuộc tính này người ta dựng nên 2 giá trị chuẩn hóa v(a) và p(a) tượng trưng lần lượt cho khối lượng và độ phân cực. Tiếp theo mối quan hệ giữa 2 chuỗi amino axit sẽ được tính toán bằng cách sử dụng biến đổi Fourier. Ý nghĩa chính của biến đổi Fourier ở bước này chính là giúp giảm độ phức tạp của thuật toán. Sau bước này ta sẽ thu được các giá trị c(k)[14] – tượng trưng cho mối quan hệ giữa 2 chuỗi, ở đây k là độ trễ của chuỗi 2 so với chuỗi 1 như hình 3. Page | 9 Hình 3: độ trễ k và tìm kiếm đoạn tương đồng[14] Từ hình vẽ ta có thể thấy nếu k bằng 2 thì chuỗi 1 sẽ đi trước chuỗi 2 khi bắt cặp với nhau để tìm đoạn tương đồng. Mặt khác bằng thực nghiệm cho thấy, c(k) càng lớn thì khả năng tìm được những đoạn tương đồng khi sắp xếp 2 chuỗi theo độ trễ k càng lớn. Và từ những đoạn tương đồng tìm được người ta xây dựng một ma trận tương đồng để từ đó có thể bắt cặp 2 chuỗi amino axit này lại với nhau (cách xác định đoạn tương đồng và xây dựng ma trận tương đồng có thể đọc thêm ở tài liệu tham khảo số 14). Hình 4 biểu diễn một ma trận tương đồng Hình 4, ma trận tương đồng[14] Trong trường hợp này, đường bắt cặp được sử dụng là S(5,5) -> S(4,4) -> S(2,3) -> S(1,1) vì giá trị của S(2,3) lớn hơn giá trị của S(3,2). Page | 10 Cũng giống như MUSCLE, để mở rộng bài toán từ bắt cặp sóng đôi lên sắp hàng đa chuỗi, MAFFT sử dụng bắt cặp profile – profile. Bằng cách tính toán lại c(k) cho mỗi cặp profile và xác định đoạn tương đồng cũng như ma trận tương đồng ta có thể hoàn thành các bước sắp hàng đa chuỗi của option đơn giản nhất MAFFT là FFT-Ns1. Các option còn lại của MAFFT hầu hết đều sử dụng kết quả của FFT-Ns1 và sử dụng các bước chuẩn hóa để thu được kết quả tốt hơn FFT-Ns1. Theo phiên bản mới nhất của MAFFT, chúng ta có thể có nhiều option để chọn lựa như FFT-Ns2, FFT-Nsi, Li-Nsi, Ei-Nsi, …. Mỗi option có thể đáp ứng cho người dùng những yêu cầu nhất định. Chẳng hạn đối với option FFT-Ns2 tốc độ bắt cặp là rất cao, nhanh hơn cả MUSCLE tuy nhiên lại thu được kết quả không tốt lắm. Để thu được kết quả tốt hơn, ta có thể sử dụng option Li-nsi của MAFFT. Option này tuy chạy chậm hơn MUSCLE nhưng lại có kết quả đáng tin cậy hơn. 3. ProbCons ProbCons có tên đầy đủ là Probabilistic consistency-based multiple sequence alignment. Đây là phần mềm sắp hàng đa chuỗi được tác giả gốc Việt Nam là Chương Đỗ, và các đồng nghiệp phát triển và lần đầu được công bố năm 2005. Cũng như MUSCLE và MAFFT, ProbCons cũng là một chương trình rất thông dụng và được sử dụng rộng rãi hiện nay. ProbCons có khả năng trả về một kết quả chính xác cao tuy nhiên về mặt tốc độ ProbCons không thể được như MAFFT và MUSCLE. Về mặt thuật toán, ProbCons đưa mô hình Markov ẩn vào thuật toán progressive. Điểm khác biệt chính giữa ProbCons và các phương án tiếp cận khác đó chính là việc sử dụng ước lượng cực đại về độ chuẩn xác chứ không phải là cách sử dụng mô hình Viterbi[15], mặt khác ProbCons còn sử dụng ước lượng các phép biến đổi để bảo toàn thông tin của các chuỗi trong khi bắt cặp. Ngoài ra ProbCons sử dụng ma trận chuyển đổi chuẩn BLOSUM62[16] và điểm phạt phát sinh khi thêm dấu cách trong việc bắt cặp cũng được huấn luyện bởi ước lượng cực đại. Để thực hiện sắp hàng đa chuỗi, ProbCons cần phải thực hiện qua ít nhất là 5 bước(thuật toán chi tiết có thể đọc thêm ở tài liệu tham khảo số 9). Các bước này sẽ được trình bày một cách tổng quát nhất như sau: Page | 11 − Bước 1: Xây dựng ma trận xác suất Pxy(i,j) trong đó x,y là 2 chuỗi bất kì cần phải bắt cặp, i và j lần lượt là vị trí của kí tự trong 2 chuỗi x,y. − Bước 2: Tính toán kì vọng của độ chính xác khi bắt cặp 2 chuỗi x, y. Với mỗi cặp chuỗi x, y xác định một kết quả bắt cặp 2 chuỗi này sao cho kì vọng của cách bắt cặp này là cao nhất. − Bước 3: Ước lượng tính vững chắc của các bước chuyển đổi. Ở bước này, ma trận xây dựng ở bước 1 sẽ được tính toán và chuẩn hóa lại. − Bước 4: Xây dựng cây cho các chuỗi cần bắt cặp bằng thuật toán phân cụm, trọng số sẽ được tính toán dựa trên giá trị tính ở bước 2. − Bước 5: Dựa vào cây đã dựng ở bước 4, ta tiến hành bắt cặp cho cả bộ dữ liệu. Ngoài ra còn có thể có thêm bước chuẩn hóa lại kết quả, bước chuẩn hóa này sẽ cắt kết quả làm 2 phần và tiến hành bắt cặp lại. Số lần bước chuẩn hóa thực hiện là không xác định trước. Kết quả của Proncons là rất đáng tin cậy, nó sẽ được thể hiện trong phần thực nghiệm sẽ được trình bày ở phần sau bản báo cáo này. Tuy nhiên, về mặt tốc độ ProbCons không thể so sánh với 2 thuật toán trên và có lẽ chỉ nên chạy ProbCons với những dữ liệu không vượt quá 50 chuỗi và có độ dài tối đa của chuỗi nằm trong khoảng 500 axit amin. Page | 12 Chương 3: EM-Coffee (Extended M-Coffee) 1.Đặt trọng số khi kết hợp các thuật toán Ba thuật toán đã được nêu ra trong chương 2 chính là ba phương pháp được sử dụng phổ biến nhất cho việc sắp hàng đa chuỗi hiện nay trên thế giới. Mỗi phương pháp đều có những ưu điểm và nhược điểm riêng của nó. Tuy nhiên, điều cần quan tâm nhất đó chính là mỗi phương pháp đưa ra kết quả tốt nhất với những bộ dữ liệu nhất định. Chúng không cho về kết quả ổn định và đáng tin cậy trong mọi trường hợp có thể xảy ra trong bộ dữ liệu. Việc đánh giá ba thuật toán sẽ được tóm tắt lại trong bảng sau: Bảng 3: nhận định về các thuật toán. Thuật toán Ưu điểm Nhược điểm Muscle Tốc độ cao, có thể chạy với bộ dữ liệu lớn Độ chính xác của muscle với các bộ dữ liệu chuẩn so với các thuật toán khác là không cao ProbCons Độ chính xác và tính tin cậy của ProbCons là lớn Tốc độ chậm, chỉ có thể chạy với những bộ dữ liệu nhỏ MAFFT Có độ chính xác khá cao, nhiều option ứng với những bộ dữ liệu riêng đồng thời tốc độ chấp nhận được Với những option có độ chính xác cao thì tốc độ không tốt, và ngược lại. Chính vì việc mỗi thuật toán đều có độ chính xác trên những bộ dữ liệu nhất định trong khi những dữ liệu cần phải được bắt cặp là rất đa dạng. Ta cần tìm cách kết hợp kết quả các thuật toán trên với nhau để đưa ra một kết quả mới với hi vọng kết quả này có được độ tin cậy trên càng nhiều bộ dữ liệu càng tốt. Page | 13 Vậy bài toán của chúng ta hiện nay chính là tìm cách sử dụng ba thuật toán trên cũng như kết quả của nó trong mỗi lần sắp hàng đa chuỗi để tạo ra một kết quả mới có độ chính xác với kì vọng là cao hơn và có khả năng ổn định trên nhiều bộ dữ liệu chứ không còn như từng thuật toán chỉ chạy tốt với một số bộ dữ liệu. Tất nhiên mỗi thuật toán đều có độ chính xác của riêng nó và không thể coi kết quả của mỗi thuật toán trước khi đưa vào sử dụng làm thư viện là như nhau, mỗi thuật toán cần có trọng số nhất định. Trọng số này không thể dùng mắt thường hoặc kinh nghiệm để đánh giá do số lượng chuỗi và độ dài mỗi chuỗi trong sắp hàng đa chuỗi không phải là nhỏ. 2.MUMSA Vào năm 2005, trên thế giới xuất hiện rất nhiều chương trình sắp hàng đa chuỗi, điều này làm cho người sử dụng không thể xác định chính xác nên chọn chương trình nào phù hợp cho bộ dữ liệu của mình. Việc nhận định độ tin cậy của một chương trình sắp hàng đa chuỗi trở thành vấn đề cấp bách. Trong bối cảnh đó Timo Lassmann và Erik Sonnhammer đã cho ra đời MUMSA[17], chương trình hỗ trợ người dùng xác định được tính tin cậy của một đa chuỗi thẳng hàng mà không cần đến bộ dữ liệu tham khảo. Thuật toán của MUMSA dựa trên việc so sánh các đa chuỗi thẳng hàng. Họ đưa ra một khái niệm đó là cặp amino axit được bắt cặp tương ứng(pair-of-aligned residues). Chẳng hạn ta có một đa chuỗi thẳng hàng, trong đó amino axit thứ 3 trong chuỗi 1 được bắt cặp tương ứng với amino axit thứ 5 trong chuỗi 7 thì 2 amino axit này được gọi là một cặp amino axit được bắt cặp tương ứng. Như vậy, từ đa chuỗi thẳng hàng là input đầu vào của chương trình ta có thể tạo ra rất nhiều cặp trên. Chú ý rằng chúng ta cần chia nhỏ đa chuỗi đầu vào thành các phần nhỏ nhất có thể nhưng vẫn giữ đủ thông tin của đa chuỗi đó để giảm thiểu số lượng các cặp amino axit được bắt cặp tương ứng. Để so sánh độ tin cậy của một đa chỗi thẳng hàng trong nhiều đa chuỗi khác, thuật toán của MUMSA tiến hành tính điểm cho mỗi cặp amino axit được bắt cặp tương ứng để biểu diễn số lần xuất hiện của chúng trong những đa chuỗi thẳng hàng. Xét một cặp α bất kì, ta gọi n(α) là số lần xuất hiện của α trong (m – 1) đa chuỗi thẳng hàng còn lại đang được so sánh. Một cặp xuất hiện trong tất cả mọi đa chuỗi sẽ cho ta giá trị n(α) = (m – 1) điều này đồng nghĩa với xác suất cặp α xảy ra trên thực tế là lớn, Page | 14 và ngược lại một cặp không xuất hiện trong các chuỗi còn lại cho ta kết quả n(α) = 0 hay xác suất cặp α xảy ra trên thực tế là rất nhỏ. Như vậy với một đa chuỗi A ban đầu, ta có thể dùng giá trị trên cho tất cả các cặp amino axit được bắt cặp tương ứng của nó để tính toán độ tin cậy của một đa chuỗi thẳng hàng. Độ tin cậy của một đa chuỗi thẳng hàng được tính theo công thức: MOS(A) = { } ( ) ( ) | 1 n A A m α α ∈ − ∑ (|A| số lượng cặp amino axit tương ứng trong A) MOS là viết tắt của multiple overlap score và có giá trị biến thiên trong đoạn [0,1]. Khi MOS(A) = 1 tức là mọi cặp amino axit tương ứng xảy ra trong A đều xảy ra trong (m – 1) đa chuỗi khác và ngược lại khi MOS(A) = 0 là khi không có cặp amino axit nào xuất hiện trong A lại xuất hiện trong các đa chuỗi được so sánh với A. Bằng những kết quả thực nghiệm của mình, các tác giả của MUMSA đã chỉ ra rằng những đa chuỗi thẳng hàng có điểm MOS cao từ 0.8 trở lên là những đa chuỗi đáng tin cậy và có thể sử dụng chúng cho những công việc khác. Ngoài ra, những đa chuỗi chỉ có điểm MOS thấp hơn 0.5 thì có thể có nhiều phần được bắt cặp không chính xác và cần được chỉnh sửa lại. Chẳng hạn với bộ dữ liệu BAliBASE, nếu như kết quả của các chương trình sắp hàng đa chuỗi có điểm MOS nhỏ hơn 0.5 thì những đa chuỗi mà thuật toán của nó không thể nhận biết được những đoạn tương đồng đã được bắt cặp một cách thủ công của bộ dữ liệu này. Như vậy, mục đích chính của MUMSA là tính toán độ chính xác hay tính tin cậy của những đa chuỗi thẳng hàng khi mang chúng so sánh với nhau. Từ kết quả của MUMSA nếu áp dụng vào giả thuyết sử dụng thư viện từ MAFFT, MUSCLE, và ProbCons ở trên ta sẽ thu được độ tin cậy của từng thuật toán. Đồng thời từ đó ta cũng có thể xác định được trọng số của các thuật toán trên dựa vào kết quả của MUMSA 3.T-Coffee, M-Coffee 3.1. T-Coffee T-Coffee – Tree-based Consistency Objective Function for alignment Evaluation là phần mềm được công bố và phát triển và năm 2000. Vào thời điểm được công bố, Page | 15 T-Coffee chính là phần mềm có độ chính xác cao nhất trong các chương trình sắp hàng đa chuỗi đồng thời tốc độ chạy của T-Coffee là chấp nhận được. T-Coffee có 2 tính năng chính. Tính năng thứ nhất là nó sử dụng hệ thống dữ liệu thư viện được sinh ra từ bắt cặp sóng đôi các cặp chuỗi để tạo ra đa chuỗi thẳng hàng cuối cùng. Tính năng thứ 2 là tối ưu hóa, tính năng này có nhiệm vụ chọn đa chuỗi thẳng hàng phù hợp nhất với bộ dữ liệu được đưa vào. Như vậy nhìn chung, T-Coffee sử dụng thuật toán progressive cùng với khả năng cập nhật thư viện dữ liệu của mình thông qua mỗi bước thực hiện của nó. Điều này cho phép T-Coffee lấy được sự đơn giản và tốc độ của thuật toán progressive đồng thời giảm thiểu lỗi xảy ra trong quá trình bắt cặp. Hình 5 ở bên dưới là một lỗi thường xảy ra trong quá trình bắt cặp sử dụng thuật toán progressive thông thường, trong hình ta có thể thấy sự bắt cặp lỗi của từ CAT ở chuỗi B. Hình 5: lỗi xảy ra trong bắt cặp sử dụng thuật toán progressive thông thường[7] Về mặt thuật toán, T-Coffee có 5 bước chính như hình 6 đó là tạo thư viện chính, đặt trọng số cho thư viện chính, kết hợp thư viện, mở rộng thư viện, bắt cặp sử dụng thuật toán progressive. Chúng ta sẽ đi vào từng bước của thuật toán này. Page | 16 Hình 6: các bước thuật toán của T – Coffee[7] Page | 17 3.1.1. Tạo thư viện chính Thư viện chính của T-Coffee là tập hợp các cặp chuỗi thu được nhờ vào quá trình bắt cặp sóng đôi giữa các chuỗi nằm trong đầu vào. Như vậy với đầu vào có N chuỗi ta sẽ có N(N – 1)/2 cặp trong thư viện. Trong thư viện mỗi cặp có thể có liên kết với nhau và một điều cần chú ý đó là mỗi cặp đều có tính quan trọng khác nhau bởi một số có thể đưa ra những sự bắt cặp chính xác cho kết quả sau này. Việc xác định cặp nào quan trọng, cặp nào không sẽ được tính toán ở bước 2. Có 2 cách được sử dụng để tạo thư viện chính của T-Coffee. Cách thứ nhất là sử dụng thuật toán ClustalW[6] để bắt cặp 2 chuỗi tổng quát, có độ dài mặc định. Và cách thứ hai là sử dụng Lalign để bắt cặp khi 2 chuỗi được chia thành các đoạn nhỏ, có độ tương đồng cao (Lalign là chương trình nằm trong bộ chương trình FASTA và xây dựng dựa theo thuật toán Sim được đưa ra bởi Huang và Miller năm 1991 [18]). 3.1.2. Đặt trọng số cho thư viện chính Trọng số sẽ được gán cho tất cả các cặp có trong bộ thư viện chính. Ý nghĩa chính của trọng số này chính là biểu diễn cho sự giống nhau của các cặp. Thuật toán sử dụng tính đồng nhất (identity) của chuỗi, tính đồng nhất của chuỗi được đưa ra bởi Sander và Schneider năm 1991[19] và đã được chứng minh khi bắt cặp những chuỗi có tính đồng nhất lớn hơn 30%. Đồng thời trọng số này cũng thể hiện được tính đúng đắn của mình trong một bài viết trước đó của nhóm tác giả[20]. Như vậy Mỗi cặp chuỗi được bắt cặp trong thư viện chính sẽ nhận được trọng số bằng chính độ tương đồng giữa 2 chuỗi trong nó.Chẳng hạn với ví dụ của hình 5, ta sẽ có bộ thư viện như hình 7. Hình 7: Thư viện chính cùng với trọng số[7] Page | 18 3.1.3. Kết hợp thư viện Mục tiêu của thuật toán là kết hợp bộ thư viện được tạo thành bởi cả ClustalW và Lalign về với nhau. Điều này có thể thực hiện dựa trên một ý tưởng đơn giản, nếu một cặp trong thư viện này mà được lặp lại ở thư viện kia thì có thể ghép chúng làm một với trọng số bằng tổng trọng số của cặp này trong cả 2 thư viện. Nếu không có thì chỉ cần tạo một phần tử mới cho thư viện là chính cặp đang xét. Sau khi đã ghép xong, bộ thư viện mới này chúng ta có thể đưa sang việc sắp hàng đa chuỗi bằng cách tìm kiếm đa chuỗi thẳng hàng nào thích hợp nhất với trọng số của các cặp có trong thư viện. Tuy nhiên, thuật toán lại tiếp tục cải tiến độ chuẩn xác của thông tin trong mỗi cặp bằng cách mở rộng bộ thư viện. việc mở rộng bộ thư viện này chính là bước thứ tư của thuật toán 3.1.4. Mở rộng thư viện Hình 8: Mở rộng thư viện[7] Bài toán xây dựng đa chuỗi thẳng hàng từ một bộ dữ liệu có gán trọng số là một bài toán khá nổi tiếng được đưa ra bởi Kececioglu với cái tên “maximum weight trace”[21]. Trước thời điểm T-Coffee được công bố đã có 2 thuật toán được đưa ra bởi Notredame[22] và Reinert[23], thuật toán của Notredame dựa trên giải thuật gen di truyền trong khi đó thuật toán thứ 2 của Reinert dựa trên đồ thị. Mặc dù vậy cả 2 thuật toán này đều không đáp ứng được yêu cầu. Thuật toán của Notredame là khá thực tế tuy nhiên lại đòi hỏi thời gian thực hiện quá lớn. Trong khi đó thuật toán của Reinert lại quá phức tạp và có thể xảy ra những sai sót trong quá trình tính toán. Page | 19 Cuối cùng, vấn đề trên đã được giải quyết bằng cách sử dụng thuật toán heuristic bên trong phần mở rộng thư viện của T-Coffee. Ý tưởng chung của thuật toán này là trọng số cho mỗi cặp amino axit được bắt cặp với nhau có thể biểu diễn một phần thông tin cho cả bộ dữ liệu. Để làm được việc này một cách tiếp cận mới được đưa ra như hình 8, đây là cách mở rộng thư viện từ thư viện chuẩn ví dụ của hình 7. Thuật toán dựa trên việc sự dụng mỗi cặp amino axit được bắt cặp với nhau trong thư viện và kiểm tra xem sự xuất hiện của nó trong các cặp chuỗi đã được bắt cặp khác trong thư viện chính còn lại. Với ví dụ trong hình 8, ta giả thiết rằng có 4 chuỗi cần được bắt cặp là A, B, C, và D. Chúng ta gọi A(G) là kí tự G trong GARFIELD ở chuỗi A, tương tự như vậy với B(G). Đồng thời gọi W(A(G), B(G)) là trọng số đặc trưng cho cặp này ở trong thư viện chính. Trên thực tế A(G) và B(G) được bắt cặp với nhau trong thư viện chính và ta có thể thấy trọng số của cặp này là 88 (dựa trên trọng số của cặp chuỗi A – B). Nếu bây giờ ta đưa thêm chuỗi C vào để so sánh, ta có thể thấy A(G) và C(G) được bắt cặp với nhau, đồng thời đó là C(G) và B(G). Như vậy ta có thể nói là có một sự bắt cặp giữa A(G) và B(G) thông qua C. Ta xét 2 giá trị mới đó là W1 = W(A(G), C(G)) =77 và W2 = W(B(G), C(G)) = 100. Ta đặt trọng số mà A(G) được bắt cặp với B(G) thông qua C là giá trị nhỏ nhất giữa W1 và W2, ở đây do W1 = 77 và W2 = 100 nên ta đặt lại giá trị trong thư viện là 77. Khi đưa vào trong thư viện mở rộng cặp A(G) và B(G) sẽ có trọng số là giá trị 88 ban đầu cộng với giá trị 77 mới thu được kết quả mới là 165. Việc mở rộng thư viện đòi hỏi phải xét tới tất cả các bộ ba chuỗi trong thư viện chính ban đầu. Chẳng hạn việc bắt cặp A và B thông qua D không tồn tại thông tin liên quan tới A(G) và B(G) như vậy bộ ba chuỗi này được xem là không liên quan tới việc bắt cặp A(G) và B(G), đồng thời chúng cũng không làm ảnh hưởng tới trọng số khi bắt cặp 2 amino axit này với nhau. Như vậy trọng số để bắt cặp giữa 2 amino axit sẽ là tổng tất cả các trọng số được tính theo thuật toán trên. Một khi hoàn thành tất cả các cặp amino axit trên A và B thì mỗi cặp sẽ chứa thêm thông tin từ các chuỗi C và D. Độ phức tạp lý thuyết của thuật toán này là O(N3L2), trong đó N là số chuỗi và L là độ dài trung bình của các chuỗi. Tuy nhiên điều này chỉ xảy ra với thư viện có các cặp chuỗi không liên quan gì tới nhau, trên thực nghiệm độ phức tạp thuật toán lớn nhất cũng chỉ là O(N3L). Page | 20 Trọng số sẽ là 0 nếu cặp amino axit tương ứng không xuất hiện trên thư viện, điều này sẽ xảy ra trong phần lớn các cặp amino axit trong quá trình thực hiện thuật toán. Ngược lại, nếu trọng số lớn hơn 0, nó sẽ biểu diễn tính tương đồng giữa 2 chuỗi trong một cặp ở thư viện chính. Điểm này có thể được dùng để bắt cặp 2 chuỗi bất kì từ bộ dữ liệu của chương trình sử dụng quy hoạch động[24]. 3.1.5. Bắt cặp sử dụng thật toán progressive Trong bắt cặp progressive, đầu tiên 2 chuỗi sẽ được bắt cặp với nhau để tạo ma trận khoảng cách giữa tất cả các chuỗi, ma trận này được sử dụng để xây dựng cây và từ cây đó áp dụng thuật toán neighbor-joining[25] để nhóm các chuỗi có độ tương đồng với nhau nhất thành một nhóm. 2 chuỗi có khoảng cách gần nhất sẽ được bắt cặp trước sử dụng thuật toán quy hoạch động. Chú ý rằng thuật toán quy hoạch động này sử dụng trọng số được sinh ra trong bước mở rộng thư viện. Trong quá trình bắt cặp sóng đôi này, gap sẽ được tạo ra và những gap này sẽ được cố định và không thể thay đổi về sau này (gap chính là dấu cách được thêm vào, biểu thị cho một phép chèn/xóa). Việc bắt cặp các nhóm có khoảng cách gần nhau nhất sẽ được thực hiện cho tới khi đạt tới gốc của cây. Chú ý rằng, để bắt cặp hai nhóm, điểm vẫn sẽ được lấy từ thư viện mở rộng tuy nhiên sẽ là điểm trung bình của toàn bộ cột trong trong các cặp đó. Một điều đáng lưu ý nữa ở đây đó là trong bước sử dụng quy hoạch động, các điểm phạt hay bất kì tham số nào sẽ không được sử dụng, lý do ở đây chính là khi tạo ra thư viện mở rộng các điểm phạt đó đã được tính rồi. 3.2. M-Coffee M-Coffee[26] là một dạng mở rộng của T-Coffee, mục tiêu của M-Coffee là kết hợp các đa chuỗi thẳng hàng từ các chương trình và thuật toán khác trên thế giới để tạo thành đa chuỗi thẳng hàng mới với hi vọng kết quả này tốt hơn các kết quả được sinh ra từ các thuật toán đó. Dựa trên lý thuyết của T-Coffee ta có thể thấy nếu ta thay các bước tạo thư viện chính bởi ClustalW và Lalign thành các chương trình bắt cặp trên thì ta có thể chạy T- Coffee dựa trên bộ thư viện là các cặp chuỗi được bắt cặp bởi các thuật toán khác. Chính điều này làm cho M-Coffee thu nhận được thông tin từ các thuật toán khác và Page | 21 cho ra kết quả là đa chuỗi thẳng hàng mang thông tin phù hợp với tất cả các thuật toán đó. Một điều đáng nói ở M-Coffee là thuật toán này luôn cố gắng chạy tất cả các chương trình có cài đặt trong máy tính người sử dụng. Những chương trình đó có thể là những chương trình đã xuất hiện từ rất lâu, thuật toán có thể đã lỗi thời và kết quả của nó dường như là không tốt. Việc sử dụng thư viện dựa trên các kết quả này dẫn tới có thể có những đánh giá sai sót về những thông tin lưu trữ và thời gian chạy chương trình bị kéo dài. Điều này dẫn tới khả năng về mặt tốc độ của M-Coffee là hạn chế. Tuy nhiên, T-Coffee đã đưa ra một phiên bản mở rộng của mình với tư tưởng khá giống với M-Coffee. T-Coffee sẽ nhận chuỗi đầu vào cùng với các bộ dữ liệu được đưa làm thư viện nhưng các bộ dữ liệu này sẽ được coi như ngang bằng nhau – các trọng số của các đa chuỗi tham khảo đều là 1. 4.EM-Coffee Như vậy khi đi tới bước này chúng ta đã phần nào tìm ra được hướng giải quyết chính cho vấn để được đưa ra ở phần 1 chương 3. Trọng số biểu diễn độ tin cậy của một đa chuỗi thẳng hàng được giải quyết bằng MUMSA và sau đó dùng T-Coffee để sắp hàng đa chuỗi sử dụng bộ thư viện đã được gán trọng số trên. Nhìn chung thuật toán của EM-Coffee có thể được biểu diễn như hình 9. Dựa trên các kết quả thực nghiệm của các thuật toán hiện nay, 5 phương án cho kết quả tốt nhất được lựa chọn đó là MUSCLE, ProbCons, MAFFT FFT-nsi, MAFFT Li-nsi, MAFFT Ei-nsi. Bộ thư viện của T-Coffee sẽ chính là những dữ liệu kết quả từ các thuật toán này. Về mặt trọng số, ta cần chuẩn hóa các giá trị thu được từ MUMSA. Giả sử Ta có các giá trị MOS thu được từ các đa chuỗi thẳng hàng sinh ra bởi các thuật toán lần lượt như sau: MOS(muscle), MOS(ProbCons), MOS(fftnsi), MOS(linsi), MOS(einsi). Bước chuẩn hóa đầu tiên, ta sẽ tính điểm trung bình các giá trị MOS này OS( ) 5 pi P M pi M ∈= ∑ (pi tương ứng với các thuật toán) Page | 22 Hình 9: Thuật toán EM-Coffee Bước tiếp theo, trọng số của mỗi thuật toán sẽ là giá trị thu được khi lấy điểm MOS của nó chia cho giá trị trung bình trên. OS( )Wpi M pi M = Bước này chính là đưa các giá trị trọng số về những điểm ở xung quanh 1, và có điểm trung bình của các trọng số bằng 1. Việc đưa các trọng số về những điểm xung quanh 1 cũng là một bước khá quan trọng vì khi đưa các đa chuỗi này vào làm thư viện của T-Coffee những bộ có trọng số quá nhỏ so với những đa chuỗi khác sẽ có khả năng đóng góp thông tin cao hơn nhưng không làm ảnh hưởng quá nhiều tới kết quả của EM-Coffee. Page | 23 Chương 4: Kết quả thực nghiệm 1. Bộ dữ liệu BAliBASE Như chúng ta đã biết, trên thế giới hiện tại có rất nhiều chương trình sắp hàng đa chuỗi, mặc dù input giống nhau nhưng output của mỗi chương trình đó lại không giống nhau. Ở phần trước của bài khóa luận chúng ta có nhắc tới MUMSA, thuật toán xác định độ tin cậy của một đa chuỗi thẳng hàng khi mang so sánh nó với các đa chuỗi thẳng hàng khác. Tuy nhiên, việc xác định độ tin cậy này chỉ mang tính chất tương đối, vì điểm MOS cũng chỉ được tính toán dựa trên chính những thông tin có trong đa chuỗi thẳng hàng đó và không thể đối chiếu kết quả xem liệu với điểm MOS là cao thì nó có thực sự chính xác hơn so với những kết quả khác. Chính vì vậy việc tạo ra một bộ dữ liệu chuẩn nhằm mục đích xác định xem output của chương trình nào chính xác là một vấn đề rất cấp bách. Trên thực tế hiện nay đối với những chương trình mới được công bố hay cải tiến, bước đầu tiên là họ đều sử dụng những bộ dữ liệu này để kiểm tra khả năng của chương trình mới đạt được đến đâu. Chỉ với những trường hợp sắp hàng đa chuỗi lớn và không có trong thư viện thì MUMSA mới được sử dụng tới. BAliBASE - Benchmark Alignment dataBASE[28] là một bộ dữ liệu được xây dựng bởi các nhà khoa học Julie D. Thompson, Olovier Poch và một số nhà khoa học khác. Việc xây dựng bộ dữ liệu BAliBASE hoàn toàn dựa trên những kết quả đã được kiểm chứng trước đó đồng thời bắt cặp dựa trên kinh nghiệm của chính những nhà khoa học này. Hiện nay, BAliBASE đã phát triển tới bộ dữ liệu 3.0 vào năm 2005. Trong bộ dữ liệu mới này, BAliBASE có 9 bộ dữ liệu con. Tuy nhiên, với những chương trình sắp hàng đa chuỗi hiện nay, ta chỉ dùng các bộ dữ liệu từ 1 tới 5. Một điều đáng chú ý đó là trong mỗi bộ dữ liệu của BAliBASE 3.0 đều có hai phần, 1 phần là các dữ liệu với chuỗi full-length với 2 chữ cái của tên bắt đầu bởi BB và phần còn lại vẫn là các chuỗi đó nhưng chỉ đưa ra các đoạn tương đồng có thể bắt cặp với nhau. Như vậy khi thực hiện kiểm tra kết quả của bất kì chương trình nào ta đều phải tách riêng 2 phần này. Page | 24 Dưới đây là bảng các số liệu cơ bản như số lượng và số chuỗi tổng của BAliBASE 3.0 khi so sánh với BAliBASE 2.01. Bảng 3: Số liệu BAliBASE 3.0 và BAliBASE 2.01 RV1 Version RV11 RV12 RV13 RV20 RV30 RV40 RV50 Total 2.01 27 27 28 23 12 12 12 141 Số test 3.0 38 44 N/A 41 30 49 16 218 2.01 125 119 123 487 292 150 148 1444 Số chuỗi 3.0 265 411 N/A 1896 1882 1317 483 6254 Nhìn vào bảng ta có thể thấy sự thay đổi lớn khi chuyển bộ test dữ liệu từ BAliBASE 2.01 sang BAliBASE 3.0. Ở đây ta có thể thấy bộ RV1 là bộ test với những chuỗi được coi là ngang hàng nhau với độ tương đồng của bộ RV11 là từ 0 tới 20% và độ tương đồng của bộ RV12 là từ 20 tới 40%. Bộ thứ hai là RV20 bộ này bao gồm những test giữa dòng họ và những cá thể bị biến dổi. Bộ thứ 3 là RV30, đây là bộ bao gồm những test giữa các nhánh có chung tổ tiên. Bộ thứ RV40 bao gồm những test có sự mở rộng lớn giữa các chuỗi gen. Cuối cùng là bộ RV50, bộ này gồm những test có mật độ chèn/xóa là rất cao. Ngoài ra số lượng chuỗi cũng như số lượng test của BAliBASE 3.0 là lớn hơn rất nhiều so với BAliBASE 2.01. nếu như số lượng test ở bản 2.01 chỉ là 141 thì ở 3.0 số lượng test là hơn 200. Đồng thời, tổng số chuỗi trong tất cả bộ dữ liệu của bản 3.0 là 6254, lớn hơn hẳn so với của phiên bản 2.01 với tổng số 1444 chuỗi. Như vậy có thể thấy nếu sử dụng BAliBASE 3.0 để kiểm tra kết quả của các thuật toán sắp hàng đa chuỗi khả năng ta sẽ thu được kết quả chính xác hơn so với BAliBASE 2.01. Tuy nhiên, đi kèm theo đó là thời gian đòi hỏi để mỗi thuật toán hoàn tất quá trình bắt cặp cho bộ dữ liệu BAliBASE 3.0 là lớn hơn rất nhiều so với phiên bản 2.01. BAliBASE sử dụng hai hệ số điểm để xác định độ chính xác của một đa chuỗi thẳng hàng so với kết quả mà các nhà khoa học tự tay bắt cặp. đó là điểm sum-of- Page | 25 pair(SP) và điểm total-column(TC). Điểm SP có thể được tính một cách đơn giản như sau: - Đặt s(a,b) – a,b là 2 amino axit, là điểm khỉ bắt cặp a với b. khi đó ta sẽ có giá tị của s(a,b) tương ứng là: s(a,b) = 1 nếu a và b là một amino axit s(a,b) = -1 nếu a và b khác nhau s(a,b) = -2 nếu a là gap, b không là gap hoặc ngược lại s(a,b) = 0 nếu cả a và b đều là gap. - Đặt SP(mi) là giá trị điểm ở cột i của đa chuỗi thẳng hàng, giá trị của SP(mi) được tính bằng tổng các s(a,b) trong đó a,b là các amino axit được lấy từ cột thứ i của đa chuỗi. Một ví dụ đơn giản cho việc tính toán SP(mi) được thể hiện ở bảng 4 Bảng 4: tính toán SP(mi) m1 m2 m3 m4 m5 m6 Seq1 T _ G C _ G Seq2 _ A G C T G Seq3 _ A G C _ G SP(mi) -4 -3 3 3 -4 3 Trong đó: SP(m1) = s(T, -) + s (T, -) + s (-, -) = -2 + -2 + 0 = -4. Tương tự với các điểm của cột m2, m3, m4, m5, m6. - Điểm SP của cả chuỗi được tính theo công thức ( ) ( ) m M SP M SP m ∈ = ∑ như vậy, với kết quả của ví dụ trên, SP(M) = -2; Page | 26 - Kết quả của điểm SP(M) với đa chuỗi thẳng hàng đầu vào sẽ được so sánh với với SP(R) của bộ dữ liệu tham khảo có sẵn trong BAliBASE và điểm SP cuối cùng sẽ là tỉ lệ phần trăm khi chia SP(M) cho SP(R). Đây chính là điểm sum-of-pair của BAliBASE. Điểm TC còn đơn giản hơn điểm sum of pair rất nhiều. Điểm TC chính là tỉ lệ số cột mà đa chuỗi đầu vào chứa các amino axit giống hệt so với thư viện của BAliBASE. Với hai hệ số điểm SP và TC ta có thể xác định được phần nào độ chính xác của kết quả quá trình sắp hàng đa chuỗi với dữ liệu chuẩn ban đầu. Cần chú ý khi tính kết quả của một bộ dữ liệu con, chẳng hạn RV11. Ta tính kết quả của từng test trong RV11 và lấy kết quả trung bình cuối cùng làm kết quả của cả bộ RV11. Nhưng kết quả của toàn bộ bộ dữ liệu BAliBASE thì ta cần tính trung bình khi nhân trọng số với mỗi bộ dữ liệu con. Trọng số đó chính là số test trong bộ dữ liệu con đó. Ba bảng ở dưới đây là các bảng kết quả so sánh phương pháp áp dụng MUMSA vào M-Coffee với bộ dữ liệu BAliBASE 2.01 và BAliBASE 3.0 đối với cả những test full-length và những test chỉ xét những đoạn tương đồng với các thuật toán tiên tiến trên thế giới. Thời gian thực hiện được tính dựa trên máy tính có vi sử lý intel core 2 dual 2.4GHz, RAM 3GB. Các thuật toán sử dụng tương ứng là MUSCLE ver.3.7, MAFFT ver.6.240, ProbCons ver.1.12, T-Coffee 8.47 với các thư viện tương đương với EM-Coffee và được viết tắt là TD-Coffee. Ngoài ra bộ dữ liệu BAliBASE ko có RVS40. Chú ý rằng nếu chưa có thư viện thì thời gian chạy của EM-Coffee sẽ là tổng thời gian chạy các thuật toán. Page | 27 Bảng 5: Kết quả các thuật toán với bộ dữ liệu BAliBASE 2.01(Các chỉ số làm tròn tới 2 số sau dấu phảy) RV11 RV12 RV13 RV20 RV30 RV40 RV50 Average Program SP TC SP TC SP TC SP TC SP TC SP TC SP TC SP TC Time (s) Muscle 84.82 77.86 88.25 80.51 88.53 82.98 92.47 56.14 80.44 53.07 90.05 67.38 97.37 88.72 88.60 73.76 42 Fft-nsi 83.11 75.49 87.33 81.15 87.52 81.86 92.00 56.86 80.77 56.78 91.83 75.52 96.44 84.97 87.92 74.02 39 ProbCons 88.36 83.43 90.26 84.30 90.65 85.47 93.26 60.50 82.93 62.10 92.63 78.74 97.38 89.32 90.65 78.55 465 Li-nsi 83.37 77.00 89.76 82.99 88.34 82.22 92.66 52.96 79.42 55.56 92.94 76.15 97.77 92.89 88.80 74.72 70 Ei-nsi 83.37 77.00 89.58 82.73 88.27 82.19 92.64 52.77 79.21 54.85 95.41 83.56 97.84 91.88 88.95 75.12 76 EM-Coffee 87.08 81.15 91.03 85.01 89.68 83.79 93.24 60.33 83.05 60.67 92.56 78.61 98.49 93.78 90.45 78.13 182 TD-Coffee 87.30 81.84 90.44 93.74 89.86 84.74 93.12 59.42 83.97 63.57 91.51 75.22 97.70 91.72 90.32 77.85 182 Những giá trị được in đậm là giá trị lớn nhất trong cột đó. Page | 28 Bảng 6: kết quả các thuật toán đối với các chuỗi full-length trong BAliBASE 3.0 (Các giá trị được làm tròn tới 2 số thập phân sau dấu phảy) RV11 RV12 RV20 RV30 RV40 RV50 Average Program SP TC SP TC SP TC SP TC SP TC SP TC SP TC Time (s) Muscle 58.92 34.76 91.99 81.66 88.99 36.34 81.44 38.40 87.15 45.73 83.87 44.88 82.53 48.23 1735 Fft-nsi 61.44 39.45 90.82 79.57 90.83 37.51 83.30 49.00 89.87 54.61 86.44 52.88 84.13 52.89 690 ProbCons 66.97 41.68 94.11 85.52 91.67 40.49 84.60 54.30 90.24 52.86 89.17 56.69 86.38 55.66 30092 Li-nsi 66.19 43.79 93.46 83.39 92.70 45.10 86.79 59.33 92.61 61.51 90.25 59.06 87.22 59.27 3335 Ei-nsi 66.02 43.74 93.46 83.39 92.52 44.61 86.81 59.43 92.26 60.53 89.86 59.62 87.05 59.00 3680 EM-Coffee 68.72 44.87 93.71 84.07 92.28 43.95 86.00 58.50 91.86 58.10 89.96 60.44 87.33 58.60 6404 TD-Coffee 68.66 44.61 93.82 84.75 91.63 43.78 86.17 56.87 91.41 58.04 89.57 59.69 87.12 58.15 6404 Những giá trị được in đậm là giá trị lớn nhất trong cột đó. Page | 29 Bảng 7: Kết quả của thuật toán chỉ đối với những đoạn tương đồng trong bộ dữ liệu BAliBASE 3.0 (Các giá trị được làm tròn tới 2 chữ số thập phân sau dấu phảy) RVS11 RVS12 RVS20 RVS30 RVS40 RVS50 Average Program SP TC SP TC SP TC SP TC SP TC SP TC SP TC Time (s) Muscle 74.08 52.50 93.10 82.70 94.62 53.44 86.93 55.93 N/A N/A 87.46 49.20 87.56 60.89 279 Fft-nsi 71.63 50.61 91.86 81.82 94.00 51.22 87.84 59.80 N/A N/A 87.18 51.07 86.67 60.56 141 ProbCons 81.03 63.08 95.04 87.07 95.72 60.39 90.69 64.97 N/A N/A 90.91 60.53 90.89 68.77 7437 Li-nsi 72.17 52.21 93.90 84.52 94.52 51.66 88.83 63.5 N/A N/A 90.03 56.53 87.90 62.90 673 Ei-nsi 71.98 51.87 93.92 84.52 94.57 52.22 88.83 63.33 N/A N/A 89.93 58.60 87.86 63.12 823 EM-Coffee 77.31 57.39 94.43 85.55 95.15 56.56 89.40 63.63 N/A N/A 90.31 59.27 89.47 65.81 4668 TD-Coffee 77.12 56.66 94.49 85.95 95.11 56.24 89.49 61.57 N/A N/A 89.83 57.60 89.41 65.14 4668 Những giá trị được in đậm là giá trị lớn nhất trong cột đó. Page | 30 Chúng ta sẽ lần lượt phân tích kết quả thu được ở cả 3 bảng 5,6, và 7. Bằng việc phân tích kết quả này chúng ta sẽ nhận ra được tính đúng đắn của EM-Coffee khi sử dụng trọng số cũng như khả năng sử dụng thông tin của các đa chuỗi đầu vào để sắp hàng đa chuỗi của T-Coffee. Bảng 5 là kết quả của các chương trình với bộ dữ liệu BAliBASE 2.01. Như đã nói tới phần trên, BAliBASE 2.01 nhỏ hơn BAliBASE 3.0 rất nhiều và có thể cho kết quả không được chính xác như BAliBASE 3.0. Tuy nhiên nếu xét trên phương diện là một bộ dữ liệu chuẩn thì BAliBASE 2.01 vẫn khá đáng tin cậy. Nhìn vào bảng ta thấy rằng khi chạy bộ dữ liệu BAliBASE 2.01 thì ProbCons có kết quả trung bình là cao nhất. Tiếp theo đó ta có thể kể tới EM-Coffee nhỉnh hơn một chút so với TD-Coffee. Các thuật toán còn lại đều bị 3 thuật toán này bỏ khá xa về độ chính xác. Nếu chỉ nhìn tập trung vào 2 thuật toán EM-Coffee và TD-Coffee ta có thể dễ dàng nhận thấy hầu hết các kết quả của EM-Coffee đều cao hơn TD-Coffee trong khi thời gian thực hiện chương trình gần như là tương đương. Bảng 6 là kết quả của các chương trình với các chuỗi full-length. Ta có thể dễ dàng nhận ra các option của MAFFT chạy ra kết quả rất tốt trên các bộ RV20 tới RV50 và luôn có điểm SP cũng như TC cao nhất. Tuy nhiên với bộ RV11 và RV12 thì lần lượt EM-Coffee và ProbCons mới là thuật toán đứng đầu. Ngoài ra trong các bộ RV20 tới RV50 kết quả của EM-Coffee cũng không quá thấp so với các option của MAFFT như kết quả của ProbCons, nó luôn khá sát với các kết quả đó. Mặc dù không đạt vị trí cao nhất trong tất cả các kết quả, EM-Coffee vẫn cho thấy sự ổn định của mình, và bằng chứng rõ nhất có thể nhận ra chính là việc giá trị SP tại kết quả trung bình của EM-Coffee nhỉnh hơn toàn bộ các thuật toán khác trong đó có cả TD-Coffee. Bảng 7 là kết quả của các chương trình với các chuỗi tương đồng. Ở bảng này ProbCons độc chiếm vị trí dẫn đầu trogn mọi bộ dữ liệu con và những thuật toán còn lại đều có những kết quả thấp một cách đáng ngạc nhiên. Chẳng hạn như bộ dữ liệu RVS11 của ProbCons là hơn 81% trong khi đó các option của MAFFT chỉ cho kết quả kém hơn tới 8%. Tuy kết quả không thể cao bằng kết quả của ProbCons nhưng EM- Coffee cũng cho những kết quả không tệ như những thuật toán khác. Và có cảm giác EM-Coffee thu được những kết quả khá ổn định. Page | 31 Chương 5: Kết luận Như chúng ta đã biết, hiện nay có 2 bài toán cần được giải quyết trong sắp hàng đa chuỗi. Đó là tốc độ chạy của thuật toán và sự ổn định của chương trình trong tất cả các bộ dữ liệu. Tốc độ của chương trình có thể được cải thiện bằng các thuật toán tiên tiến nhằm làm giảm độ phức tạp đi, tuy nhiên kèm theo đó là độ chính xác và tính tin cậy của thuật toán đó lại dần mất đi. Ngược lại để có được sự ổn định với mọi bộ dữ liệu thì thông thường chương trình lại chạy rất chậm. MAFFT và ProbCons chính là 2 ví dụ cho 2 trường hợp này. MAFFT có tốc độ chạy rất tốt tuy nhiên nếu test trong bộ dữ liệu BAliBASE 3.0 thì nó chỉ tốt với những chuỗi full-length trong khi với những chuỗi tương đồng MAFFT cho kết quả rất kém. Trái ngược với MAFFT, ProbCons có kết quả khá ổn định trong cả 2 trường hợp của BAliBASE 3.0 là full-length và tương đồng. Tuy nhiên, yếu điểm lớn của ProbCons chính là tốc độ chạy của thuật toán này. Đối với bộ dữ liệu BAliBASE 3.0, nếu option chậm nhất của MAFFT chỉ chạy mất khoảng hơn 1 tiếng thì ProbCons mất hơn 10 tiếng. Điều này làm ảnh hưởng tới người dùng rất nhiều khi họ phải đợi thời gian quá lớn để thu được kết quả. EM-Coffee là một chương trình phát triển thêm từ gói M-Coffee trong bộ T- Coffee. Ý tưởng chính của M-Coffee chính là kết hợp thông tin thu được từ nhiều thuật toán khác nhau để tạo thành một đa chuỗi thẳng hàng mới với hi vọng chúng đáng tin cậy hơn các đa chuỗi thẳng hàng sinh ra từ mỗi thuật toán riêng lẻ. EM- Coffee cũng khá giống với TD-Coffee tuy nhiên khi đưa các đa chuỗi thẳng hàng từ mỗi thuật toán riêng lẻ vào thành bộ thư viện chung thì khác với TD-Coffee, EM- Coffee đặt thêm trọng số cho mỗi đa chuỗi này dựa vào kết quả của MUMSA – một chương trình đánh giá độ tin cậy của các đa chuỗi thẳng hàng. Kết quả thực nghiệm đã cho thấy, tính ổn định của thuật toán EM-Coffee là hơn hẳn so với MAFFT ở bộ dữ liệu đánh giá BAliBASE 3.0. Tuy không phải lúc nào cũng cho kết quả đứng đầu khi mang so sánh với các thuật toán khác, nhưng bù vào đó EM-Coffee lại cho thấy một sự ổn định rất khả quan trong hầu hết các bộ dữ liệu của BAliBASE. Mặc dù không thể giúp tăng được tốc độ của chương trình nhưng nếu áp dụng EM-Coffee với các dữ liệu có khoảng 40 chuỗi là hoàn toàn khả thi. Page | 32 Tài liệu tham khảo [1]. Darwin, C. (1872) On the Origin of Species. John Murray, London, 6th edn. [2]. Needleman, S.D. and Wunsch, C.D. (1970) A general method applicable to the search for similarities in the aminno acid sequence of two proteins. J. Mol. Biol., 48, 443 – 453. [3]. Feng, D.F. and Doolittle, R.F. (1987) Progressive sequence alignmen as a prerequisite to correct phylogenetic trees. J. Mol. Evol., 25, 351 – 360. [4]. Barton , G.J. and Sternberg, M.J. (1987) A strategy for rapid multiple alignment of protein sequences. Confidence levels from tertiary structure comparisions. J. Mol. Biol., 198, 327 – 337. [5]. Berger, M.P. and Munson, P.J. (1991) A novel randomized iterative strategy for aligning multiple protein seuqneces. Comput. Appl. Biosci., 7, 479 – 484. [6]. Thompson, J.D., Higgins, D.G. and Gibson, T.J. (1994) CLUSTALW: improving the sensitivity of progressive multiple sequence alignment through sequence weighting, position-specific gap penalties and weight matrix choice. Nucleic Acids Res, 22 [7]. Notredame C, Higgins D.G., Herina J (2000) T-Coffee: A novel method for fast and accurate multiple sequence alignment. J Mol Biol, 302:205-217. [8]. Katoh K, Kuma K, Toh H, Miyata T (2005) MAFFT version 5: improvement in accuracy of multiple sequence alignment. Nucleic Acids Res, 33: 511 – 518. [9]. Do CB, Mahabhashyam MS, Brudno M, Batzoglou S (2005) ProbCons: probabilistic consistency-base multiple sequence alignment. Genome Res 15: 303 – 340. [10]. Edgar, R.C. (2004) MUSCLE: multiple sequence alignment, Current Opinion in Structural Biology. Nucleic Acids Res, 32: 1792 – 1797. [11]. Edgar, R.C. (2004) Local homology recognition and distance measures in linear times using compressed amino acid alphabets. Nucleic Acids Res., 32, 380 – 385 [12]. Kimura, M. (1983) the Neutral Theory of Molecular Evolution. Cambridge University Press. Page | 33 [13]. Miyata, T., Miyazawa, S. and Yasunaga, T. (1979) Two types of amino acid substitutions in protein evolution. J. Mol. Evol., 12, 219 – 236. [14]. Katoh, K., Misawa, K., Kuma, K., Miyata, T.. (2002) MAFFT: a novel method for rapid multiple sequence alignment based on fast Fourier transform. Nucleic Acids Res., 30, 3059 – 3066. [15]. Forney, G.D. (1973) The Viterbi algorithm. Proceedings ò the IEEE, 61: 268 – 278. [16]. Henikoff, S., Henikoff, J.G. (1992) Amino Acid Substitution Matrices from Protein Blocks. PNAS 89: 10915 – 10919. [17]. Lassman, T., Sonnhammer, E.L.L. (2005) Automatic assessment of alignment quality. Nucleic Acids Res., 33, 7120 – 7128. [18]. Huang, X., Miller, W. (1991). A time-efficient linearspace local similarity algorithm. Advan. Appl. Math. 12, 337 – 375. [19]. Sander, C., Schineider, R. (1991). Database of homology-derived protein structures and the structural meaning of sequence alignment. Proteins: Struct. Funct. Genet. 9, 56 – 68. [20]. Notredame, C., Holm, L., Higgins, D.G. (1998). Coffee: an objective function for multiple sequence alignments. Bioinformatics, 14, 407 – 422. [21]. Kececioglu, J.D. (1993) the maximum weight trace problem in multiple sequence alignment. Lect. Notes Comput. Sci. 684. 106 – 119. [22]. Notredame, C., Higgins, D.G. (1996). SAGA: sequence alignment by genetic algorithm. Nucl. Acids Res. 24, 1515 – 1524. [23]. Reinert, K., Lenhof, H.P., Mutzel, P., Meihorn, K. Kececioglu, J.D. (1997). A branch- and-cut algorithm for multiple sequence alignment. Recomb97, 241 – 249. [24]. Gotoh, O. (1982) An improved algorithm for matching biological sequecens. J. Mol. Biol. 162, 705 – 708. [25]. Saitou, N., Nei, M. (1987). The neighbor-joining method: a new method for reconstructing phylogenetic trees. Mol Biol Evol, 4, 406 – 425. [26]. Wallace, I.M., O’Sullivan, O., Higgins, D.G., Notredame, C. (2006). M-Coffee: combining multiple sequence alignment methods with T-Coffee. Nucleic Acids Res., 34, 1692 – 1699. Page | 34 [27]. Thompson, J.D., Plewniak, F., Poch O., (1999). BAliBASE: a benchmark alignment database for the evaluation of multiple alignment programs. Bioinformatics applications note, 15, 87 – 88. [28]. Bahr, A., Thompson, J.D., Thierry, J.C., Poch, O. (2001) BAliBASE(Benchmark Alignment dataBASE): enhancements for repeats, transmembrane sequences and circular permutations. Nucleic Acids Res., 29, 323 – 326. [29]. Thompson, J.D., Koehl, P., Ripp, T., Poch, O.. (2005) BAliBASE 3.0: Latest Developments of the Multiple Sequence Alignment Benchmark. PROTEINS: structure, Function, and Bioinformatics. 61, 127 – 136. [30]. Felsenstein, J. (2004). Inferring Phylogenies. Sinauer Associates, Sunderland, Mass. [31]. Le Sy Vinh (2005) Phylogenetic tree reconstruction. Heinrich-Heine-University Duesseldorf, Germany.

Các file đính kèm theo tài liệu này:

  • pdfLUẬN VĂN-SẮP HÀNG ĐA CHUỖI.pdf
Luận văn liên quan