Khóa luận Chuyển mạch nhãn đa giao thức mpls

MỤC LỤC ĐẶT VẤN ĐỀ . MỤC LỤC . THUẬT NGỮ VIẾT TẮT . CHƯƠNG 1 : CHUYỂN MẠCH NHÃN ĐA GIAO THỨC MPLS 1.1. Tổng quan chuyển mạch nhãn đa giao thức 1.1.1. Giới thiệu . 1.1.2. Định tuyến và chuyển mạch gói truyền thống . 1.1.3. MPLS là gì ? 1.1.4. Lợi ích của MPLS 1.2. MPLS và các thành phần . 1.2.1. LERs và LSRs 1.2.2. Lớp chuyển tiếp tương đương FEC 1.2.3. Nhãn . 1.2.4. Tuyến chuyển mạch nhãn (LSP) 1.2.5. Giao thức phân phối nhãn 1.2.6. Kĩ thuật điều khiển lưu lượng 1.2.7. Định tuyến ràng buộc . 1.3. Hoạt động của mạng MPLS . 1.4. Đường hầm trong MPLS 1.5. Kiến trúc hệ thống giao thức MPLS 1.6. Các ứng dụng của MPLS . 1.7. Tóm tắt chương . CHƯƠNG 2 : CHẤT LƯỢNG DỊCH VỤ . 2.1. Mở đầu . 2.1.1. Động lực QoS . 2.2. Các định nghĩa cơ bản 2.2.1. QoS là gì ? 2.2.2. Một số khái niệm cơ bản của QoS . 2.2.3. Điều kiện cần thiết cho QoS . 2.3. Kiến trúc cơ bản của QoS . 2.3.1. Phân biệt và đánh dấu . 2.3.2. QoS trong các phần tử mạng riêng lẻ . 2.3.3. Quản lý chất lượng dịch vụ 2.4. Mức chất lượng dịch vụ đầu cuối-đầu cuối 2.5. Tóm tắt chương . CHƯƠNG 3 : CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG MPLS 3.1. Mở đầu . 3.2. Mô hình QoS và TE ban đầu 3.2.1. IntServ với RSVP . 3.2.2. DiffServ 3.2.3. MPLS . 3.3. MPLS với DiffServ 3.3.1. MPLS hỗ trợ DiffServ 3.3.2. Kĩ thuật điều khiển lưu lượng DiffServ-Aware MPLS 3.4. Thực hiện quản lý hàng đợi trong MPLS-DiffServ 3.5. Các thành phần QoS trong MPLS UNI 3.6. Tóm tắt chương KẾT LUẬN . TÀI LIỆU THAM KHẢO

pdf53 trang | Chia sẻ: lvcdongnoi | Lượt xem: 2215 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Khóa luận Chuyển mạch nhãn đa giao thức mpls, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
một luồng bằng cách hạn chế thông lượng (throughput) của luồng khác. Yoram Bernet đã phân biệt giữa định nghĩa QoS thụ động và chủ động. Định nghĩa thụ động miêu tả chất lượng dịch vụ như là lưu lượng chuyển tải qua mạng. Trong khi định nghĩa chủ động liên quan tới quá trình điều khiển chất lượng dịch vụ thu được bởi lưu lượng chuyển qua mạng. Định nghĩa chủ động của Bernet về chất lượng dịch vụ mạng là “ Khả năng điều khiển các quá trình xử lý lưu lượng trong mạng để mạng có thể gặp được đòi hỏi dịch vụ của ứng dụng nào đó và các chính sách mà người dùng đưa ra đối với mạng”. Jerry Ash cung cấp một tập hợp mở rộng các định nghĩa liên quan tới TE và QoS từ quan điểm của nhà cung cấp dịch vụ. Trong khi khả năng quản lý và hoạch định mạng đảm bảo cho chức năng của mạng trong tương lai, quản lý lưu lượng lại liên quan tới việc tối ưu nguồn tài nguyên có sẵn của mạng dưới các điều kiện khác Đỗ Tiến Dũng-Lớp K46ĐA 26 Khoá luận tốt nghiệp nhau. Quản lý lưu lượng bao gồm các chức năng điều khiển định tuyến, quản lý bảng định tuyến, định tuyến động. Trong [TE-QoS], QoS được định nghĩa là “một tập hợp các yêu cầu gặp phải bởi mạng khi truyền dẫn một kết nối hay một luồng, hay tập hợp các ảnh hưởng của chức năng dịch vụ mà xác định mức độ thoả mãn của người dùng dịch vụ”. Định nghĩa này là “thụ động” theo phân biêt của Bernet, nhưng định nghĩa sau của Quản lý tài nguyên QoS là “chủ động” : “chức năng mạng mà bao gồm phân biệt cấp độ dịch vụ, rút ra bảng định tuyến, quản lý kết nối, cấp phát băng thông, bảo vệ băng thông, dành sẵn băng thông, định tuyến ưu tiên, hàng đợi ưu tiên”. Tóm lại, ta sẽ nói về QoS như là sự yêu cầu dịch vụ của rất nhiều các ứng dụng, và về các quá trình QoS / các chức năng quản lý tài nguyên QoS như quá trình điều khiển mạng mà cho phép một mạng thoả mãn QoS. Yêu cầu dịch vụ của các ứng dụng khác nhau có thể biểu diễn bằng một tập các tham số bao gồm băng thông, trễ, rung pha, mất mát gói, quyền ưu tiên và một vài thứ khác. Ví dụ thoại và các ứng dụng multimedia rất nhạy cảm với trễ và rung pha, trong khi các ứng dụng truyền dữ liệu có thể đòi hỏi mất mát gói rất thấp. Chúng ta sẽ xem các tham số đó là các biến QoS. 2.2.2. Một số khái niệm cơ bản của QoS Trễ Trễ là khoảng thời gian một bản tin chiếm khi truyền từ điểm này sang điểm khác trên mạng. Trễ bao gồm một số thành phần như thời gian tiêu tốn trong hàng đợi của bộ định tuyến-trễ xếp hàng, thời gian cần thiết để thực hiện quyết định trong bộ định tuyến-trễ chuyển tiếp, thời gian cần thiết để tuyến vật lý truyền dữ liệu-trễ lan truyền và thời gian sử dụng để đặt gói tin lên mạng-trễ nối tiếp hoá. Thành phần có thể được quản lý với QoS là trễ xếp hàng. Gói có ưu tiên cao hơn sẽ được đưa ra để truyền trước các gói có ưu tiên thấp hơn và các kĩ thuật quản lý hàng đợi như RED có thể được sử dụng. Rung pha Rung pha được định nghĩa như sự biến đổi trong các trễ chuyển tiếp đầu cuối- đầu cuối. Trong một số ứng dụng, như các ứng dụng thời gian thực không thể chấp nhận rung pha. Giao thức TCP cũng thực hiện rất kém dưới tác dụng của rung pha, vì nó cố gắng điều chỉnh tốc độ truyền dẫn của nó tương ứng. Đỗ Tiến Dũng-Lớp K46ĐA 27 Chuyển mạch nhãn đa giao thức MPLS Băng thông Băng thông biểu thị tốc độ tryền dữ liệu cực đại có thể đạt được giữa hai điểm kết cuối Tổn hao Tổn hao gói tin là trường hợp khi gói tin không tới được đích của nó trước thời gian timeout của bộ thu. Trong mạng TCP/IP thì tổn hao gói tin chủ yếu là do nghẽn, đây là nguyên nhân tạo ra sự tràn bộ nhớ hoặc loại bỏ gói tin bởi các phương tiện quản lý lưu lượng. Cấp độ dịch vụ (CoS) Khái niệm cấp độ dịch vụ CoS có nghĩa hẹp hơn QoS và chỉ ra một cách đơn giản rằng các dịch vụ có thể phân loại được trong các cấp độ khác nhau, có thể được cung cấp cho người sử dụng và được quản lý độc lập. Thoả thuận mức dịch vụ (SLA) SLA là hợp đồng giữa khách hàng và nhà cung cấp dịch vụ SP, SLA định mức dịch vụ nào SP định cung cấp. Ý tưởng rất đơn giản : khách hàng nào báo cáo bao nhiêu lưu lượng họ sẽ gửi và trả tiền cho mức độ tối thiểu được đảm bảo trong lưu lượng đó. 2.2.3. Điều kiện cần thiết cho QoS. Với QoS như được định nghĩa ở trên, chúng ta hãy xem xét các yêu cầu cơ bản mà cần phải có để có thể thu được nó. Để có thể cung cấp QoS cho nhiều loại yêu cầu của ứng dụng (ví dụ : thoại, multimedia..), mạng phải thoả mãn hai điều kiện cần thiết o Điều kiện thứ nhất là băng thông phải được đảm bảo cho một ứng dụng dưới các điều kiện khác nhau, bao gồm cả nghẽn và lỗi. o Điều kiện thứ hai là khi một ứng dụng truyền qua mạng, nó phải nhận được sự đối xử dựa trên cấp độ thích hợp, bao gồm cả sự sắp xếp và việc loại bỏ gói. Chúng ta có thể nghĩ là hai điều kiện đó là trực giao. Một luồng có thể có băng thông hiệu quả nhưng phải chịu trễ (điều kiện thứ nhất đạt được còn điều kiên thứ hai thì không). Hoặc một luồng có thể được phục vụ một cách thích hợp trong mọi node mạng nhưng bị chấm dứt hoặc bị méo bởi sự dao động một chút của băng thông (điều kiện thứ hai đạt được nhưng điều kiện thứ nhất thì không). Vì thế cần phải thoả mãn cả hai điều kiện này để Đỗ Tiến Dũng-Lớp K46ĐA 28 Khoá luận tốt nghiệp thu được đảm bảo QoS chắc chắn mà đã được yêu cầu bởi nhà cung cấp dịch vụ và khách hàng của họ. 2.3 Kiến trúc cơ bản của QoS Kiến trúc cơ bản đối với việc thực thi QoS bao gồm ba phần cơ sở o Kĩ thuật phân biệt (identification) và đánh dấu (marking) QoS cho việc định QoS từ đầu cuối tới đầu cuối giữa các phần tử mạng o QoS trong các phần tử mạng riêng lẻ ( Ví dụ : hàng đợi, sắp xếp và các công cụ hoạch định lưu lượng) o Chức năng kiểm soát, quản lý, hoạch định (accouting) đối với việc điều khiển và quản trị lưu lượng đầu cuối-đầu cuối qua mạng Hình 10 : Kiến trúc cơ bản của QoS 2.3.1. Phân biệt và đánh dấu QoS Phân biệt và đánh dấu được thực hiện thông qua phân loại (classification) và điều phối (reservation) - Phân loại Để cung cấp dịch vụ hoàn hảo cho một loại lưu lượng thì đầu tiên nó phải được phân biệt. Bước thứ hai gói có thể được đánh dấu. Hai bước đó tạo thành quá trình phân loại. Khi một gói được phân biệt nhưng không được đánh dấu, phân loại được xem là trên cơ sở mỗi chặng (per hop), khi mà việc phân loại chỉ liên quan tới thiết bị mà nó vào, không liên quan tới router tiếp theo. Điều này xảy ra với hàng đợi ưu tiên (PQ) và hàng đợi tùy ý (CQ). Khi gói được đánh dấu cho việc sử dụng rộng rãi trên mạng, bit IP ưu tiên có thể được đặt. Đỗ Tiến Dũng-Lớp K46ĐA 29 Chuyển mạch nhãn đa giao thức MPLS Các phương pháp phân biệt luồng thông dụng gồm điều khiển danh sách truy cập (ACL-Access control list), định tuyến kiểm soát (policy-base routing), tốc độ truy cập cam kết (CAR-commited access rate), thừa nhận ứng dụng mạng (NAR- network-base application recognition) 2.3.2. QoS trong các phần tử mạng riêng lẻ Quản lý tắc nghẽn, quản lý hàng đợi, hiệu suất tuyến và các công cụ hoạch định/kiểm soát cung cấp QoS với các phần tử đơn lẻ của mạng - Quản lý tắc nghẽn Bởi bản chất bùng nổ tự nhiên của voice/video/dữ liệu, thỉnh thoảng số lượng lưu lượng vượt quá tốc độ của tuyến. Trong trường hợp đó, router sẽ làm gì? Liệu nó sẽ lưu trữ các lưu lượng trong một hàng đợi và để gói đầu tiên là gói đầu sẽ ra? Hay nó sẽ đặt các gói trong các hàng đợi khác nhau và phục vụ hàng đợi nào đó thường xuyên hơn? Công cụ quản lý tắc nghẽn sẽ quan tâm tới câu hỏi này. Công cụ bao gồm hàng đợi ưu tiên (PQ), hàng đợi tùy ý (CQ), hàng đợi trọng số (WFQ-weighted fair queuing), hàng đợi có trọng số dựa trên cấp độ (CBWFQ-class-base weighted fair queuing). - Quản lý hàng đợi Bởi vì hàng đợi không phải kích thước vô hạn, nên nó sẽ đầy và tràn. Khi hàng đợi đầy. Bất cứ một gói thêm nữa bất kì sẽ không thể vào trong hàng đợi và nó sẽ bị bỏ. Đây là hiện tượng bỏ đuôi (tail drop). Vấn đề với bỏ đuôi là router sẽ không thể bảo vệ những gói này khỏi bị bỏ( kể cả những gói ưu tiên cao). Vì vậy cần thiết có một quá trình thực hiện hai việc: o Cố gắng đảm bảo rằng hàng đợi không bị làm đầy, vì thế cần có một không gian cho các gói ưu tiên cao o Cần có một vài loại tiêu chuẩn đối với việc bỏ một gói có mức ưu tiên thấp trước khi bỏ gói có mức ưu tiên cao Phát hiện trọng số sớm ngẫu nhiên(Weighted early random detect-WERD) cung cấp phương thức thực hiện những quá trình này - Hiệu suất tuyến Nhiều lần các tuyến tốc độ thấp nảy sinh vấn đề với các gói lớn. Ví dụ trễ nối tiếp của gói 1500 byte trong một tuyến 56kbps Đỗ Tiến Dũng-Lớp K46ĐA 30 Khoá luận tốt nghiệp -Kích thước của gói: 1500byte . 8bit/byte = 12000bit -Tốc độ tuyến : 56000 bps Kết quả : Trễ sẽ là 12000/56000 = 0.214s hay 214ms Nếu một gói thoại tới sau một gói kích thước lớn. Trễ của thoại sẽ quá lớn thậm chí ngay cả trước khi gói rời router! Chia nhỏ tuyến và ghép xen cho phép chia các gói lớn thành các gói nhỏ hơn và ghép xen vào các gói thoại. Ghép xen cũng quan trọng như chia nhỏ. Không có lý do gì để chia nhỏ gói mà để những gói thoại theo sau những gói đã được chia nhỏ. Một yếu tố ảnh hưởng khác nữa là việc loại trừ quá nhiều các bit mào đầu (overhead bit). Ví dụ tiêu đề gói RTP có 40byte, với một tải cỡ nhỏ cũng phải khoảng 20 byte, và trong một số trường hợp thì mào đầu có thể bị gấp đôi. - Kiểm soát và hoạch định lưu lượng Hoạch định được sử dụng để tạo một luồng lưu lượng mà giới hạn khả năng băng thông tối đa của luồng. Nó được sử dụng rất nhiều để tránh vấn đề tràn như đã đề cập ở phần giới thiệu. Ví dụ, nhiều topo mạng sử dụng Frame Relay trong thiết kế hub- and-spoke. Trong trường hợp này, điểm trung tâm thường có tuyến băng thông cao (T1), trong khi các điểm ở xa có băng thông thấp hơn (384kbps). Trong trường hợp này có thể lưu lượng từ điểm trung tâm sẽ bị tràn tại tuyến băng thông thấp. Hoạch định là một cách hoàn hảo để lưu lượng gần với 384Kbps để tránh tràn ở điểm ở xa. Lưu lượng được lưu trữ tạm thời để truyền dẫn sau đó để duy trì tốc độ đã định. Kiểm soát tương tự như hoạch định, nhưng khác một khía cạnh rất quan trọng: Lưu lượng ở một tốc độ xác định không được lưu trữ tạm thời (và thường bị bỏ). 2.3.3. Quản lý chất lượng dịch vụ Quản lý chất lượng dịch vụ cho phép đặt và đánh giá mục đích và kiểm soát chất lượng dịch vụ. Các phương pháp thông thường theo những bước sau: o Bước 1 : Vạch ranh giới mạng với các thiết bị. Nó giúp cho việc xác định đặc tính lưu lượng của mạng. Cũng như thế các ứng dụng với mục tiêu vì chất lượng dịch vụ có thể được phân chia ( thường dựa vào thời gian đáp ứng). o Bước 2 : Triển khai các kĩ thuật QoS khi đã thu được các đặc tính lưu lượng và các ứng dụng vì mục tiêu tăng chất lượng dịch vụ. Đỗ Tiến Dũng-Lớp K46ĐA 31 Chuyển mạch nhãn đa giao thức MPLS o Bước 3 : Đánh giá kết quả bằng việc kiểm thử đáp ứng của các ứng dụng để xem khi nào mục tiêu chất lượng dịch vụ đã đạt được. Để dễ dàng phát triển, có thể sử dụng Quản lý kiểm soát chất lượng dịch vụ của Cisco(QPM-QoS policy manager), Quản lý thiết bị chất lượng dịch vụ (QDM-QoS devices manager). Để kiểm định mức dịch vụ, có thể sử dụng Giám sát chức năng mạng của Cisco (IPM-Internetwork Performance Monitor) 2.4. Mức chất lượng dịch vụ đầu cuối-đầu cuối Mức độ dịch vụ liên quan tới khả năng chất lượng dịch vụ đầu cuối-đầu cuối thực tế, có nghĩa là khả năng cung cấp các dịch vụ cần thiết bằng cách xác định rõ lưu lượng đầu cuối-đầu cuối hay biên-biên(edge-to-edge). Các dịch vụ khác nhau ở mức độ chất lượng dịch vụ, miêu tả chặt chẽ cách thức xác định giới hạn dịch vụ bằng cách xác định băng thông, trễ, rung pha, và đặc tính mất mát. Có ba mức cơ bản của chất lượng dịch vụ đầu cuối-đầu cuối có thể được cung cấp bởi mạng không đồng nhất: Hình 11 : Ba mức của Chất lượng dịch vụ đầu cuối-đầu cuối o Best-efford service : Có rất ít chất lượng dịch vụ, best-efford service cơ bản dựa trên kết nối không có sự đảm bảo. Được đặc trưng bởi hàng đợi FIFO, không có sự khác biệt giữa các luồng. o Differentiated service ( còn gọi là chất lượng dịch vụ mềm) : Một vài luồng được đối xử tốt hơn các luồng khác ( tiến hành nhanh hơn, băng thông trung bình cao hơn, tốc độ mất mát trung bình thấp hơn). Đây là sự ưu tiên mang tính thống kê, không phải là đảm bảo cứng và nhanh. Nó được thực hiện bằng cách phân loại lưu lượng và sử dụng các công cụ chất lượng dịch vụ như PQ, CQ, WFQ, và WRED. Đỗ Tiến Dũng-Lớp K46ĐA 32 Khoá luận tốt nghiệp o Gruaranteed service ( còn gọi là chất lượng dịch vụ cứng) : Thực sự là cách dành riêng tài nguyên mạng cho lưu lượng xác định thông qua các công cụ chất lượng dịch vụ như RSVP, CBWFQ. Quyết định loại dịch vụ thích hợp với mạng triển khai phụ thuộc vào vài nhân tố: o Ứng dụng hay khó khăn mà khách hàng đang cố gắng giải quyết. Mỗi loại dịch vụ thích hợp cho ứng dụng nhất định. o Tốc độ mà khách hàng thực tế có thể nâng cao hệ thống của họ. Có một phương thức nâng cao tự nhiên từ công nghệ cần thiết để cung cấp các dịch vụ khác nhau cho tới sự cần thiết cung cấp các dịch vụ bảo đảm. o Cái giá cho việc thực thi và triển khai các dịch vụ đảm bảo (Gruaranteed Service) cao hơn so với dịch vụ phân biệt (Differentiated service). 2.5. Tóm tắt chương Trong chương 2, chúng ta đã là quen với các khái niệm cơ bản về chất lượng dịch vụ (QoS) cũng như kiến trúc cơ bản của QoS. Chất lượng dịch vụ (QoS) cung cấp dịch vụ khác biệt ( Differentiated service), cung cấp mức ưu tiên cao hơn cho các luồng hay dịch vụ đảm bảo (Guranteed service) cung cấp sự đảm bảo mức độ dịch vụ. Cả hai tương phản với Best-effort service, cung cấp những gì mà được xem như là có rất ít QoS. Đỗ Tiến Dũng-Lớp K46ĐA 33 Chuyển mạch nhãn đa giao thức MPLS CHƯƠNG 3 : CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG MPLS 3.1. Mở đầu Chuyển mạch nhãn đa giao thức thường xuyên được đề cập tới chủ yếu xung quanh vấn đề công nghệ chất lượng dịch vụ cho mạng chuyển mạch gói. Trong khi thực tế rằng MPLS đóng vai trò rất quan trọng trong việc cho phép QoS, QoS lại không phải là một thành phần cơ bản của MPLS. Cụ thể hơn, MPLS cung cấp môi trường hướng kết nối cho phép kĩ thuật điều khiển luồng của mạng chuyển mạch gói. Kĩ thuật điều khiển luồng có thể đảm bảo băng thông cho rất nhiều luồng khác nhau, đó là điều kiện cần cho QoS. Để điều khiển trễ và rung pha trong các ứng dụng nhạy cảm về thời gian (là một đòi hỏi chủ yếu khác của chất lượng dịch vụ). MPLS-TE phải kết hợp công nghệ cung cấp luồng lưu lượng với cách đối xử đối với những cấp độ nhất định của chúng, ví dụ như Giao thức dành sẵn tài nguyên (RSP) với mở rộng báo hiệu đường hầm (RSVP-TE), và chuyển tiếp dựa trên dịch vụ phân biệt (DiffServ). Chương này thảo luận các kiến trúc khác nhau và việc triển khai các mặt của mạng đưòng trục chuyển mạch gói cho phép MPLS, cũng như các thành phần QoS của giao diện MPLS UNI được định nghĩa bởi MPLS/ Frame Relay Alliance. 3.2. Mô hình QoS và TE ban đầu Khi cộng đồng liên mạng nhận ra sự cần thiết của QoS trong mạng chuyển mạch gói, một vài hướng hé mở. Dịch vụ tích hợp (IntServ) cùng với giao thức báo hiệu RSVP, cung cấp kiến trúc QoS xác thực đầu tiên. Tuy nhiên sau khi xem xét những vấn đề về sự linh hoạt và vận hành của IntServ với RSVP, IETF đã định nghĩa kiến trúc dịch vụ phân biệt (DiffServ), với dạng cơ bản không đòi hỏi giao thức báo hiệu. Sau đó MPLS được đưa ra như một cách tiếp cận hướng kết nối thích hợp với không kết nối dựa trên mạng IP, và nó cho phép công nghệ điều khiển lưu lượng. 3.2.1 IntServ với RSVP IntServ đã định nghĩa những đòi hỏi cho các quá trình QoS để thoả mãn hai mục đích: 1. để phục vụ các ứng dụng thời gian thực 2. để điều khiển việc chia sẻ băng thông giữa các cấp độ lưu lượng khác nhau Hai kiểu dịch vụ đã được định nghĩa tuân theo kiến trúc IntServ : Đỗ Tiến Dũng-Lớp K46ĐA 34 Khoá luận tốt nghiệp Dịch vụ đảm bảo ( Guaranteed Service ) và Dịch vụ tải được điều khiển (Controlled Load Service), cả hai đều tập trung vào những đòi hỏi của ứng dụng riêng lẻ. Dịch vụ đảm bảo được định nghĩa để cung cấp mức độ chắc chắn của băng thông, một biên trễ đầu cuối-đầu không đổi, không mất mát hàng đợi; và nó được dự kiến cho các ứng dụng thời gian thực như thoại và video. Định nghĩa dịch vụ tải được điều khiển không bao gồm bất kì một sự đảm bảo chất lượng chắc chắn nhưng nó đúng hơn là “ sự xuất hiện của một mạng tải nhẹ”. Nó dự định dành cho các ứng dụng mà có thể dung sai trong một khoảng giới hạn lượng mất mát và trễ, bao gồm các ứng dụng thời gian thực thích nghi. Để có thể đạt được các mục tiêu đã đề ra và cung cấp các dịch vụ dự kiến, mô hình IntServ gồm rất nhiều các tham số lưu lượng như tốc độ và giới hạn chùng (slack term) cho dịch vụ đảm bảo; và tốc độ trung bình và kích cỡ bùng nổ (burst size) cho dịch vụ tải được điều khiển. Để thiết lập giá trị những tham số này trong một mạng và để cung cấp dịch vụ đảm bảo cho lưu lượng thời gian thực, RSVP được phát triển như giao thức báo hiệu cho việc dành sẵn và điều khiển hiện. Kiến trúc IntServ đã thoả mãn cả hai điều kiện cho mạng QoS. Nó cung cấp băng thông thích hợp và tài nguyên hàng đợi cho mỗi luồng ứng dụng ( một “vi luồng”). Tuy nhiên triển khai IntServ với RSVP đòi hỏi trạng thái mỗi vi luồng và báo hiệu ở mỗi chặng. Nó thêm sự phức tạp đáng kể đối với việc vận hành mạng và không linh hoạt. Vì thế mô hình IntServ chỉ được triển khai ở một số hữu hạn mạng, và IETF đã chuyển sang phát triển hướng DiffServ thay thế với sự phức tạp tối thiểu. 3.2.2 DiffServ Kiến trúc DiffServ thừa nhận một khía cạnh trái ngược với IntServ. Nó định nghĩa Cấp độ dịch vụ (CoS), gọi là toàn thể (Aggregates), và chức năng quản lý tài nguyên QoS với mỗi node, hay mỗi chặng (Per-Hop). Các định nghĩa CoS bao gồm hành vi toàn thể (BA) xác định những yêu cầu cho việc sắp xếp (scheduling) và loại bỏ gói, và thứ tự toàn thể (OA) thực hiện dựa trên phân loại chỉ dựa trên yêu cầu sắp xếp, và có thể gồm vài giá trị loại bỏ ưu tiên. Vì thế OA là cách phân loại thô hơn BA và có thể gồm vài BA. Hành vi của node định nghĩa tương ứng với các định nghĩa CoS. Hành vi cho mỗi chặng (PHB) liên quan tới BA, trong khi sắp xếp cấp độ hành vi mỗi chặng (PSC-PHB Scheduling Class) phục vụ OA. Các quá trình PHB gồm sắp xếp và loại bỏ gói, trong khi PSC chỉ đề cập tới việc sắp xếp. Đỗ Tiến Dũng-Lớp K46ĐA 35 Chuyển mạch nhãn đa giao thức MPLS Mô hình DiffServ dựa vào việc định nghĩa lại ý nghĩa của 8 bit trường ToS trong tiêu đề IP. Định nghĩa ToS gốc không được triển khai rộng rãi, và bây giờ nó bị chia thành 6 bit giá trị DSCP và 2 bit phần ECN Ưu tiên D T R C O DiffServ Code Point(DSCP) ECN ECN Xác định trường DiffServ 8 Bit ToS của IP Hình 12 : Mối liên hệ giữa ToS và DiffServ/ECN Trong hình 12, Các chữ cái biểu thị như sau : D = Delay, T = Throughput, R = Reliability, C = Cost, ECN = Explicit Congestion Notification Giá trị của trường DSCP được dùng để định BA ( ví dụ : một lớp), được sử dụng tuỳ theo node DiffServ để chọn PHB phù hợp. Mười bốn PHB đã được định nghĩa, gồm một cho chuyển tiếp đã giải quyết (EF), mười hai cho chuyển tiếp chắc chắn (AF), và một cho mặc định hoặc Best-Effort PHB. Mười hai AF PHB được chia thành 4 PSC, và mỗi AF-PSCs chứa ba hành vi phụ liên quan tới cách thức loại bỏ gói khác nhau. Tóm lại, mô hình DiffServ cho phép mạng phân loại (kết hợp) các vi luồng thành luồng toàn thể (BAs) và sau đó cho phép cư xử khác nhau toàn thể ở mỗi node có khả năng DiffServ. Cách cư xử này được phản ánh trong quá trình phục vụ hàng đợi bao gồm sắp xếp và loại bỏ gói. PHB được phản ánh trong cả sắp xếp và loại bỏ gói trong khi PSC chỉ áp dụng cho sắp xếp. 3.2.3 MPLS a) MPLS-TE Phương pháp chuyển mạch nhãn đầu tiên được hình thành để cải thiện chức năng định tuyến, nhưng sự thúc đẩy này đã được giảm bớt với các thành tựu trong thiết kế router và tốc độ chuyển mạch đường của gói IP tự nhiên. Nhưng sau đó ưu điểm quan trọng nhất của kiến trúc MPLS qua chuyển tiếp IP tự nhiên trở nên rõ ràng. Bản chất hướng kết nối của MPLS cho phép các nhà cung cấp dịch vụ có thể triển khai TE Đỗ Tiến Dũng-Lớp K46ĐA 36 Khoá luận tốt nghiệp trong mạng của họ và đạt được rất nhiều mục đích, gồm đảm bảo băng thông, định tuyến thay đổi, cân bằng tải, dư thừa tuyến, và các dịch vụ khác dẫn tới QoS [TE-REQ] nêu vấn đề và đòi hỏi triển khai TE trong mạng MPLS. Nó cung cấp định nghĩa chung của TE như tập hợp các quá trình cho việc tối ưu hóa chức năng vận hành mạng để thu được các mục tiêu đã đặt ra và miêu tả cách thức MPLS hỗ trợ TE bằng việc điều khiển và các quá trình đo kiểm. [TE-REQ] sử dụng khái niệm tuyến lưu lượng (TT) MPLS là toàn thể các luồng lưu lượng cùng cấp độ đặt trong một LSP. Phân biệt một cách nguyên tắc giữa TT và LSP là TT là luồng lưu lượng toàn thể, trong khi LSP là một tuyến mà một TE đi qua mạng. Ví dụ, trong suốt qua trình, TT có thể sử dụng nhiều LSP khác nhau, [TE-REQ] miêu tả một framework cho việc ánh xạ các TT thành các LSP bằng việc xem xét tập hợp ba khả năng: o Các thuộc tính TT o Phân bổ tài nguyên mà được sắp xếp ràng buộc cho TT o phương pháp định tuyến ràng buộc mà cho phép chọn các LSP cho các TT Thuộc tính TT của đối tượng được quan tâm là các tham số lưu lượng, mức ưu tiên, quyền ưu tiên. Thuộc tính tham số lưu lượng có thể bao gồm các giá trị tốc độ đỉnh, tốc độ trung bình, kích thước bùng nổ và các yêu cầu tài nguyên khác của một tuyến lưu lượng mà có thể được sử dụng để cấp phát tài nguyên và tránh tắc nghẽn. Thuộc tính mức ưu tiên cho phép quá trình định tuyến ràng buộc thiết lập một thứ tự trong việc lựa chọn tuyến mà các TT ưu tiên cao hơn sẽ có cơ hội đòi hỏi tài nguyên mạng trước so với các TTs ưu tiên thấp hơn. Tham số quyền ưu tiên xác định khi nào một TT có thể hay không thể ưu tiên và có thể hay không thể được ưu tiên bởi TT khác. Thuộc tính tài nguyên là các tham số trạng thái giao thức như cấp phát hợp kênh tối đa (MAM) cho phép người vận hành mạng cấp phát hơn hoặc kém tài nguyên hơn khả năng của tuyến để thu được mục đích đăng kí rất sớm hay dự trữ trước một cách thích hợp; và thuộc tính cấp độ tài nguyên cho phép người vận hành mạng phân loại tài nguyên mạng và áp dụng vào việc kiểm soát dựa trên cấp độ tài nguyên. Định tuyến ràng buộc, đôi khi còn xem như “định tuyến QoS” cho phép một nhu cầu được thúc đẩy (demand-driven), môi trường định tuyến nhận thức dành sẵn tài nguyên nơi một I-LER tự động xác định tuyến hiện cho mỗi TT mà nó xử lý. Đỗ Tiến Dũng-Lớp K46ĐA 37 Chuyển mạch nhãn đa giao thức MPLS CR yêu cầu vài khả năng mạng bao gồm: o Mở rộng điều khiển lưu lượng cho IGPs OSPF và IS-IS, ví dụ OSPF-TE và ISIS-TE được định nghĩa trong [OSPF-TE] và [ISIS-TE] một cách tương ứng, để mang thêm thông tin về băng thông cực đại của tuyến, băng thông dành sẵn cực đại, băng thông dành sẵn hiện tại ở mỗi mức ưu tiên, và các giá trị khác để cho phép hệ thống quản lý mạng phát hiện tuyến mà gặp các TT ràng buộc, sự sẵn sàng tài nguyên, cân bằng tải và tìm lại đối tượng. o Thuật toán mà chọn tuyến khả thi dựa trên thông tin thu được từ IGPs-TE (ví dụ bằng việc cắt bỏ các tuyến không có khả năng và chạy thuật toán SPF trên tuyến đang duy trì dẫn đến tuyến ngắn nhất bắt buộc (CSPF)) và sinh tuyến hiện. o Phân phối nhãn bởi giao thức cho phép TE như RSVP-TE; RSVP-TE mang thông tin về tuyến hiện được xác định bởi thuật toán CR và vài đối tượng bao gồm báo hiêu thiết lập và thuộc tính nắm giữ mức ưu tiên, thuộc tính quyền ưu tiên, và vài cái khác nữa. o Quản lý băng thông hay chức năng quản trị ở mỗi node mà thực hiện đánh giá tài nguyên đã sử dụng và vẫn còn tại mỗi node, và cung cấp những thông tin này tới IGP-TE và RSVP-TE. Với những quá trình này, MPLS-TE cho phép nhà cung cấp tạo tuyến linh hoạt với băng thông dành sẵn và điều khiển lưu lượng của chúng qua rất nhiều đối tượng mạng. Để đảm bảo băng thông giữa các tuyến, những sự dành sẵn MPLS-TE phải được bổ xung các quá trình bảo vệ luồng từ giao diện với các luồng khác trong suốt quá trình bùng nổ ngoài những giá trị đã được dự trữ. Những quá trình này bao gồm kiểm soát luồng, dự trữ trước hoặc những quy tắc hàng đợi mà thúc đẩy phân chia cân bằng của tuyến trong sự có mặt của sự cạnh tranh lưu lượng các luồng. Với hai điều kiện của QoS : đảm bảo băng thông và các dịch vụ khác nhau-MPLS-TE quan tâm tới điều kiện đầu tiên và RSVP-TE cung cấp cách thức cho việc điều khiển trễ và sự biến thiên trễ trong các ứng dụng nhạy cảm với sự biến thiên thời gian. b) RSVP-TE RSVP được sử dụng rộng rãi cho việc phân phối nhãn trong mạng mà đòi hỏi QoS và TE. RSVP-TE được định nghĩa trong [RSVP-TE] như là một tập các mở rộng đường hầm đối với giao thức RSVP gốc như đã miêu tả ở trên. RSVP-TE được phát triển cho rất nhiều các ứng dụng mạng khác nhau, với chỉ một thứ là kĩ thuật điều Đỗ Tiến Dũng-Lớp K46ĐA 38 Khoá luận tốt nghiệp khiển lưu lượng (TE). Vì vậy phần “TE” của RSVP-TE được hiểu một cách đúng cách là “Mở rộng đường hầm” hơn là kĩ thuật điều khiển lưu lượng. Cũng vì thế, các kí hiệu khác nhau tồn tại liên quan tới giao thức đã được định nghĩa trong [RSVP]; luận văn này theo các thuật ngữ của [RSVP-TE] và gọi RSVP gốc là “RSVP chuẩn”. RSVP-TE hoạt động trên các router có khả năng RSVP nơi mà mở rộng đường hầm cho phép tạo các LSP đã được định tuyến hiện, cung cấp khả năng định tuyến lại dễ dàng, và phát hiện lặp. Vài điểm khác biệt cơ bản giữa giao thức RSVP chuẩn và RSVP-TE gồm : o RSVP chuẩn cung cấp báo hiệu giữa các cặp host; RSVP cung cấp báo hiệu giữa các cặp LERs. o RSVP chuẩn ứng dụng cho các luồng đơn host-tới-host; RSVP-TE tạo trạng thái cho luồng lưu lượng. Một LSP đường hầm thường tập hợp toàn thể các đa luồng host-tới-host và vì thế giảm số lượng trạng thái RSVP trong mạng. o RSVP chuẩn sử dụng giao thức định tuyến chuẩn hoạt động dựa vào địa chỉ đích; RSVP-TE sử dụng IGPs mở rộng và định tuyến ràng buộc. Nhưng cũng giống như RSVP chuẩn, RSVP-TE cũng hỗ trợ các mô hình dịch vụ IntServ phong phú và cách phân phối các tham số điều kiện lưu lượng như tốc độ trung bình, tốc độ đỉnh và kích thước bùng nổ cho dịch vụ tải đã điều khiển. Những đặc điểm này cho phép mạng với MPLS-TE và RSVP-TE cung cấp các dịch vụ phong phú với đòi hỏi QoS chặt chẽ. Một thiếu sót của giải pháp này là không có quá trình loại bỏ gói. Một công nghệ quan tâm tới vấn đề này và cung cấp cách thức khác để đảm bảo QoS được nói tới ở phần 3. 3.3 MPLS với DiffServ 3.3.1. MPLS hỗ trợ DiffServ Bây giờ khi mà cả MPLS và DiffServ đã được xem xét, chúng ta có thể thảo luận một công nghệ mà kết hợp hai giải pháp để đảm bảo QoS. Chúng ta hãy nhớ lại là DiffServ cung cấp các cư xử QoS với toàn thể lưu lượng. Đó là một giải pháp linh hoạt và vận hành đơn giản vì nó không đòi hỏi báo hiệu và trạng thái mỗi luồng. Tuy nhiên nó không thể đảm bảo QoS, bởi vì nó không chi phối tuyến mỗi gói, và vì thế trong suốt quá trình lỗi hoặc nghẽn, thậm chí gói ưu tiên cao cũng không được đảm bảo băng thông. Đỗ Tiến Dũng-Lớp K46ĐA 39 Chuyển mạch nhãn đa giao thức MPLS Mặt khác, MPLS có thể đẩy gói theo những tuyến đã định và kết hợp với định tuyến ràng buộc-có thể đảm bảo băng thông cho các FEC. Nhưng ở dạng cơ bản MPLS không xác định các cư xử dựa trên cấp độ mỗi luồng. Kết hợp phân loại dựa trên DiffServ và PHB với MPLS dựa trên TE dẫn tới chất lượng dịch vụ thực sự trong mạng chuyển mạch gói đường trục. Các quá trình để MPLS hỗ trợ DiffServ được miêu tả trong RFC3270[MPLS-DiffServ]. [MPLS-DiffServ] định nghĩa hai loại LSP : E-LSP và L-LSP. Trong E-LSP, một nhãn được sử dụng để chỉ thị FEC đích, và 3 bit trường Exp được sử dụng để chỉ thị cấp độ của luồng để chọn PHB của nó, bao gồm sắp xếp và loại bỏ ưu tiên. Chú ý rằng DiffServ sử dụng 6 bit để định nghĩa các BA và tương ứng với các PHB, trong khi E-LSP chỉ có 3 bít cho chức năng trên. Trong L-LSP, nhãn được sử dụng để chỉ thị cả FEC đích và kế hoạch ưu tiên. Trường Exp trong L-LSP chỉ được sử dụng để chỉ thị việc loại bỏ ưu tiên. Ánh xạ giữa tiêu đề IP với DiffServ và tiêu đề chèn MPLS cho E-LSP và L- LSP được chỉ ra trong hình 13 và 14 một cách tương ứng.Trong những hình này thuật ngữ “5 tuple” liên quan tới 5 trường trong tiêu đề IP, bao gồm địa chỉ nguồn, địa chỉ đích IP, cổng nguồn và đích TCP hay UDP, và giao thức có thể được sử dụng cho FEC đang định nghĩa. Tất cả các thuật ngữ dựa vào kiến trúc DiffServ BA OA 5-tuple (FEC) ECN Label( LSP = vài OA) EXP PSC Drop BA OA 5-tuple (FEC) ECN Label( LSP = một OA) EXP PSC Drop Hình 14 : Ánh xạ giữa tiêu đề IP và tiêu đề chèn MPLS với L-LSP DSCP Hình 13 : Ánh xạ giữa tiêu đề IP và tiêu đề chèn MPLS với E-LSP DSCP Đỗ Tiến Dũng-Lớp K46ĐA 40 Khoá luận tốt nghiệp Chú ý rằng hình 13 và 14 biểu diễn ánh xạ một phần của tiêu đề gói IP tự nhiên và nhãn và phần EXP của tiêu đề chèn MPLS. Chúng không tỉ lệ và không biểu diễn toàn bộ cấu trúc của tiêu đề Mỗi loại LSP có ưu điểm và nhược điểm của nó. E-LSP dễ vận hành và linh hoạt hơn bởi vì nó bảo vệ nhãn và sử dụng trường EXP cho thành phần DiffServ. Nhưng thực tế báo hiệu MPLS dành sẵn băng thông trên cơ sở mỗi LSP, băng thông dành cho toàn bộ LSP và không có đảm bảo dựa trên PSC, và có thể thiếu băng thông trong phục vụ hàng đợi một vài PSC nào đó. Mặt khác, L-LSP có quá nhiều vấn đề với việc dự trữ, bởi vì cần thiết có nhiều nhãn gắn cho tất cả các PSC của tất cả FEC. Nhưng (bởi vì nhãn mang thông tin về sắp xếp) khi băng thông được dành sẵn cho một LSP đã cho, nó kết hợp với hàng đợi ưu tiên mà LSP đó thuộc về. Hai hình tiếp theo biểu diễn làm sao định tuyến và QoS cải thiện chất lượng định tuyến mạng bằng việc sử dụng MPLS cơ bản và sau đó MPLS có hỗ trợ DiffServ. E-LSR LSR 5 LSR 4 LSR 3 LSR 2 LSR 1 I-LSR (2)MPLS –TE không có CoS (1)Đường ngắn nhất không có MPLS-TE Hình 15 : Luồng gói trong MPLS không có DiffServ Hình 15 biểu diễn sự khác nhau giữa một tuyến bởi các gói mà theo con đường ngắn nhất (1) và tuyến đã được điều khiển lưu lượng (2). Tuyến (2) có thể được chọn bởi vì nó có đủ băng thông để phục vụ một FEC đã định, nhưng băng thông này lại không được kết hợp với bất kì cấp độ dịch vụ nào, và thế lưu lượng ưu tiên (ví dụ VoIP) không thể có đủ băng thông cho hàng đợi nhất định của nó. Hình 16 biểu diễn một cải tiến trong kiến trúc so với hình 15. Tuyến (1) và (2) của hình trước được vẽ như đường đứt quãng. Trong mô hình kiến trúc này MPLS hỗ Đỗ Tiến Dũng-Lớp K46ĐA 41 Chuyển mạch nhãn đa giao thức MPLS trợ công nghệ DiffServ được triển khai, và có thể dành sẵn băng thông ứng với các hàng đợi ưu tiên nhất định. Chúng ta hãy thừa nhận rằng lưu lượng VoIP sử dụng hàng đợi 0, là hàng đợi hàng đầu trong mọi LSP. LSR 5 E-LSR LSR 4 LSR 3 LSR 2 LSR 1 I-LSR (2)MPLS –TE không có CoS (1)Đường ngắn nhất không có MPLS-TE (3)MPLS –TE với DiffServ(L-LSP) Hình 16 : Luồng gói dữ liệu qua MPLS với DiffServ LSR-4 có thể có đủ băng thông qua tất cả các hàng đợi của nó, nhưng nó không có đủ băng thông trong hàng đợi 0 và vì thế , tuyến (2) không cung cấp QoS lại thích hợp cho lưu lượng VoIP. Đó là vì sao chúng ta lại qua hàng đợi VoIP ở LSR-4. Nhưng nếu một L-SLP được sử dụng hàng đợi 0 với băng thông dành sẵn xác định, sao đó lưu lượng có thể đi qua tuyến (3) qua LSR-2 và LSR-3, và VoIP có thể nhận được với sự đảm bảo QoS. Tóm lại MPLS hỗ trợ DiffServ thoả mãn cả hai điều kiện của QoS : đảm bảo băng thông và cư xử với các dịch vụ hàng đợi được phân biệt. MPLS thoả mãn điều kiện thứ nhất : ví dụ nó thúc đẩy các luồng ứng dụng theo các tuyến với băng thông đảm bảo; và dọc theo những tuyến đó DiffServ thoả mãn điều kiện thứ hai bằng việc cung cấp dịch vụ hàng đợi được phân biệt đối xử. Chú ý rằng MPLS hỗ trợ DiffServ vẫn còn đơn giản hơn và linh hoạt hơn IntServ với RSVP chuẩn. IntServ đòi hỏi báo hiệu mỗi vi luồng và trạng thái mỗi vi luồng trong mỗi router. Ngược lại, các LSP có thể bản thân nó là toàn thể các vi luồng và vì thế đòi hỏi báo hiệu ít hơn. Thêm vào đó, router không lưu giữ trạng thái mỗi vi luồng. Thay vào đó các LSR giữ thông tin toàn thể về băng thông khả dụng cho tất cả các LSP hay cho mỗi hàng đợi ưu tiên. Đỗ Tiến Dũng-Lớp K46ĐA 42 Khoá luận tốt nghiệp 3.3.2. Kĩ thuật điều khiển lưu lượng DiffServ-Aware MPLS Trong phần trên ta đã miêu tả hoạt động của MPLS trong mạng nơi các LSR được cho phép DiffServ. Nhưng để thu được các chức năng này và dẫn tới QoS- Các mạng này phải được thiết kế cẩn thận với TE được áp dụng vào trên cơ sở mỗi cấp độ ngược với TE toàn thể. Mục tiêu cần thiết của DS-TE là để đảm bảo băng thông tách biệt cho mỗi loại lưu lượng để cải thiện và tối ưu hoá đúng theo các yêu cầu QoS của nó. Mô hình DS- TE cải tiến mô hình TE toàn thể, đang tồn tại bằng việc cho phép CoS dựa trên TE, nơi mà CoS được định nghĩa bởi mô hình như là một tập hợp thứ tự toàn thể (OA) suy rộng ra từ mức độ tuyến tới mức độ mạng. Trong mô hình DS-TE, đảm bảo băng thông dựa trên CoS thu được bằng hai chức năng mạng: 1. Tách biệt dành sẵn băng thông cho tập hợp các cấp độ lưu lượng khác nhau 2. Quá trình quản lý được áp dụng trên mỗi cấp độ cơ sở Để miêu tả hai chức năng trên, mô hình DS-TE đưa ra hai khái niệm: 1. Kiểu cấp độ (CT) là một nhóm các tuyến lưu lượng (TT) dựa trên giá trị CoS của chúng mà chúng cùng chia sẻ sự dành sẵn băng thông, và một CT có thể biểu diễn của nhiều cấp độ 2. Băng thông ràng buộc (BC) là giới hạn phần trăm băng thông của tuyến mà một CT cụ thể hay một nhóm CT có thể lấy. Các mối quan hệ giữa các CT và các BC được định nghĩa trong mô hình băng thông ràng buộc ( Bandwidth Constrain model-BC). Hiện tại, TE-WG định nghĩa hai mô hình BC: 1. Mô hình cấp phát tối đa (MAM) gán một BC tới mỗi CT ( như biểu diễn ở hình 17) 2. Mô hình búp bê Liên Xô (RDM) gán BC tới các nhóm CT theo cách mà CT với các yêu cầu QoS chặt chẽ nhất (ví dụ : CT7, VoIP) nhận sự dành sẵn băng thông riêng, BC7, một CT với yêu cầu QoS nghiêm ngặt nhất, CT6 chia sẻ dành sẵn băng thông BC6 với CT7 (BC6 > BC7); và cứ thế cho tới CT0 (ví dụ : lưu lượng Best Efford) chia sẻ BC0 (ví dụ : toàn bộ băng thông của tuyến) với tất cả các loại lưu lượng khác (như hình 18 ) Đỗ Tiến Dũng-Lớp K46ĐA 43 Chuyển mạch nhãn đa giao thức MPLS Hình 17 : Mô hình cấp phát băng thông tối đa (MAM) Hình 18 : Mô hình búp bê Liên Xô (RDM) Mô hình DS-TE cũng định nghĩa một quá trình cho phép giải phóng băng thông chia sẻ bị chiếm giữ bởi các lưu lượng ưu tiên thấp hơn khi lưu lượng ưu tiên cao hơn tới. Nó đưa ra khái niệm cấp độ điều khiển lưu lượng (TE-class), một TE- class được định nghĩa bởi hai tham số: Kiểu cấp độ (CT) và mức độ ưu tiên (p). Hai hay nhiều TE-class có thể bao gồm cùng CT với các giá trị p khác nhau, hay các CT khác nhau với cùng giá trị p, vì thế cho phép ưu tiên và phục vụ trước các LSP trong và giữa các CT. Để triển khai DS-TE, các IGP(OSPF-TE và ISIS-TE) và LDP(RSVP-TE) phải được mở rộng theo các mở rộng dựa trên MPLS-TE đã được định nghĩa để mang thêm thông tin như đã miêu tả trong [DSTE-PRO]. Chú ý rằng [DSTE-PRO] không lặp lại các định nghĩa, các TLV và các đối tượng đã được định nghĩa trong [OSPF-TE], [ISIS- TE], và [RSVP-TE] mà chỉ đưa ra các thành phần và cải tiến mới. Để mở rộng IGPs, nó định nghĩa thêm các TLV phụ mang giá trị của BC và băng thông không được phục vụ cho mỗi cấp độ TE. Cũng như vậy, RSVP-TE được mở rộng bằng việc định trong thông điệp tuyến một “đối tượng CLASSTYPE” mới bao gồm một trường CT. Vì thế các giao thức được mở rộng cho phép LSR quản lý Đỗ Tiến Dũng-Lớp K46ĐA 44 Khoá luận tốt nghiệp việc đánh giá và ra quyết định trên cơ sở mỗi cấp độ. Ví dụ LSR có thể tính băng thông được tận dụng bởi tất cả các tuyến lưu lượng trên cơ sở mỗi mức quyền ưu tiên, tạo quyết định mỗi khi nhận một TT mới mà được thiết lập bởi thông điệp tuyến, và tính toán băng giá trị thông không được phục vụ để sử dụng bởi IGPs. Mô hình DS-TE cung cấp nhiều sự linh hoạt cho việc thực hiện điều khiển lưu lượng. Ví dụ nó cho phép gán các CT vào kế hoạch hàng đợi LSR và khi kế hoạch đòi băng thông, kế hoạch sẽ điều chỉnh các tham số băng thông của mỗi hàng đợi với trạng thái dành sẵn của nhóm lưu lượng dịch vụ. Sự điều chỉnh của kế hoạch có thể là động, khi sự dành sẵn bởi các LSP dựa trên cấp độ mới tăng hay giảm , hay không đổi, bằng việc điều chỉnh cấu hình kế hoạch với tải liệu trước một cách chính xác. Có vô vàn lý do có thể áp dụng việc thiết lập cấp phát băng thông tối đa cho các loại lưu lượng khác nhau. Ví dụ để cung cấp điều khiển biến thiên trễ tốt hơn với các ứng dụng thời gian thực mà chia sẻ một tuyến với nhiều lưu lượng dữ liệu bùng nổ, phần trăm tuyến được sử dụng bởi lưu lượng thời gian thực được giữ ở mức thấp (thường dưới 50%). Phần trăm tối đa này là cái sau đó BC sẽ được kết hợp với CT thời gian thực. Trong khi việc sử dụng của BC quá và trên mức dự trữ băng thông cấp độ nhạy cảm là tuỳ ý trong DS-TE, người vận hành mạng mà cấu hình trước các thông số đảm bảo băng thông trong kế hoạch hàng đợi của nó có thể quyết định gán các BC tới tất cả các CT nó mang. Mục đích của việc này là để điều khiển việc dành sẵn lưu lượng của các CT để thích ứng với các thông số đảm bảo băng thông đã được cấu hình trước. Định nghĩa mối quan hệ giữa CoS và CT cũng rất ngỏ đối với việc thực hiện của người điều hành mạng. Một cấp độ lưu lượng nào đó có thể không đủ khác biệt vớicái khác để bảo đảm sự tách biệt các PSC và băng thông đảm bảo. Một ví dụ lấy bối cảnh khi hai loại gói thoại, VoIP và VoATM không nén, được mang qua mạng MPLS. Hai cấp độ lưu lượng thời gian thực có thể được gán các kế hoạch cư xử khác nhau một cách hợp lý, bây giờ áp dụng giới hạn phần trăm băng thông đơn lẻ cho cả hai. Chúng rồi sẽ được đối xử một cách thích hợp như một CT. Tuy nhiên, có thể nên đặt chúng vào hai cấp độ TE khác nhau mà cả hai có cùng giá trị CT nhưng khác nhau giá trị quyền ưu tiên p. Vì thế mục đích mô hình DS-TE cung cấp khả năng điều khiển linh hoạt và đảm bảo tài nguyên mạng trên cơ sở mỗi cấp độ và cho phép QoS mức lõi cao. Đỗ Tiến Dũng-Lớp K46ĐA 45 Chuyển mạch nhãn đa giao thức MPLS 3.4. Thực hiện quản lý hàng đợi thực tế trong MPLS-DiffServ Trong [MPLS-DiffServ] và dự thảo MPLS, IETF đã vạch ra kiến trúc toàn thể cho MPLS hỗ trợ DiffServ, và các nhà cung cấp dịch vụ phải phân tích kiến trúc này để chọn các giải pháp tối ưu với môi trường của họ. Diễn đàn MPLS chỉ đạo một vài phân tích về các quy tắc quản lý hàng đợi trong node mạng mà hỗ trợ E-LSP và L-LSP. [QMgmt] đưa ra một thừa nhận thực tế rằng mặc dù hàng đợi có thể được quản lý trước và sau cơ cấu chuyển mạch LSR, nhưng có khả năng để xắp đặt các LSP sao cho sự bất đồng với cơ cấu chuyển mạch được tối thiểu và hàng đợi sẽ diễn ra sau có cấu chuyển mạch và trước giao diện biên lối ra, như được chỉ ra trong hình 19 Hình 19 : Kiến trúc LSR với hàng đợi và kế hoạch. Trong hình 19 gói tới một trong N giao diện biên lối vào. Nó được phân loại và được chuyển tiếp tới giao diện biên lối ra thích hợp khi chúng được đặt vào một hàng đợi ưu tiên tương ứng. Hình 19 chỉ ra hình ảnh mở rộng của giao diện biên lối ra 1. Giao diện hỗ trợ bốn hàng đợi ưu tiên, từ 0 tới 3. và kế hoạch đẩy gói ra từ mỗi hàng đợi dựa trên ưu tiên của nó. Hình 19 biểu diễn hình ảnh đơn giản của hàng đợi biên lối ra, nhưng các E- LSP và L-LSP phức tạp hơn như miêu tả trong [Qmgmt]. Ví dụ hàng đợi có thể cấp phát mỗi CoS cho mỗi LSP. Trong bối cảnh đó, nếu một E-LSP hỗ trợ bốn kế hoạch cư xử khác nhau và nếu có hai E-LSP như thế, LSR sẽ có tám hàng đợi ưu tiên khác nhau, mỗi cái cho mỗi CoS của LSP. Sự sắp xếp này sẽ rất khó quản lý và không linh hoạt. Đỗ Tiến Dũng-Lớp K46ĐA 46 Khoá luận tốt nghiệp Một cách sắp xếp thay thế là có một tập hợp nhỏ hàng đợi cho mỗi giao diện biên lối ra. Gói tới những hàng đợi này thường biểu diễn các LSP khác nhau, nhưng hàng đợi được quản lý với khía cạnh loại bỏ và sắp xếp như là chúng biểu diễn một luồng đơn. [QMgmt] khuyến cáo cách thức này cho các giai đoạn đầu tiên của MPLS hỗ trợ DiffServ. Với cách này, L-LSP biểu diễn một mức ưu tiên đơn lẻ và sự phân chia tài nguyên cho một L-LSP dẫn tới đảm bảo băng thông như đã thảo luận ở trên. Mặt khác, LSP có thể biểu diễn vài kế hoạch ưu tiên; cấp phát tài nguyên cho một E- LSP không thực hiện việc mọi CoS sẽ dành tài nguyên hàng đợi nhất định. Trong mạng hoàn thiện hơn, có thể có nhiều các hàng đợi nhân và các mức ưu tiên, và E-LSP cũng có thể được sử dụng cho dịch vụ bảo đảm. 3.5. Các thành phần QoS trong MPLS-UNI Các thảo luận ở trên và rất nhiều phương pháp đã được phân tích để cung cấp QoS trong mạng MPLS. Nhưng trong kiến trúc mạng thực tế, mạng MPLS được cung cấp trong miền nhà cung cấp và không mở rộng phần khách hàng. Một lý do khác cho điều này là báo hiệu LSP truyền thống được xử lý bởi các LER, và nếu các LER được đặt tại phần khách hàng, nhà cung cấp sẽ phải mang cho khách hàng một vài chức năng điều khiển qua mạng đường trục của họ. Lý do khác là khách hàng có các cấp dịch vụ khác nhau về sự phức tạp và tài nguyên, và họ có thể không mong phải liên quan tới việc quản lý mạng. Nhưng, như đã nói trong [E2E-QoS], để có thể đảm bảo QoS đầu cuối-đầu cuối, các quá trình QoS phải được cung cấp ở tất cả các phần hợp thành mạng, và chúng phải được ánh xạ một cách thích hợp ở giao diện giữa các mạng khác nhau. Thực tế, như chúng ta đã thảo luận trong phần giới thiệu, phần truy cập của mạng có thể là tuyến yếu nhất trong giới hạn của QoS, và phải được thiết kế cẩn thận cho khả năng hoạt động QoS. Diễn đàn MPLS đã thừa nhận vai trò hàng đầu trong định nghĩa giao diện dựa trên MPLS giữa phần khách hàng và nhà cung cấp dịch vụ mạng dựa trên MPLS. Giao diện đó gọi là giao diện người dùng tới mạng MPLS (MPLS-UNI) và nó được miêu tả trong [MPLS-UNI] [MPLS-UNI] miêu tả báo hiệu qua UNI như hình 20 Đỗ Tiến Dũng-Lớp K46ĐA 47 Chuyển mạch nhãn đa giao thức MPLS Hình 20 : MPLS UNI Trong hình 20 chức năng Ru và Rd biểu diễn các router luồng lên và luồng xuống như được định nghĩa trong [MPLS-Arch]. Kí hiệu nhà cung cấp biên (PE) và khách hàng biên (CE) được kế thừa từ [VPN] để làm cho rõ ràng khi liên hệ tới nhà cung cấp và khách hàng. Xem rằng một LSP luôn theo một hướng duy nhất, theo hướng luồng dữ liệu từ PE tới CE thì PE là Ru và CE là Rd; theo hướng luồng dữ liệu từ CE tới PE thì PE là Rd và CE là Ru. Phần quan trọng trong định nghĩa MPLS UNI là mục đích để tối thiểu chức năng CE và thực tế rằng các LSP được định nghĩa qua UNI không mở rộng trong mạng nhà cung cấp, nhưng là liên kết chéo ở PE với LSP của nhà cung cấp. [MPLS - UNI] sử dụng một giao thức LSP mở rộng cho báo hiệu dựa trên phương pháp luồng xuống theo yêu cầu. Quá trình báo hiệu bắt đầu với việc thiết lập kết nối TCP giữa PE và CE. Sau đó PE gửi tới CE yêu cầu nhãn cho LSP PE tới CE. Ở đây CE là node “luồng xuống”, và khi nó nhận được yêu cầu, nó cung cấp ràng buộc nhãn cho tất cả thuộc tính mà được xác định trong yêu cầu nhãn. Tại thời điểm này, để báo hiệu LSP CE-tới-PE, CE phải gửi yêu cầu tới PE, sử dụng chính xác thuộc tính như đã được cung cấp trong yêu cầu của PE. Vì thế hành vi của CE là khá đơn giản và tự do quyết định. Quá trình báo hiệu được hoàn thành khi PE đáp lại với ràng buộc nhãn cho LSP CE-tới-PE. Phiên bản hiện tại của [MPLS-UNI] chỉ quan tâm tới hướng PVC (kết nối ảo cố định) được đặc trưng bởi sự dự phòng của nhà cung cấp và tính thụ động CE. Công việc tương lai sẽ mở rộng kiến trúc này thành MPLS UNI SVCs (Switched Virtual Connection) nơi CE sẽ có thể yêu cầu báo hiệu cho việc thiết lập hay kết thúc LSP. Đỗ Tiến Dũng-Lớp K46ĐA 48 Khoá luận tốt nghiệp Trong khi [MPLS-UNI] miêu tả báo hiệu qua MPLS UNI dẫn tới thiết lập các LSP hai chiều, công việc đang phát triển ở Liên minh MPLS/ Frame Relay cũng nghiên cứu các kết nối dịch vụ mà có thể chạy trên đỉnh của những LSP này. Các kết nối dịch vụ MPLS UNI sẽ cung cấp cho khách hàng một truy cập MPLS vào dịch vụ mạng riêng ảo qua nhà cung cấp dịch vụ mạng cũng như các dịch vụ khác của nhà cung cấp, như Internet, cổng VoIP, và những thứ khác nữa. Các dịch vụ này có thể tự động cung cấp bởi nhà cung cấp tới khách hàng, với một sự liên quan khách hàng tối thiểu. Chức năng MPLS UNI tương tự như kết nối ATM và Frame Relay nơi các kết nối ảo khách hàng được kết hợp với LSP và không phải với các giao diện, và vì thế ví dụ vài VPN có thể được hỗ trợ qua một giao diện dơn. Hình 21 biểu diễn khái niệm này Hình 21 : VPNs phục vụ thông qua MPLS UNI Trong hình 21 PE bên trái hỗ trợ hai CE khác nhau thuộc về hai VPN khác nhau. PE ở dưới có một giao diện đơn với một CE, nhưng CE này liên quan tới cả hai VPN mà được phân biệt bởi các LSP được định nghĩa qua UNI này. Liên minh MPLS/ Frame Relay là việc trên các dịch vụ UNI cũng sẽ miêu tả các thuộc tính dịch vụ phong phú mà có thể được cấu hình bởi PE ở CE. Một trong các thuộc tính sẽ là Profile QoS bao gồm cấp độ QoS (ví dụ : thời gian thực), đánh dấu QoS, băng thông, trễ và dành sãn rung pha, các yêu cầu khả dĩ và các tham số khác. Profile sẽ cho phép SP cung cấp QoS cần thiết cho các luồng qua UNI, cũng như để ánh xạ nó tới mạng các LSP. Vì thế QoS sẽ được phục vụ trước và ánh xạ thích hợp ở giao diện giữa khách hàng và nhà cung cấp mạng. Đỗ Tiến Dũng-Lớp K46ĐA 49 Chuyển mạch nhãn đa giao thức MPLS Trong khi môi trường dịch vụ MPLS PVC UNI được quản lý toàn bộ bởi các PE, thì MPLS SVC UNI cũng sẽ cho phép CE yêu cầu cải tiến dịch vụ. 3.6. Tóm tắt chương Chương 3 đã đưa ra các mô hình dịch vụ có thể cung cấp QoS như Dịch vụ tích hợp (IntServ), Dịch vụ khác biệt (DiffServ) hay MPLS với MPLS-TE và RSVP- TE. Với các ưu điểm của DiffServ như đơn giản, linh hoạt kết hợp với công nghệ điều khiển lưu lượng (TE), MPLS-TE kết hợp với DiffServ được xem là mô hình mạng hỗ trợ QoS thực sự trong mạng đường trục. Đỗ Tiến Dũng-Lớp K46ĐA 50 Khoá luận tốt nghiệp KẾT LUẬN Sự ra đời của mạng thế hệ sau (Next Generation Network-NGN) gắn liền với những thay đổi cơ bản trong quan niệm, tổ chức, và công nghệ. MPLS được coi là một công nghệ tiềm năng cho mạng NGN trong thời gian tới. Tuy nhiên để phát triển lên NGN thì cần phải đáp ứng được các yêu cầu chất lượng dịch vụ ngày càng cao của các ứng dụng trong tương lai như thoại, multimedia, hay hội nghị từ xa… Phương pháp ban đầu để có QoS trong mạng chuyển mạch gói tập trung chủ yếu vào việc đưa thêm vào băng thông giờ được thay thế với các quá trình phức tạp mà cho phép các nhà cung cấp dự trữ và vận hành mạng thêm chính xác. Quá trình này được thúc đẩy bởi hai động lực chính : (1) giảm CAPEX đòi hỏi thậm chí thêm băng thông và (2) sinh và thêm thu nhập bằng việc cung cấp các dịch vụ giá trị gia tăng với thoả thuận cấp độ dịch vụ (SLA) nghiêm ngặt hơn. Với các dịch vụ mạng tiên tiến, như VoIP, đòi hỏi đảm bảo băng thông cứng. Trong khi kiến trúc IntServ chỉ cung cấp một sự linh hoạt thay thế nhưng nó có hạn chế là không cung cấp sự đảm bảo. Vì vậy việc kết hợp DiffServ và công nghệ MPLS trong mạng chuyển mạch gói dẫn tới cho phép đảm bảo QoS cứng; và những sự đảm bảo này vơi sự linh hoạt cao hơn và giảm sự phức tạp so với IntServ. Những sự cải tiến này là kết quả của đặc tính phân cấp ngăn xếp và FEC toàn thể của mạng MPLS cũng như trạng thái toàn thể duy trì bởi các node hỗ trợ DiffServ. Một lĩnh vực chính khác được quan tâm xem xét trong phạm vi đề tài là sự mở rộng của mạng biên MPSL tới phần khách hàng mà không cần mất mát điều khiển qua cung cấp và vận hành mạng của họ. MPLS UNI cung cấp một giải pháp quan trọng cho việc mở rộng MPLS tới giao diện PE-TE [MPLS-UNI] và kích hoạt QoS và các dịch vụ phong phú qua giao diện này. MPLS UNI cho phép QoS giữa khách hàng và miền nhà cung cấp, vì thế hỗ trợ các đối tuợng QoS đầu cuối- đầu cuối. Đỗ Tiến Dũng-Lớp K46ĐA 51 Chuyển mạch nhãn đa giao thức MPLS TÀI LIỆU THAM KHẢO [1] [DSTE-PRO] F. Le Faucheur, “Protocol Extensions for Support of DiffServ-aware MPLS Traffic Engineering” draft-ietf-tewg-diff-te-pro-03.txt, Feb 2002 [2] [E2E-QoS] V.FineBerg, “A Practical Architecture for Implementing End-to-End in an IP Network”, IEEE Communications Magazine, Jan 2002. [3] [MPLS-arch] Rosel et al. “Multiprotocol Label Switching Architechture” work in progress (draft –ietf-mplsframework-05) March 2000 [4] [MPLS-DiffServ] F. Le Faucheur, et al, “MPLS Support of Differentiated Services” RFC3270, May 2002 [5] [MPLS-UNI] A, Malis, D. Sinicrope, “MPLS PVC UNI Implemetation Agreement: Baseline Text” MPLS Forum draft, mplsforum2002.035, Mar. 5,2002. [6] [Qmgmt] P, Schicker, “Class of Services Queue Management in Switches/Routerss” MPLS Forum draft, mplsforum2002.035, Mar. 5,2002. [7] [RSVP-TE] D. Awduche, et al, “RSVP-TE: Extensions to RSVP for LSP Tunnels” RFC3209, Dec. 2001. [8] [TE-RQ] D. Awduche, et al, “Requirements for Traffic Engineering over MPLS ” RFC2702, Sep.1999. [9] [VPN] Eric C.Rosen, et al, “BGP/MPLS VPNs”, dratf-ietf-ppvpn-rfc2547bis- 03.txt, Oct.2002. [10] MPLS and IP Quanlity of Service In Service Provider ATM Network. Cisco Systems White Paper. [11] Multiprotocol Label Switching. Web Tutorials. [12] QoS protocols and Architectures. Qosforum.com White Paper. [13] Quanlity of Service (QoS). Web Technology Document. [14] Victoria FineBerg, Consultant. QoS support in MPLS Network. MPLS/ Frame Relay Alliance White Paper Đỗ Tiến Dũng-Lớp K46ĐA 52

Các file đính kèm theo tài liệu này:

  • pdfChuyển mạch nhãn đa giao thức mpls (đh qg hn).pdf