MỤC LỤC
ĐẶT VẤN ĐỀ .
MỤC LỤC .
THUẬT NGỮ VIẾT TẮT .
CHƯƠNG 1 : CHUYỂN MẠCH NHÃN ĐA GIAO THỨC MPLS
1.1. Tổng quan chuyển mạch nhãn đa giao thức
1.1.1. Giới thiệu .
1.1.2. Định tuyến và chuyển mạch gói truyền thống .
1.1.3. MPLS là gì ?
1.1.4. Lợi ích của MPLS
1.2. MPLS và các thành phần .
1.2.1. LERs và LSRs
1.2.2. Lớp chuyển tiếp tương đương FEC
1.2.3. Nhãn .
1.2.4. Tuyến chuyển mạch nhãn (LSP)
1.2.5. Giao thức phân phối nhãn
1.2.6. Kĩ thuật điều khiển lưu lượng
1.2.7. Định tuyến ràng buộc .
1.3. Hoạt động của mạng MPLS .
1.4. Đường hầm trong MPLS
1.5. Kiến trúc hệ thống giao thức MPLS
1.6. Các ứng dụng của MPLS .
1.7. Tóm tắt chương .
CHƯƠNG 2 : CHẤT LƯỢNG DỊCH VỤ .
2.1. Mở đầu .
2.1.1. Động lực QoS .
2.2. Các định nghĩa cơ bản
2.2.1. QoS là gì ?
2.2.2. Một số khái niệm cơ bản của QoS .
2.2.3. Điều kiện cần thiết cho QoS .
2.3. Kiến trúc cơ bản của QoS .
2.3.1. Phân biệt và đánh dấu .
2.3.2. QoS trong các phần tử mạng riêng lẻ .
2.3.3. Quản lý chất lượng dịch vụ
2.4. Mức chất lượng dịch vụ đầu cuối-đầu cuối
2.5. Tóm tắt chương .
CHƯƠNG 3 : CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG MPLS
3.1. Mở đầu .
3.2. Mô hình QoS và TE ban đầu
3.2.1. IntServ với RSVP .
3.2.2. DiffServ
3.2.3. MPLS .
3.3. MPLS với DiffServ
3.3.1. MPLS hỗ trợ DiffServ
3.3.2. Kĩ thuật điều khiển lưu lượng DiffServ-Aware MPLS
3.4. Thực hiện quản lý hàng đợi trong MPLS-DiffServ
3.5. Các thành phần QoS trong MPLS UNI
3.6. Tóm tắt chương
KẾT LUẬN .
TÀI LIỆU THAM KHẢO
53 trang |
Chia sẻ: lvcdongnoi | Lượt xem: 2317 | Lượt tải: 0
Bạn đang xem trước 20 trang tài liệu Khóa luận Chuyển mạch nhãn đa giao thức mpls, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
một
luồng bằng cách hạn chế thông lượng (throughput) của luồng khác.
Yoram Bernet đã phân biệt giữa định nghĩa QoS thụ động và chủ động. Định
nghĩa thụ động miêu tả chất lượng dịch vụ như là lưu lượng chuyển tải qua mạng.
Trong khi định nghĩa chủ động liên quan tới quá trình điều khiển chất lượng dịch vụ
thu được bởi lưu lượng chuyển qua mạng. Định nghĩa chủ động của Bernet về chất
lượng dịch vụ mạng là “ Khả năng điều khiển các quá trình xử lý lưu lượng trong
mạng để mạng có thể gặp được đòi hỏi dịch vụ của ứng dụng nào đó và các chính sách
mà người dùng đưa ra đối với mạng”.
Jerry Ash cung cấp một tập hợp mở rộng các định nghĩa liên quan tới TE và
QoS từ quan điểm của nhà cung cấp dịch vụ. Trong khi khả năng quản lý và hoạch
định mạng đảm bảo cho chức năng của mạng trong tương lai, quản lý lưu lượng lại
liên quan tới việc tối ưu nguồn tài nguyên có sẵn của mạng dưới các điều kiện khác
Đỗ Tiến Dũng-Lớp K46ĐA
26
Khoá luận tốt nghiệp
nhau. Quản lý lưu lượng bao gồm các chức năng điều khiển định tuyến, quản lý bảng
định tuyến, định tuyến động.
Trong [TE-QoS], QoS được định nghĩa là “một tập hợp các yêu cầu gặp phải
bởi mạng khi truyền dẫn một kết nối hay một luồng, hay tập hợp các ảnh hưởng của
chức năng dịch vụ mà xác định mức độ thoả mãn của người dùng dịch vụ”. Định nghĩa
này là “thụ động” theo phân biêt của Bernet, nhưng định nghĩa sau của Quản lý tài
nguyên QoS là “chủ động” : “chức năng mạng mà bao gồm phân biệt cấp độ dịch vụ,
rút ra bảng định tuyến, quản lý kết nối, cấp phát băng thông, bảo vệ băng thông, dành
sẵn băng thông, định tuyến ưu tiên, hàng đợi ưu tiên”.
Tóm lại, ta sẽ nói về QoS như là sự yêu cầu dịch vụ của rất nhiều các ứng
dụng, và về các quá trình QoS / các chức năng quản lý tài nguyên QoS như quá trình
điều khiển mạng mà cho phép một mạng thoả mãn QoS.
Yêu cầu dịch vụ của các ứng dụng khác nhau có thể biểu diễn bằng một tập
các tham số bao gồm băng thông, trễ, rung pha, mất mát gói, quyền ưu tiên và một vài
thứ khác. Ví dụ thoại và các ứng dụng multimedia rất nhạy cảm với trễ và rung pha,
trong khi các ứng dụng truyền dữ liệu có thể đòi hỏi mất mát gói rất thấp. Chúng ta sẽ
xem các tham số đó là các biến QoS.
2.2.2. Một số khái niệm cơ bản của QoS
Trễ
Trễ là khoảng thời gian một bản tin chiếm khi truyền từ điểm này sang điểm
khác trên mạng. Trễ bao gồm một số thành phần như thời gian tiêu tốn trong hàng đợi
của bộ định tuyến-trễ xếp hàng, thời gian cần thiết để thực hiện quyết định trong bộ
định tuyến-trễ chuyển tiếp, thời gian cần thiết để tuyến vật lý truyền dữ liệu-trễ lan
truyền và thời gian sử dụng để đặt gói tin lên mạng-trễ nối tiếp hoá. Thành phần có thể
được quản lý với QoS là trễ xếp hàng. Gói có ưu tiên cao hơn sẽ được đưa ra để truyền
trước các gói có ưu tiên thấp hơn và các kĩ thuật quản lý hàng đợi như RED có thể
được sử dụng.
Rung pha
Rung pha được định nghĩa như sự biến đổi trong các trễ chuyển tiếp đầu cuối-
đầu cuối. Trong một số ứng dụng, như các ứng dụng thời gian thực không thể chấp
nhận rung pha. Giao thức TCP cũng thực hiện rất kém dưới tác dụng của rung pha, vì
nó cố gắng điều chỉnh tốc độ truyền dẫn của nó tương ứng.
Đỗ Tiến Dũng-Lớp K46ĐA
27
Chuyển mạch nhãn đa giao thức MPLS
Băng thông
Băng thông biểu thị tốc độ tryền dữ liệu cực đại có thể đạt được giữa hai điểm
kết cuối
Tổn hao
Tổn hao gói tin là trường hợp khi gói tin không tới được đích của nó trước thời
gian timeout của bộ thu. Trong mạng TCP/IP thì tổn hao gói tin chủ yếu là do nghẽn,
đây là nguyên nhân tạo ra sự tràn bộ nhớ hoặc loại bỏ gói tin bởi các phương tiện quản
lý lưu lượng.
Cấp độ dịch vụ (CoS)
Khái niệm cấp độ dịch vụ CoS có nghĩa hẹp hơn QoS và chỉ ra một cách đơn
giản rằng các dịch vụ có thể phân loại được trong các cấp độ khác nhau, có thể được
cung cấp cho người sử dụng và được quản lý độc lập.
Thoả thuận mức dịch vụ (SLA)
SLA là hợp đồng giữa khách hàng và nhà cung cấp dịch vụ SP, SLA định mức
dịch vụ nào SP định cung cấp. Ý tưởng rất đơn giản : khách hàng nào báo cáo bao
nhiêu lưu lượng họ sẽ gửi và trả tiền cho mức độ tối thiểu được đảm bảo trong lưu
lượng đó.
2.2.3. Điều kiện cần thiết cho QoS.
Với QoS như được định nghĩa ở trên, chúng ta hãy xem xét các yêu cầu cơ bản
mà cần phải có để có thể thu được nó. Để có thể cung cấp QoS cho nhiều loại yêu cầu
của ứng dụng (ví dụ : thoại, multimedia..), mạng phải thoả mãn hai điều kiện cần thiết
o Điều kiện thứ nhất là băng thông phải được đảm bảo cho một ứng dụng
dưới các điều kiện khác nhau, bao gồm cả nghẽn và lỗi.
o Điều kiện thứ hai là khi một ứng dụng truyền qua mạng, nó phải nhận được
sự đối xử dựa trên cấp độ thích hợp, bao gồm cả sự sắp xếp và việc loại bỏ
gói. Chúng ta có thể nghĩ là hai điều kiện đó là trực giao. Một luồng có thể
có băng thông hiệu quả nhưng phải chịu trễ (điều kiện thứ nhất đạt được
còn điều kiên thứ hai thì không). Hoặc một luồng có thể được phục vụ một
cách thích hợp trong mọi node mạng nhưng bị chấm dứt hoặc bị méo bởi sự
dao động một chút của băng thông (điều kiện thứ hai đạt được nhưng điều
kiện thứ nhất thì không). Vì thế cần phải thoả mãn cả hai điều kiện này để
Đỗ Tiến Dũng-Lớp K46ĐA
28
Khoá luận tốt nghiệp
thu được đảm bảo QoS chắc chắn mà đã được yêu cầu bởi nhà cung cấp
dịch vụ và khách hàng của họ.
2.3 Kiến trúc cơ bản của QoS
Kiến trúc cơ bản đối với việc thực thi QoS bao gồm ba phần cơ sở
o Kĩ thuật phân biệt (identification) và đánh dấu (marking) QoS cho việc định
QoS từ đầu cuối tới đầu cuối giữa các phần tử mạng
o QoS trong các phần tử mạng riêng lẻ ( Ví dụ : hàng đợi, sắp xếp và các
công cụ hoạch định lưu lượng)
o Chức năng kiểm soát, quản lý, hoạch định (accouting) đối với việc điều
khiển và quản trị lưu lượng đầu cuối-đầu cuối qua mạng
Hình 10 : Kiến trúc cơ bản của QoS
2.3.1. Phân biệt và đánh dấu QoS
Phân biệt và đánh dấu được thực hiện thông qua phân loại (classification) và
điều phối (reservation)
- Phân loại
Để cung cấp dịch vụ hoàn hảo cho một loại lưu lượng thì đầu tiên nó phải
được phân biệt. Bước thứ hai gói có thể được đánh dấu. Hai bước đó tạo thành quá
trình phân loại. Khi một gói được phân biệt nhưng không được đánh dấu, phân loại
được xem là trên cơ sở mỗi chặng (per hop), khi mà việc phân loại chỉ liên quan tới
thiết bị mà nó vào, không liên quan tới router tiếp theo. Điều này xảy ra với hàng đợi
ưu tiên (PQ) và hàng đợi tùy ý (CQ). Khi gói được đánh dấu cho việc sử dụng rộng rãi
trên mạng, bit IP ưu tiên có thể được đặt.
Đỗ Tiến Dũng-Lớp K46ĐA
29
Chuyển mạch nhãn đa giao thức MPLS
Các phương pháp phân biệt luồng thông dụng gồm điều khiển danh sách truy
cập (ACL-Access control list), định tuyến kiểm soát (policy-base routing), tốc độ truy
cập cam kết (CAR-commited access rate), thừa nhận ứng dụng mạng (NAR-
network-base application recognition)
2.3.2. QoS trong các phần tử mạng riêng lẻ
Quản lý tắc nghẽn, quản lý hàng đợi, hiệu suất tuyến và các công cụ hoạch
định/kiểm soát cung cấp QoS với các phần tử đơn lẻ của mạng
- Quản lý tắc nghẽn
Bởi bản chất bùng nổ tự nhiên của voice/video/dữ liệu, thỉnh thoảng số lượng
lưu lượng vượt quá tốc độ của tuyến. Trong trường hợp đó, router sẽ làm gì? Liệu nó
sẽ lưu trữ các lưu lượng trong một hàng đợi và để gói đầu tiên là gói đầu sẽ ra? Hay nó
sẽ đặt các gói trong các hàng đợi khác nhau và phục vụ hàng đợi nào đó thường xuyên
hơn? Công cụ quản lý tắc nghẽn sẽ quan tâm tới câu hỏi này. Công cụ bao gồm hàng
đợi ưu tiên (PQ), hàng đợi tùy ý (CQ), hàng đợi trọng số (WFQ-weighted fair
queuing), hàng đợi có trọng số dựa trên cấp độ (CBWFQ-class-base weighted fair
queuing).
- Quản lý hàng đợi
Bởi vì hàng đợi không phải kích thước vô hạn, nên nó sẽ đầy và tràn. Khi hàng
đợi đầy. Bất cứ một gói thêm nữa bất kì sẽ không thể vào trong hàng đợi và nó sẽ bị
bỏ. Đây là hiện tượng bỏ đuôi (tail drop). Vấn đề với bỏ đuôi là router sẽ không thể
bảo vệ những gói này khỏi bị bỏ( kể cả những gói ưu tiên cao). Vì vậy cần thiết có một
quá trình thực hiện hai việc:
o Cố gắng đảm bảo rằng hàng đợi không bị làm đầy, vì thế cần có một không
gian cho các gói ưu tiên cao
o Cần có một vài loại tiêu chuẩn đối với việc bỏ một gói có mức ưu tiên thấp
trước khi bỏ gói có mức ưu tiên cao
Phát hiện trọng số sớm ngẫu nhiên(Weighted early random detect-WERD)
cung cấp phương thức thực hiện những quá trình này
- Hiệu suất tuyến
Nhiều lần các tuyến tốc độ thấp nảy sinh vấn đề với các gói lớn. Ví dụ trễ nối
tiếp của gói 1500 byte trong một tuyến 56kbps
Đỗ Tiến Dũng-Lớp K46ĐA
30
Khoá luận tốt nghiệp
-Kích thước của gói: 1500byte . 8bit/byte = 12000bit
-Tốc độ tuyến : 56000 bps
Kết quả : Trễ sẽ là 12000/56000 = 0.214s hay 214ms
Nếu một gói thoại tới sau một gói kích thước lớn. Trễ của thoại sẽ quá lớn
thậm chí ngay cả trước khi gói rời router! Chia nhỏ tuyến và ghép xen cho phép chia
các gói lớn thành các gói nhỏ hơn và ghép xen vào các gói thoại. Ghép xen cũng quan
trọng như chia nhỏ. Không có lý do gì để chia nhỏ gói mà để những gói thoại theo sau
những gói đã được chia nhỏ.
Một yếu tố ảnh hưởng khác nữa là việc loại trừ quá nhiều các bit mào đầu
(overhead bit). Ví dụ tiêu đề gói RTP có 40byte, với một tải cỡ nhỏ cũng phải khoảng
20 byte, và trong một số trường hợp thì mào đầu có thể bị gấp đôi.
- Kiểm soát và hoạch định lưu lượng
Hoạch định được sử dụng để tạo một luồng lưu lượng mà giới hạn khả năng
băng thông tối đa của luồng. Nó được sử dụng rất nhiều để tránh vấn đề tràn như đã đề
cập ở phần giới thiệu. Ví dụ, nhiều topo mạng sử dụng Frame Relay trong thiết kế hub-
and-spoke. Trong trường hợp này, điểm trung tâm thường có tuyến băng thông cao
(T1), trong khi các điểm ở xa có băng thông thấp hơn (384kbps). Trong trường hợp
này có thể lưu lượng từ điểm trung tâm sẽ bị tràn tại tuyến băng thông thấp. Hoạch
định là một cách hoàn hảo để lưu lượng gần với 384Kbps để tránh tràn ở điểm ở xa.
Lưu lượng được lưu trữ tạm thời để truyền dẫn sau đó để duy trì tốc độ đã định.
Kiểm soát tương tự như hoạch định, nhưng khác một khía cạnh rất quan trọng:
Lưu lượng ở một tốc độ xác định không được lưu trữ tạm thời (và thường bị bỏ).
2.3.3. Quản lý chất lượng dịch vụ
Quản lý chất lượng dịch vụ cho phép đặt và đánh giá mục đích và kiểm soát
chất lượng dịch vụ. Các phương pháp thông thường theo những bước sau:
o Bước 1 : Vạch ranh giới mạng với các thiết bị. Nó giúp cho việc xác định
đặc tính lưu lượng của mạng. Cũng như thế các ứng dụng với mục tiêu vì
chất lượng dịch vụ có thể được phân chia ( thường dựa vào thời gian đáp
ứng).
o Bước 2 : Triển khai các kĩ thuật QoS khi đã thu được các đặc tính lưu lượng
và các ứng dụng vì mục tiêu tăng chất lượng dịch vụ.
Đỗ Tiến Dũng-Lớp K46ĐA
31
Chuyển mạch nhãn đa giao thức MPLS
o Bước 3 : Đánh giá kết quả bằng việc kiểm thử đáp ứng của các ứng dụng để
xem khi nào mục tiêu chất lượng dịch vụ đã đạt được.
Để dễ dàng phát triển, có thể sử dụng Quản lý kiểm soát chất lượng dịch vụ
của Cisco(QPM-QoS policy manager), Quản lý thiết bị chất lượng dịch vụ (QDM-QoS
devices manager). Để kiểm định mức dịch vụ, có thể sử dụng Giám sát chức năng
mạng của Cisco (IPM-Internetwork Performance Monitor)
2.4. Mức chất lượng dịch vụ đầu cuối-đầu cuối
Mức độ dịch vụ liên quan tới khả năng chất lượng dịch vụ đầu cuối-đầu cuối
thực tế, có nghĩa là khả năng cung cấp các dịch vụ cần thiết bằng cách xác định rõ lưu
lượng đầu cuối-đầu cuối hay biên-biên(edge-to-edge). Các dịch vụ khác nhau ở mức
độ chất lượng dịch vụ, miêu tả chặt chẽ cách thức xác định giới hạn dịch vụ bằng cách
xác định băng thông, trễ, rung pha, và đặc tính mất mát.
Có ba mức cơ bản của chất lượng dịch vụ đầu cuối-đầu cuối có thể được cung
cấp bởi mạng không đồng nhất:
Hình 11 : Ba mức của Chất lượng dịch vụ đầu cuối-đầu cuối
o Best-efford service : Có rất ít chất lượng dịch vụ, best-efford service cơ bản
dựa trên kết nối không có sự đảm bảo. Được đặc trưng bởi hàng đợi FIFO,
không có sự khác biệt giữa các luồng.
o Differentiated service ( còn gọi là chất lượng dịch vụ mềm) : Một vài luồng
được đối xử tốt hơn các luồng khác ( tiến hành nhanh hơn, băng thông trung
bình cao hơn, tốc độ mất mát trung bình thấp hơn). Đây là sự ưu tiên mang
tính thống kê, không phải là đảm bảo cứng và nhanh. Nó được thực hiện
bằng cách phân loại lưu lượng và sử dụng các công cụ chất lượng dịch vụ
như PQ, CQ, WFQ, và WRED.
Đỗ Tiến Dũng-Lớp K46ĐA
32
Khoá luận tốt nghiệp
o Gruaranteed service ( còn gọi là chất lượng dịch vụ cứng) : Thực sự là cách
dành riêng tài nguyên mạng cho lưu lượng xác định thông qua các công cụ
chất lượng dịch vụ như RSVP, CBWFQ.
Quyết định loại dịch vụ thích hợp với mạng triển khai phụ thuộc vào vài nhân
tố:
o Ứng dụng hay khó khăn mà khách hàng đang cố gắng giải quyết. Mỗi loại
dịch vụ thích hợp cho ứng dụng nhất định.
o Tốc độ mà khách hàng thực tế có thể nâng cao hệ thống của họ. Có một
phương thức nâng cao tự nhiên từ công nghệ cần thiết để cung cấp các dịch
vụ khác nhau cho tới sự cần thiết cung cấp các dịch vụ bảo đảm.
o Cái giá cho việc thực thi và triển khai các dịch vụ đảm bảo (Gruaranteed
Service) cao hơn so với dịch vụ phân biệt (Differentiated service).
2.5. Tóm tắt chương
Trong chương 2, chúng ta đã là quen với các khái niệm cơ bản về chất lượng
dịch vụ (QoS) cũng như kiến trúc cơ bản của QoS.
Chất lượng dịch vụ (QoS) cung cấp dịch vụ khác biệt ( Differentiated service),
cung cấp mức ưu tiên cao hơn cho các luồng hay dịch vụ đảm bảo (Guranteed service)
cung cấp sự đảm bảo mức độ dịch vụ. Cả hai tương phản với Best-effort service, cung
cấp những gì mà được xem như là có rất ít QoS.
Đỗ Tiến Dũng-Lớp K46ĐA
33
Chuyển mạch nhãn đa giao thức MPLS
CHƯƠNG 3 : CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG MPLS
3.1. Mở đầu
Chuyển mạch nhãn đa giao thức thường xuyên được đề cập tới chủ yếu xung
quanh vấn đề công nghệ chất lượng dịch vụ cho mạng chuyển mạch gói. Trong khi
thực tế rằng MPLS đóng vai trò rất quan trọng trong việc cho phép QoS, QoS lại
không phải là một thành phần cơ bản của MPLS. Cụ thể hơn, MPLS cung cấp môi
trường hướng kết nối cho phép kĩ thuật điều khiển luồng của mạng chuyển mạch gói.
Kĩ thuật điều khiển luồng có thể đảm bảo băng thông cho rất nhiều luồng khác nhau,
đó là điều kiện cần cho QoS. Để điều khiển trễ và rung pha trong các ứng dụng nhạy
cảm về thời gian (là một đòi hỏi chủ yếu khác của chất lượng dịch vụ). MPLS-TE phải
kết hợp công nghệ cung cấp luồng lưu lượng với cách đối xử đối với những cấp độ
nhất định của chúng, ví dụ như Giao thức dành sẵn tài nguyên (RSP) với mở rộng báo
hiệu đường hầm (RSVP-TE), và chuyển tiếp dựa trên dịch vụ phân biệt (DiffServ).
Chương này thảo luận các kiến trúc khác nhau và việc triển khai các mặt của mạng
đưòng trục chuyển mạch gói cho phép MPLS, cũng như các thành phần QoS của giao
diện MPLS UNI được định nghĩa bởi MPLS/ Frame Relay Alliance.
3.2. Mô hình QoS và TE ban đầu
Khi cộng đồng liên mạng nhận ra sự cần thiết của QoS trong mạng chuyển
mạch gói, một vài hướng hé mở. Dịch vụ tích hợp (IntServ) cùng với giao thức báo
hiệu RSVP, cung cấp kiến trúc QoS xác thực đầu tiên. Tuy nhiên sau khi xem xét
những vấn đề về sự linh hoạt và vận hành của IntServ với RSVP, IETF đã định nghĩa
kiến trúc dịch vụ phân biệt (DiffServ), với dạng cơ bản không đòi hỏi giao thức báo
hiệu. Sau đó MPLS được đưa ra như một cách tiếp cận hướng kết nối thích hợp với
không kết nối dựa trên mạng IP, và nó cho phép công nghệ điều khiển lưu lượng.
3.2.1 IntServ với RSVP
IntServ đã định nghĩa những đòi hỏi cho các quá trình QoS để thoả mãn hai
mục đích:
1. để phục vụ các ứng dụng thời gian thực
2. để điều khiển việc chia sẻ băng thông giữa các cấp độ lưu lượng khác nhau
Hai kiểu dịch vụ đã được định nghĩa tuân theo kiến trúc IntServ :
Đỗ Tiến Dũng-Lớp K46ĐA
34
Khoá luận tốt nghiệp
Dịch vụ đảm bảo ( Guaranteed Service ) và Dịch vụ tải được điều khiển
(Controlled Load Service), cả hai đều tập trung vào những đòi hỏi của ứng dụng riêng
lẻ.
Dịch vụ đảm bảo được định nghĩa để cung cấp mức độ chắc chắn của băng
thông, một biên trễ đầu cuối-đầu không đổi, không mất mát hàng đợi; và nó được dự
kiến cho các ứng dụng thời gian thực như thoại và video. Định nghĩa dịch vụ tải được
điều khiển không bao gồm bất kì một sự đảm bảo chất lượng chắc chắn nhưng nó đúng
hơn là “ sự xuất hiện của một mạng tải nhẹ”. Nó dự định dành cho các ứng dụng mà có
thể dung sai trong một khoảng giới hạn lượng mất mát và trễ, bao gồm các ứng dụng
thời gian thực thích nghi.
Để có thể đạt được các mục tiêu đã đề ra và cung cấp các dịch vụ dự kiến, mô
hình IntServ gồm rất nhiều các tham số lưu lượng như tốc độ và giới hạn chùng (slack
term) cho dịch vụ đảm bảo; và tốc độ trung bình và kích cỡ bùng nổ (burst size) cho
dịch vụ tải được điều khiển. Để thiết lập giá trị những tham số này trong một mạng và
để cung cấp dịch vụ đảm bảo cho lưu lượng thời gian thực, RSVP được phát triển như
giao thức báo hiệu cho việc dành sẵn và điều khiển hiện.
Kiến trúc IntServ đã thoả mãn cả hai điều kiện cho mạng QoS. Nó cung cấp
băng thông thích hợp và tài nguyên hàng đợi cho mỗi luồng ứng dụng ( một “vi
luồng”). Tuy nhiên triển khai IntServ với RSVP đòi hỏi trạng thái mỗi vi luồng và báo
hiệu ở mỗi chặng. Nó thêm sự phức tạp đáng kể đối với việc vận hành mạng và không
linh hoạt. Vì thế mô hình IntServ chỉ được triển khai ở một số hữu hạn mạng, và IETF
đã chuyển sang phát triển hướng DiffServ thay thế với sự phức tạp tối thiểu.
3.2.2 DiffServ
Kiến trúc DiffServ thừa nhận một khía cạnh trái ngược với IntServ. Nó định
nghĩa Cấp độ dịch vụ (CoS), gọi là toàn thể (Aggregates), và chức năng quản lý tài
nguyên QoS với mỗi node, hay mỗi chặng (Per-Hop). Các định nghĩa CoS bao gồm
hành vi toàn thể (BA) xác định những yêu cầu cho việc sắp xếp (scheduling) và loại bỏ
gói, và thứ tự toàn thể (OA) thực hiện dựa trên phân loại chỉ dựa trên yêu cầu sắp xếp,
và có thể gồm vài giá trị loại bỏ ưu tiên. Vì thế OA là cách phân loại thô hơn BA và có
thể gồm vài BA. Hành vi của node định nghĩa tương ứng với các định nghĩa CoS.
Hành vi cho mỗi chặng (PHB) liên quan tới BA, trong khi sắp xếp cấp độ hành vi mỗi
chặng (PSC-PHB Scheduling Class) phục vụ OA. Các quá trình PHB gồm sắp xếp và
loại bỏ gói, trong khi PSC chỉ đề cập tới việc sắp xếp.
Đỗ Tiến Dũng-Lớp K46ĐA
35
Chuyển mạch nhãn đa giao thức MPLS
Mô hình DiffServ dựa vào việc định nghĩa lại ý nghĩa của 8 bit trường ToS
trong tiêu đề IP. Định nghĩa ToS gốc không được triển khai rộng rãi, và bây giờ nó bị
chia thành 6 bit giá trị DSCP và 2 bit phần ECN
Ưu tiên D T R C O
DiffServ Code Point(DSCP) ECN ECN
Xác định trường DiffServ
8 Bit ToS của IP
Hình 12 : Mối liên hệ giữa ToS và DiffServ/ECN
Trong hình 12, Các chữ cái biểu thị như sau : D = Delay, T = Throughput, R =
Reliability, C = Cost, ECN = Explicit Congestion Notification
Giá trị của trường DSCP được dùng để định BA ( ví dụ : một lớp), được sử
dụng tuỳ theo node DiffServ để chọn PHB phù hợp. Mười bốn PHB đã được định
nghĩa, gồm một cho chuyển tiếp đã giải quyết (EF), mười hai cho chuyển tiếp chắc
chắn (AF), và một cho mặc định hoặc Best-Effort PHB. Mười hai AF PHB được chia
thành 4 PSC, và mỗi AF-PSCs chứa ba hành vi phụ liên quan tới cách thức loại bỏ gói
khác nhau.
Tóm lại, mô hình DiffServ cho phép mạng phân loại (kết hợp) các vi luồng
thành luồng toàn thể (BAs) và sau đó cho phép cư xử khác nhau toàn thể ở mỗi node
có khả năng DiffServ. Cách cư xử này được phản ánh trong quá trình phục vụ hàng đợi
bao gồm sắp xếp và loại bỏ gói. PHB được phản ánh trong cả sắp xếp và loại bỏ gói
trong khi PSC chỉ áp dụng cho sắp xếp.
3.2.3 MPLS
a) MPLS-TE
Phương pháp chuyển mạch nhãn đầu tiên được hình thành để cải thiện chức
năng định tuyến, nhưng sự thúc đẩy này đã được giảm bớt với các thành tựu trong thiết
kế router và tốc độ chuyển mạch đường của gói IP tự nhiên. Nhưng sau đó ưu điểm
quan trọng nhất của kiến trúc MPLS qua chuyển tiếp IP tự nhiên trở nên rõ ràng. Bản
chất hướng kết nối của MPLS cho phép các nhà cung cấp dịch vụ có thể triển khai TE
Đỗ Tiến Dũng-Lớp K46ĐA
36
Khoá luận tốt nghiệp
trong mạng của họ và đạt được rất nhiều mục đích, gồm đảm bảo băng thông, định
tuyến thay đổi, cân bằng tải, dư thừa tuyến, và các dịch vụ khác dẫn tới QoS
[TE-REQ] nêu vấn đề và đòi hỏi triển khai TE trong mạng MPLS. Nó cung
cấp định nghĩa chung của TE như tập hợp các quá trình cho việc tối ưu hóa chức năng
vận hành mạng để thu được các mục tiêu đã đặt ra và miêu tả cách thức MPLS hỗ trợ
TE bằng việc điều khiển và các quá trình đo kiểm.
[TE-REQ] sử dụng khái niệm tuyến lưu lượng (TT) MPLS là toàn thể các
luồng lưu lượng cùng cấp độ đặt trong một LSP. Phân biệt một cách nguyên tắc giữa
TT và LSP là TT là luồng lưu lượng toàn thể, trong khi LSP là một tuyến mà một TE
đi qua mạng. Ví dụ, trong suốt qua trình, TT có thể sử dụng nhiều LSP khác nhau,
[TE-REQ] miêu tả một framework cho việc ánh xạ các TT thành các LSP bằng việc
xem xét tập hợp ba khả năng:
o Các thuộc tính TT
o Phân bổ tài nguyên mà được sắp xếp ràng buộc cho TT
o phương pháp định tuyến ràng buộc mà cho phép chọn các LSP cho các TT
Thuộc tính TT của đối tượng được quan tâm là các tham số lưu lượng, mức ưu
tiên, quyền ưu tiên. Thuộc tính tham số lưu lượng có thể bao gồm các giá trị tốc độ
đỉnh, tốc độ trung bình, kích thước bùng nổ và các yêu cầu tài nguyên khác của một
tuyến lưu lượng mà có thể được sử dụng để cấp phát tài nguyên và tránh tắc nghẽn.
Thuộc tính mức ưu tiên cho phép quá trình định tuyến ràng buộc thiết lập một thứ tự
trong việc lựa chọn tuyến mà các TT ưu tiên cao hơn sẽ có cơ hội đòi hỏi tài nguyên
mạng trước so với các TTs ưu tiên thấp hơn. Tham số quyền ưu tiên xác định khi nào
một TT có thể hay không thể ưu tiên và có thể hay không thể được ưu tiên bởi TT
khác.
Thuộc tính tài nguyên là các tham số trạng thái giao thức như cấp phát hợp
kênh tối đa (MAM) cho phép người vận hành mạng cấp phát hơn hoặc kém tài nguyên
hơn khả năng của tuyến để thu được mục đích đăng kí rất sớm hay dự trữ trước một
cách thích hợp; và thuộc tính cấp độ tài nguyên cho phép người vận hành mạng phân
loại tài nguyên mạng và áp dụng vào việc kiểm soát dựa trên cấp độ tài nguyên.
Định tuyến ràng buộc, đôi khi còn xem như “định tuyến QoS” cho phép một
nhu cầu được thúc đẩy (demand-driven), môi trường định tuyến nhận thức dành sẵn tài
nguyên nơi một I-LER tự động xác định tuyến hiện cho mỗi TT mà nó xử lý.
Đỗ Tiến Dũng-Lớp K46ĐA
37
Chuyển mạch nhãn đa giao thức MPLS
CR yêu cầu vài khả năng mạng bao gồm:
o Mở rộng điều khiển lưu lượng cho IGPs OSPF và IS-IS, ví dụ OSPF-TE và
ISIS-TE được định nghĩa trong [OSPF-TE] và [ISIS-TE] một cách tương
ứng, để mang thêm thông tin về băng thông cực đại của tuyến, băng thông
dành sẵn cực đại, băng thông dành sẵn hiện tại ở mỗi mức ưu tiên, và các
giá trị khác để cho phép hệ thống quản lý mạng phát hiện tuyến mà gặp các
TT ràng buộc, sự sẵn sàng tài nguyên, cân bằng tải và tìm lại đối tượng.
o Thuật toán mà chọn tuyến khả thi dựa trên thông tin thu được từ IGPs-TE
(ví dụ bằng việc cắt bỏ các tuyến không có khả năng và chạy thuật toán SPF
trên tuyến đang duy trì dẫn đến tuyến ngắn nhất bắt buộc (CSPF)) và sinh
tuyến hiện.
o Phân phối nhãn bởi giao thức cho phép TE như RSVP-TE; RSVP-TE mang
thông tin về tuyến hiện được xác định bởi thuật toán CR và vài đối tượng
bao gồm báo hiêu thiết lập và thuộc tính nắm giữ mức ưu tiên, thuộc tính
quyền ưu tiên, và vài cái khác nữa.
o Quản lý băng thông hay chức năng quản trị ở mỗi node mà thực hiện đánh
giá tài nguyên đã sử dụng và vẫn còn tại mỗi node, và cung cấp những
thông tin này tới IGP-TE và RSVP-TE.
Với những quá trình này, MPLS-TE cho phép nhà cung cấp tạo tuyến linh
hoạt với băng thông dành sẵn và điều khiển lưu lượng của chúng qua rất nhiều đối
tượng mạng. Để đảm bảo băng thông giữa các tuyến, những sự dành sẵn MPLS-TE
phải được bổ xung các quá trình bảo vệ luồng từ giao diện với các luồng khác trong
suốt quá trình bùng nổ ngoài những giá trị đã được dự trữ. Những quá trình này bao
gồm kiểm soát luồng, dự trữ trước hoặc những quy tắc hàng đợi mà thúc đẩy phân chia
cân bằng của tuyến trong sự có mặt của sự cạnh tranh lưu lượng các luồng. Với hai
điều kiện của QoS : đảm bảo băng thông và các dịch vụ khác nhau-MPLS-TE quan
tâm tới điều kiện đầu tiên và RSVP-TE cung cấp cách thức cho việc điều khiển trễ và
sự biến thiên trễ trong các ứng dụng nhạy cảm với sự biến thiên thời gian.
b) RSVP-TE
RSVP được sử dụng rộng rãi cho việc phân phối nhãn trong mạng mà đòi hỏi
QoS và TE. RSVP-TE được định nghĩa trong [RSVP-TE] như là một tập các mở rộng
đường hầm đối với giao thức RSVP gốc như đã miêu tả ở trên. RSVP-TE được phát
triển cho rất nhiều các ứng dụng mạng khác nhau, với chỉ một thứ là kĩ thuật điều
Đỗ Tiến Dũng-Lớp K46ĐA
38
Khoá luận tốt nghiệp
khiển lưu lượng (TE). Vì vậy phần “TE” của RSVP-TE được hiểu một cách đúng cách
là “Mở rộng đường hầm” hơn là kĩ thuật điều khiển lưu lượng. Cũng vì thế, các kí hiệu
khác nhau tồn tại liên quan tới giao thức đã được định nghĩa trong [RSVP]; luận văn
này theo các thuật ngữ của [RSVP-TE] và gọi RSVP gốc là “RSVP chuẩn”.
RSVP-TE hoạt động trên các router có khả năng RSVP nơi mà mở rộng đường
hầm cho phép tạo các LSP đã được định tuyến hiện, cung cấp khả năng định tuyến lại
dễ dàng, và phát hiện lặp. Vài điểm khác biệt cơ bản giữa giao thức RSVP chuẩn và
RSVP-TE gồm :
o RSVP chuẩn cung cấp báo hiệu giữa các cặp host; RSVP cung cấp báo hiệu
giữa các cặp LERs.
o RSVP chuẩn ứng dụng cho các luồng đơn host-tới-host; RSVP-TE tạo trạng
thái cho luồng lưu lượng. Một LSP đường hầm thường tập hợp toàn thể các
đa luồng host-tới-host và vì thế giảm số lượng trạng thái RSVP trong mạng.
o RSVP chuẩn sử dụng giao thức định tuyến chuẩn hoạt động dựa vào địa chỉ
đích; RSVP-TE sử dụng IGPs mở rộng và định tuyến ràng buộc.
Nhưng cũng giống như RSVP chuẩn, RSVP-TE cũng hỗ trợ các mô hình dịch
vụ IntServ phong phú và cách phân phối các tham số điều kiện lưu lượng như tốc độ
trung bình, tốc độ đỉnh và kích thước bùng nổ cho dịch vụ tải đã điều khiển. Những
đặc điểm này cho phép mạng với MPLS-TE và RSVP-TE cung cấp các dịch vụ phong
phú với đòi hỏi QoS chặt chẽ. Một thiếu sót của giải pháp này là không có quá trình
loại bỏ gói. Một công nghệ quan tâm tới vấn đề này và cung cấp cách thức khác để
đảm bảo QoS được nói tới ở phần 3.
3.3 MPLS với DiffServ
3.3.1. MPLS hỗ trợ DiffServ
Bây giờ khi mà cả MPLS và DiffServ đã được xem xét, chúng ta có thể thảo
luận một công nghệ mà kết hợp hai giải pháp để đảm bảo QoS. Chúng ta hãy nhớ lại là
DiffServ cung cấp các cư xử QoS với toàn thể lưu lượng. Đó là một giải pháp linh hoạt
và vận hành đơn giản vì nó không đòi hỏi báo hiệu và trạng thái mỗi luồng. Tuy nhiên
nó không thể đảm bảo QoS, bởi vì nó không chi phối tuyến mỗi gói, và vì thế trong
suốt quá trình lỗi hoặc nghẽn, thậm chí gói ưu tiên cao cũng không được đảm bảo băng
thông.
Đỗ Tiến Dũng-Lớp K46ĐA
39
Chuyển mạch nhãn đa giao thức MPLS
Mặt khác, MPLS có thể đẩy gói theo những tuyến đã định và kết hợp với định
tuyến ràng buộc-có thể đảm bảo băng thông cho các FEC. Nhưng ở dạng cơ bản
MPLS không xác định các cư xử dựa trên cấp độ mỗi luồng.
Kết hợp phân loại dựa trên DiffServ và PHB với MPLS dựa trên TE dẫn tới
chất lượng dịch vụ thực sự trong mạng chuyển mạch gói đường trục. Các quá trình để
MPLS hỗ trợ DiffServ được miêu tả trong RFC3270[MPLS-DiffServ].
[MPLS-DiffServ] định nghĩa hai loại LSP : E-LSP và L-LSP. Trong E-LSP,
một nhãn được sử dụng để chỉ thị FEC đích, và 3 bit trường Exp được sử dụng để chỉ
thị cấp độ của luồng để chọn PHB của nó, bao gồm sắp xếp và loại bỏ ưu tiên. Chú ý
rằng DiffServ sử dụng 6 bit để định nghĩa các BA và tương ứng với các PHB, trong
khi E-LSP chỉ có 3 bít cho chức năng trên.
Trong L-LSP, nhãn được sử dụng để chỉ thị cả FEC đích và kế hoạch ưu tiên.
Trường Exp trong L-LSP chỉ được sử dụng để chỉ thị việc loại bỏ ưu tiên.
Ánh xạ giữa tiêu đề IP với DiffServ và tiêu đề chèn MPLS cho E-LSP và L-
LSP được chỉ ra trong hình 13 và 14 một cách tương ứng.Trong những hình này thuật
ngữ “5 tuple” liên quan tới 5 trường trong tiêu đề IP, bao gồm địa chỉ nguồn, địa chỉ
đích IP, cổng nguồn và đích TCP hay UDP, và giao thức có thể được sử dụng cho FEC
đang định nghĩa. Tất cả các thuật ngữ dựa vào kiến trúc DiffServ
BA
OA
5-tuple (FEC) ECN
Label( LSP = vài OA) EXP
PSC Drop
BA
OA
5-tuple (FEC) ECN
Label( LSP = một OA) EXP
PSC Drop
Hình 14 : Ánh xạ giữa tiêu đề IP và tiêu đề chèn MPLS với L-LSP
DSCP
Hình 13 : Ánh xạ giữa tiêu đề IP và tiêu đề chèn MPLS với E-LSP
DSCP
Đỗ Tiến Dũng-Lớp K46ĐA
40
Khoá luận tốt nghiệp
Chú ý rằng hình 13 và 14 biểu diễn ánh xạ một phần của tiêu đề gói IP tự
nhiên và nhãn và phần EXP của tiêu đề chèn MPLS. Chúng không tỉ lệ và không biểu
diễn toàn bộ cấu trúc của tiêu đề
Mỗi loại LSP có ưu điểm và nhược điểm của nó. E-LSP dễ vận hành và linh
hoạt hơn bởi vì nó bảo vệ nhãn và sử dụng trường EXP cho thành phần DiffServ.
Nhưng thực tế báo hiệu MPLS dành sẵn băng thông trên cơ sở mỗi LSP, băng thông
dành cho toàn bộ LSP và không có đảm bảo dựa trên PSC, và có thể thiếu băng thông
trong phục vụ hàng đợi một vài PSC nào đó.
Mặt khác, L-LSP có quá nhiều vấn đề với việc dự trữ, bởi vì cần thiết có nhiều
nhãn gắn cho tất cả các PSC của tất cả FEC. Nhưng (bởi vì nhãn mang thông tin về sắp
xếp) khi băng thông được dành sẵn cho một LSP đã cho, nó kết hợp với hàng đợi ưu
tiên mà LSP đó thuộc về.
Hai hình tiếp theo biểu diễn làm sao định tuyến và QoS cải thiện chất lượng
định tuyến mạng bằng việc sử dụng MPLS cơ bản và sau đó MPLS có hỗ trợ DiffServ.
E-LSR
LSR 5
LSR 4
LSR 3
LSR 2
LSR 1
I-LSR
(2)MPLS –TE không có CoS
(1)Đường ngắn nhất không có MPLS-TE
Hình 15 : Luồng gói trong MPLS không có DiffServ
Hình 15 biểu diễn sự khác nhau giữa một tuyến bởi các gói mà theo con đường
ngắn nhất (1) và tuyến đã được điều khiển lưu lượng (2). Tuyến (2) có thể được chọn
bởi vì nó có đủ băng thông để phục vụ một FEC đã định, nhưng băng thông này lại
không được kết hợp với bất kì cấp độ dịch vụ nào, và thế lưu lượng ưu tiên (ví dụ
VoIP) không thể có đủ băng thông cho hàng đợi nhất định của nó.
Hình 16 biểu diễn một cải tiến trong kiến trúc so với hình 15. Tuyến (1) và (2)
của hình trước được vẽ như đường đứt quãng. Trong mô hình kiến trúc này MPLS hỗ
Đỗ Tiến Dũng-Lớp K46ĐA
41
Chuyển mạch nhãn đa giao thức MPLS
trợ công nghệ DiffServ được triển khai, và có thể dành sẵn băng thông ứng với các
hàng đợi ưu tiên nhất định. Chúng ta hãy thừa nhận rằng lưu lượng VoIP sử dụng hàng
đợi 0, là hàng đợi hàng đầu trong mọi LSP.
LSR 5
E-LSR
LSR 4
LSR 3
LSR 2
LSR 1
I-LSR
(2)MPLS –TE không có CoS
(1)Đường ngắn nhất không có MPLS-TE
(3)MPLS –TE với
DiffServ(L-LSP)
Hình 16 : Luồng gói dữ liệu qua MPLS với DiffServ
LSR-4 có thể có đủ băng thông qua tất cả các hàng đợi của nó, nhưng nó
không có đủ băng thông trong hàng đợi 0 và vì thế , tuyến (2) không cung cấp QoS lại
thích hợp cho lưu lượng VoIP. Đó là vì sao chúng ta lại qua hàng đợi VoIP ở LSR-4.
Nhưng nếu một L-SLP được sử dụng hàng đợi 0 với băng thông dành sẵn xác định,
sao đó lưu lượng có thể đi qua tuyến (3) qua LSR-2 và LSR-3, và VoIP có thể nhận
được với sự đảm bảo QoS.
Tóm lại MPLS hỗ trợ DiffServ thoả mãn cả hai điều kiện của QoS : đảm bảo
băng thông và cư xử với các dịch vụ hàng đợi được phân biệt. MPLS thoả mãn điều
kiện thứ nhất : ví dụ nó thúc đẩy các luồng ứng dụng theo các tuyến với băng thông
đảm bảo; và dọc theo những tuyến đó DiffServ thoả mãn điều kiện thứ hai bằng việc
cung cấp dịch vụ hàng đợi được phân biệt đối xử.
Chú ý rằng MPLS hỗ trợ DiffServ vẫn còn đơn giản hơn và linh hoạt hơn
IntServ với RSVP chuẩn. IntServ đòi hỏi báo hiệu mỗi vi luồng và trạng thái mỗi vi
luồng trong mỗi router. Ngược lại, các LSP có thể bản thân nó là toàn thể các vi luồng
và vì thế đòi hỏi báo hiệu ít hơn. Thêm vào đó, router không lưu giữ trạng thái mỗi vi
luồng. Thay vào đó các LSR giữ thông tin toàn thể về băng thông khả dụng cho tất cả
các LSP hay cho mỗi hàng đợi ưu tiên.
Đỗ Tiến Dũng-Lớp K46ĐA
42
Khoá luận tốt nghiệp
3.3.2. Kĩ thuật điều khiển lưu lượng DiffServ-Aware MPLS
Trong phần trên ta đã miêu tả hoạt động của MPLS trong mạng nơi các LSR
được cho phép DiffServ. Nhưng để thu được các chức năng này và dẫn tới QoS- Các
mạng này phải được thiết kế cẩn thận với TE được áp dụng vào trên cơ sở mỗi cấp độ
ngược với TE toàn thể.
Mục tiêu cần thiết của DS-TE là để đảm bảo băng thông tách biệt cho mỗi loại
lưu lượng để cải thiện và tối ưu hoá đúng theo các yêu cầu QoS của nó. Mô hình DS-
TE cải tiến mô hình TE toàn thể, đang tồn tại bằng việc cho phép CoS dựa trên TE, nơi
mà CoS được định nghĩa bởi mô hình như là một tập hợp thứ tự toàn thể (OA) suy
rộng ra từ mức độ tuyến tới mức độ mạng. Trong mô hình DS-TE, đảm bảo băng
thông dựa trên CoS thu được bằng hai chức năng mạng:
1. Tách biệt dành sẵn băng thông cho tập hợp các cấp độ lưu lượng khác nhau
2. Quá trình quản lý được áp dụng trên mỗi cấp độ cơ sở
Để miêu tả hai chức năng trên, mô hình DS-TE đưa ra hai khái niệm:
1. Kiểu cấp độ (CT) là một nhóm các tuyến lưu lượng (TT) dựa trên giá trị
CoS của chúng mà chúng cùng chia sẻ sự dành sẵn băng thông, và một CT
có thể biểu diễn của nhiều cấp độ
2. Băng thông ràng buộc (BC) là giới hạn phần trăm băng thông của tuyến mà
một CT cụ thể hay một nhóm CT có thể lấy.
Các mối quan hệ giữa các CT và các BC được định nghĩa trong mô hình băng
thông ràng buộc ( Bandwidth Constrain model-BC). Hiện tại, TE-WG định nghĩa hai
mô hình BC:
1. Mô hình cấp phát tối đa (MAM) gán một BC tới mỗi CT ( như biểu diễn ở
hình 17)
2. Mô hình búp bê Liên Xô (RDM) gán BC tới các nhóm CT theo cách mà CT
với các yêu cầu QoS chặt chẽ nhất (ví dụ : CT7, VoIP) nhận sự dành sẵn
băng thông riêng, BC7, một CT với yêu cầu QoS nghiêm ngặt nhất, CT6
chia sẻ dành sẵn băng thông BC6 với CT7 (BC6 > BC7); và cứ thế cho tới
CT0 (ví dụ : lưu lượng Best Efford) chia sẻ BC0 (ví dụ : toàn bộ băng thông
của tuyến) với tất cả các loại lưu lượng khác (như hình 18 )
Đỗ Tiến Dũng-Lớp K46ĐA
43
Chuyển mạch nhãn đa giao thức MPLS
Hình 17 : Mô hình cấp phát băng thông tối đa (MAM)
Hình 18 : Mô hình búp bê Liên Xô (RDM)
Mô hình DS-TE cũng định nghĩa một quá trình cho phép giải phóng băng
thông chia sẻ bị chiếm giữ bởi các lưu lượng ưu tiên thấp hơn khi lưu lượng ưu tiên
cao hơn tới. Nó đưa ra khái niệm cấp độ điều khiển lưu lượng (TE-class), một TE-
class được định nghĩa bởi hai tham số: Kiểu cấp độ (CT) và mức độ ưu tiên (p). Hai
hay nhiều TE-class có thể bao gồm cùng CT với các giá trị p khác nhau, hay các CT
khác nhau với cùng giá trị p, vì thế cho phép ưu tiên và phục vụ trước các LSP trong
và giữa các CT.
Để triển khai DS-TE, các IGP(OSPF-TE và ISIS-TE) và LDP(RSVP-TE) phải
được mở rộng theo các mở rộng dựa trên MPLS-TE đã được định nghĩa để mang thêm
thông tin như đã miêu tả trong [DSTE-PRO]. Chú ý rằng [DSTE-PRO] không lặp lại
các định nghĩa, các TLV và các đối tượng đã được định nghĩa trong [OSPF-TE], [ISIS-
TE], và [RSVP-TE] mà chỉ đưa ra các thành phần và cải tiến mới.
Để mở rộng IGPs, nó định nghĩa thêm các TLV phụ mang giá trị của BC và
băng thông không được phục vụ cho mỗi cấp độ TE. Cũng như vậy, RSVP-TE được
mở rộng bằng việc định trong thông điệp tuyến một “đối tượng CLASSTYPE” mới
bao gồm một trường CT. Vì thế các giao thức được mở rộng cho phép LSR quản lý
Đỗ Tiến Dũng-Lớp K46ĐA
44
Khoá luận tốt nghiệp
việc đánh giá và ra quyết định trên cơ sở mỗi cấp độ. Ví dụ LSR có thể tính băng
thông được tận dụng bởi tất cả các tuyến lưu lượng trên cơ sở mỗi mức quyền ưu tiên,
tạo quyết định mỗi khi nhận một TT mới mà được thiết lập bởi thông điệp tuyến, và
tính toán băng giá trị thông không được phục vụ để sử dụng bởi IGPs.
Mô hình DS-TE cung cấp nhiều sự linh hoạt cho việc thực hiện điều khiển lưu
lượng. Ví dụ nó cho phép gán các CT vào kế hoạch hàng đợi LSR và khi kế hoạch đòi
băng thông, kế hoạch sẽ điều chỉnh các tham số băng thông của mỗi hàng đợi với trạng
thái dành sẵn của nhóm lưu lượng dịch vụ. Sự điều chỉnh của kế hoạch có thể là động,
khi sự dành sẵn bởi các LSP dựa trên cấp độ mới tăng hay giảm , hay không đổi, bằng
việc điều chỉnh cấu hình kế hoạch với tải liệu trước một cách chính xác.
Có vô vàn lý do có thể áp dụng việc thiết lập cấp phát băng thông tối đa cho
các loại lưu lượng khác nhau. Ví dụ để cung cấp điều khiển biến thiên trễ tốt hơn với
các ứng dụng thời gian thực mà chia sẻ một tuyến với nhiều lưu lượng dữ liệu bùng
nổ, phần trăm tuyến được sử dụng bởi lưu lượng thời gian thực được giữ ở mức thấp
(thường dưới 50%). Phần trăm tối đa này là cái sau đó BC sẽ được kết hợp với CT thời
gian thực. Trong khi việc sử dụng của BC quá và trên mức dự trữ băng thông cấp độ
nhạy cảm là tuỳ ý trong DS-TE, người vận hành mạng mà cấu hình trước các thông số
đảm bảo băng thông trong kế hoạch hàng đợi của nó có thể quyết định gán các BC tới
tất cả các CT nó mang. Mục đích của việc này là để điều khiển việc dành sẵn lưu
lượng của các CT để thích ứng với các thông số đảm bảo băng thông đã được cấu hình
trước.
Định nghĩa mối quan hệ giữa CoS và CT cũng rất ngỏ đối với việc thực hiện
của người điều hành mạng. Một cấp độ lưu lượng nào đó có thể không đủ khác biệt
vớicái khác để bảo đảm sự tách biệt các PSC và băng thông đảm bảo. Một ví dụ lấy
bối cảnh khi hai loại gói thoại, VoIP và VoATM không nén, được mang qua mạng
MPLS. Hai cấp độ lưu lượng thời gian thực có thể được gán các kế hoạch cư xử khác
nhau một cách hợp lý, bây giờ áp dụng giới hạn phần trăm băng thông đơn lẻ cho cả
hai. Chúng rồi sẽ được đối xử một cách thích hợp như một CT. Tuy nhiên, có thể nên
đặt chúng vào hai cấp độ TE khác nhau mà cả hai có cùng giá trị CT nhưng khác nhau
giá trị quyền ưu tiên p.
Vì thế mục đích mô hình DS-TE cung cấp khả năng điều khiển linh hoạt và
đảm bảo tài nguyên mạng trên cơ sở mỗi cấp độ và cho phép QoS mức lõi cao.
Đỗ Tiến Dũng-Lớp K46ĐA
45
Chuyển mạch nhãn đa giao thức MPLS
3.4. Thực hiện quản lý hàng đợi thực tế trong MPLS-DiffServ
Trong [MPLS-DiffServ] và dự thảo MPLS, IETF đã vạch ra kiến trúc toàn thể
cho MPLS hỗ trợ DiffServ, và các nhà cung cấp dịch vụ phải phân tích kiến trúc này
để chọn các giải pháp tối ưu với môi trường của họ.
Diễn đàn MPLS chỉ đạo một vài phân tích về các quy tắc quản lý hàng đợi
trong node mạng mà hỗ trợ E-LSP và L-LSP. [QMgmt] đưa ra một thừa nhận thực tế
rằng mặc dù hàng đợi có thể được quản lý trước và sau cơ cấu chuyển mạch LSR,
nhưng có khả năng để xắp đặt các LSP sao cho sự bất đồng với cơ cấu chuyển mạch
được tối thiểu và hàng đợi sẽ diễn ra sau có cấu chuyển mạch và trước giao diện biên
lối ra, như được chỉ ra trong hình 19
Hình 19 : Kiến trúc LSR với hàng đợi và kế hoạch.
Trong hình 19 gói tới một trong N giao diện biên lối vào. Nó được phân loại
và được chuyển tiếp tới giao diện biên lối ra thích hợp khi chúng được đặt vào một
hàng đợi ưu tiên tương ứng. Hình 19 chỉ ra hình ảnh mở rộng của giao diện biên lối ra
1. Giao diện hỗ trợ bốn hàng đợi ưu tiên, từ 0 tới 3. và kế hoạch đẩy gói ra từ mỗi hàng
đợi dựa trên ưu tiên của nó.
Hình 19 biểu diễn hình ảnh đơn giản của hàng đợi biên lối ra, nhưng các E-
LSP và L-LSP phức tạp hơn như miêu tả trong [Qmgmt]. Ví dụ hàng đợi có thể cấp
phát mỗi CoS cho mỗi LSP. Trong bối cảnh đó, nếu một E-LSP hỗ trợ bốn kế hoạch
cư xử khác nhau và nếu có hai E-LSP như thế, LSR sẽ có tám hàng đợi ưu tiên khác
nhau, mỗi cái cho mỗi CoS của LSP. Sự sắp xếp này sẽ rất khó quản lý và không linh
hoạt.
Đỗ Tiến Dũng-Lớp K46ĐA
46
Khoá luận tốt nghiệp
Một cách sắp xếp thay thế là có một tập hợp nhỏ hàng đợi cho mỗi giao diện
biên lối ra. Gói tới những hàng đợi này thường biểu diễn các LSP khác nhau, nhưng
hàng đợi được quản lý với khía cạnh loại bỏ và sắp xếp như là chúng biểu diễn một
luồng đơn. [QMgmt] khuyến cáo cách thức này cho các giai đoạn đầu tiên của MPLS
hỗ trợ DiffServ. Với cách này, L-LSP biểu diễn một mức ưu tiên đơn lẻ và sự phân
chia tài nguyên cho một L-LSP dẫn tới đảm bảo băng thông như đã thảo luận ở trên.
Mặt khác, LSP có thể biểu diễn vài kế hoạch ưu tiên; cấp phát tài nguyên cho một E-
LSP không thực hiện việc mọi CoS sẽ dành tài nguyên hàng đợi nhất định. Trong
mạng hoàn thiện hơn, có thể có nhiều các hàng đợi nhân và các mức ưu tiên, và E-LSP
cũng có thể được sử dụng cho dịch vụ bảo đảm.
3.5. Các thành phần QoS trong MPLS-UNI
Các thảo luận ở trên và rất nhiều phương pháp đã được phân tích để cung cấp
QoS trong mạng MPLS. Nhưng trong kiến trúc mạng thực tế, mạng MPLS được cung
cấp trong miền nhà cung cấp và không mở rộng phần khách hàng. Một lý do khác cho
điều này là báo hiệu LSP truyền thống được xử lý bởi các LER, và nếu các LER được
đặt tại phần khách hàng, nhà cung cấp sẽ phải mang cho khách hàng một vài chức
năng điều khiển qua mạng đường trục của họ. Lý do khác là khách hàng có các cấp
dịch vụ khác nhau về sự phức tạp và tài nguyên, và họ có thể không mong phải liên
quan tới việc quản lý mạng.
Nhưng, như đã nói trong [E2E-QoS], để có thể đảm bảo QoS đầu cuối-đầu
cuối, các quá trình QoS phải được cung cấp ở tất cả các phần hợp thành mạng, và
chúng phải được ánh xạ một cách thích hợp ở giao diện giữa các mạng khác nhau.
Thực tế, như chúng ta đã thảo luận trong phần giới thiệu, phần truy cập của mạng có
thể là tuyến yếu nhất trong giới hạn của QoS, và phải được thiết kế cẩn thận cho khả
năng hoạt động QoS.
Diễn đàn MPLS đã thừa nhận vai trò hàng đầu trong định nghĩa giao diện dựa
trên MPLS giữa phần khách hàng và nhà cung cấp dịch vụ mạng dựa trên MPLS. Giao
diện đó gọi là giao diện người dùng tới mạng MPLS (MPLS-UNI) và nó được miêu tả
trong [MPLS-UNI]
[MPLS-UNI] miêu tả báo hiệu qua UNI như hình 20
Đỗ Tiến Dũng-Lớp K46ĐA
47
Chuyển mạch nhãn đa giao thức MPLS
Hình 20 : MPLS UNI
Trong hình 20 chức năng Ru và Rd biểu diễn các router luồng lên và luồng
xuống như được định nghĩa trong [MPLS-Arch]. Kí hiệu nhà cung cấp biên (PE) và
khách hàng biên (CE) được kế thừa từ [VPN] để làm cho rõ ràng khi liên hệ tới nhà
cung cấp và khách hàng. Xem rằng một LSP luôn theo một hướng duy nhất, theo
hướng luồng dữ liệu từ PE tới CE thì PE là Ru và CE là Rd; theo hướng luồng dữ liệu
từ CE tới PE thì PE là Rd và CE là Ru.
Phần quan trọng trong định nghĩa MPLS UNI là mục đích để tối thiểu chức
năng CE và thực tế rằng các LSP được định nghĩa qua UNI không mở rộng trong
mạng nhà cung cấp, nhưng là liên kết chéo ở PE với LSP của nhà cung cấp. [MPLS -
UNI] sử dụng một giao thức LSP mở rộng cho báo hiệu dựa trên phương pháp luồng
xuống theo yêu cầu. Quá trình báo hiệu bắt đầu với việc thiết lập kết nối TCP giữa PE
và CE. Sau đó PE gửi tới CE yêu cầu nhãn cho LSP PE tới CE. Ở đây CE là node
“luồng xuống”, và khi nó nhận được yêu cầu, nó cung cấp ràng buộc nhãn cho tất cả
thuộc tính mà được xác định trong yêu cầu nhãn. Tại thời điểm này, để báo hiệu LSP
CE-tới-PE, CE phải gửi yêu cầu tới PE, sử dụng chính xác thuộc tính như đã được
cung cấp trong yêu cầu của PE. Vì thế hành vi của CE là khá đơn giản và tự do quyết
định. Quá trình báo hiệu được hoàn thành khi PE đáp lại với ràng buộc nhãn cho LSP
CE-tới-PE.
Phiên bản hiện tại của [MPLS-UNI] chỉ quan tâm tới hướng PVC (kết nối ảo
cố định) được đặc trưng bởi sự dự phòng của nhà cung cấp và tính thụ động CE. Công
việc tương lai sẽ mở rộng kiến trúc này thành MPLS UNI SVCs (Switched Virtual
Connection) nơi CE sẽ có thể yêu cầu báo hiệu cho việc thiết lập hay kết thúc LSP.
Đỗ Tiến Dũng-Lớp K46ĐA
48
Khoá luận tốt nghiệp
Trong khi [MPLS-UNI] miêu tả báo hiệu qua MPLS UNI dẫn tới thiết lập các
LSP hai chiều, công việc đang phát triển ở Liên minh MPLS/ Frame Relay cũng
nghiên cứu các kết nối dịch vụ mà có thể chạy trên đỉnh của những LSP này. Các kết
nối dịch vụ MPLS UNI sẽ cung cấp cho khách hàng một truy cập MPLS vào dịch vụ
mạng riêng ảo qua nhà cung cấp dịch vụ mạng cũng như các dịch vụ khác của nhà
cung cấp, như Internet, cổng VoIP, và những thứ khác nữa. Các dịch vụ này có thể tự
động cung cấp bởi nhà cung cấp tới khách hàng, với một sự liên quan khách hàng tối
thiểu. Chức năng MPLS UNI tương tự như kết nối ATM và Frame Relay nơi các kết
nối ảo khách hàng được kết hợp với LSP và không phải với các giao diện, và vì thế ví
dụ vài VPN có thể được hỗ trợ qua một giao diện dơn. Hình 21 biểu diễn khái niệm
này
Hình 21 : VPNs phục vụ thông qua MPLS UNI
Trong hình 21 PE bên trái hỗ trợ hai CE khác nhau thuộc về hai VPN khác
nhau. PE ở dưới có một giao diện đơn với một CE, nhưng CE này liên quan tới cả hai
VPN mà được phân biệt bởi các LSP được định nghĩa qua UNI này.
Liên minh MPLS/ Frame Relay là việc trên các dịch vụ UNI cũng sẽ miêu tả
các thuộc tính dịch vụ phong phú mà có thể được cấu hình bởi PE ở CE. Một trong các
thuộc tính sẽ là Profile QoS bao gồm cấp độ QoS (ví dụ : thời gian thực), đánh dấu
QoS, băng thông, trễ và dành sãn rung pha, các yêu cầu khả dĩ và các tham số khác.
Profile sẽ cho phép SP cung cấp QoS cần thiết cho các luồng qua UNI, cũng như để
ánh xạ nó tới mạng các LSP. Vì thế QoS sẽ được phục vụ trước và ánh xạ thích hợp ở
giao diện giữa khách hàng và nhà cung cấp mạng.
Đỗ Tiến Dũng-Lớp K46ĐA
49
Chuyển mạch nhãn đa giao thức MPLS
Trong khi môi trường dịch vụ MPLS PVC UNI được quản lý toàn bộ bởi các
PE, thì MPLS SVC UNI cũng sẽ cho phép CE yêu cầu cải tiến dịch vụ.
3.6. Tóm tắt chương
Chương 3 đã đưa ra các mô hình dịch vụ có thể cung cấp QoS như Dịch vụ
tích hợp (IntServ), Dịch vụ khác biệt (DiffServ) hay MPLS với MPLS-TE và RSVP-
TE. Với các ưu điểm của DiffServ như đơn giản, linh hoạt kết hợp với công nghệ điều
khiển lưu lượng (TE), MPLS-TE kết hợp với DiffServ được xem là mô hình mạng hỗ
trợ QoS thực sự trong mạng đường trục.
Đỗ Tiến Dũng-Lớp K46ĐA
50
Khoá luận tốt nghiệp
KẾT LUẬN
Sự ra đời của mạng thế hệ sau (Next Generation Network-NGN) gắn liền với
những thay đổi cơ bản trong quan niệm, tổ chức, và công nghệ. MPLS được coi là một
công nghệ tiềm năng cho mạng NGN trong thời gian tới. Tuy nhiên để phát triển lên
NGN thì cần phải đáp ứng được các yêu cầu chất lượng dịch vụ ngày càng cao của các
ứng dụng trong tương lai như thoại, multimedia, hay hội nghị từ xa…
Phương pháp ban đầu để có QoS trong mạng chuyển mạch gói tập trung chủ
yếu vào việc đưa thêm vào băng thông giờ được thay thế với các quá trình phức tạp mà
cho phép các nhà cung cấp dự trữ và vận hành mạng thêm chính xác. Quá trình này
được thúc đẩy bởi hai động lực chính : (1) giảm CAPEX đòi hỏi thậm chí thêm băng
thông và (2) sinh và thêm thu nhập bằng việc cung cấp các dịch vụ giá trị gia tăng với
thoả thuận cấp độ dịch vụ (SLA) nghiêm ngặt hơn.
Với các dịch vụ mạng tiên tiến, như VoIP, đòi hỏi đảm bảo băng thông cứng.
Trong khi kiến trúc IntServ chỉ cung cấp một sự linh hoạt thay thế nhưng nó có hạn
chế là không cung cấp sự đảm bảo. Vì vậy việc kết hợp DiffServ và công nghệ MPLS
trong mạng chuyển mạch gói dẫn tới cho phép đảm bảo QoS cứng; và những sự đảm
bảo này vơi sự linh hoạt cao hơn và giảm sự phức tạp so với IntServ. Những sự cải
tiến này là kết quả của đặc tính phân cấp ngăn xếp và FEC toàn thể của mạng MPLS
cũng như trạng thái toàn thể duy trì bởi các node hỗ trợ DiffServ.
Một lĩnh vực chính khác được quan tâm xem xét trong phạm vi đề tài là sự mở
rộng của mạng biên MPSL tới phần khách hàng mà không cần mất mát điều khiển qua
cung cấp và vận hành mạng của họ. MPLS UNI cung cấp một giải pháp quan trọng
cho việc mở rộng MPLS tới giao diện PE-TE [MPLS-UNI] và kích hoạt QoS và các
dịch vụ phong phú qua giao diện này. MPLS UNI cho phép QoS giữa khách hàng và
miền nhà cung cấp, vì thế hỗ trợ các đối tuợng QoS đầu cuối- đầu cuối.
Đỗ Tiến Dũng-Lớp K46ĐA
51
Chuyển mạch nhãn đa giao thức MPLS
TÀI LIỆU THAM KHẢO
[1] [DSTE-PRO] F. Le Faucheur, “Protocol Extensions for Support of DiffServ-aware
MPLS Traffic Engineering” draft-ietf-tewg-diff-te-pro-03.txt, Feb 2002
[2] [E2E-QoS] V.FineBerg, “A Practical Architecture for Implementing End-to-End in
an IP Network”, IEEE Communications Magazine, Jan 2002.
[3] [MPLS-arch] Rosel et al. “Multiprotocol Label Switching Architechture” work in
progress (draft –ietf-mplsframework-05) March 2000
[4] [MPLS-DiffServ] F. Le Faucheur, et al, “MPLS Support of Differentiated
Services” RFC3270, May 2002
[5] [MPLS-UNI] A, Malis, D. Sinicrope, “MPLS PVC UNI Implemetation
Agreement: Baseline Text” MPLS Forum draft, mplsforum2002.035, Mar. 5,2002.
[6] [Qmgmt] P, Schicker, “Class of Services Queue Management in
Switches/Routerss” MPLS Forum draft, mplsforum2002.035, Mar. 5,2002.
[7] [RSVP-TE] D. Awduche, et al, “RSVP-TE: Extensions to RSVP for LSP Tunnels”
RFC3209, Dec. 2001.
[8] [TE-RQ] D. Awduche, et al, “Requirements for Traffic Engineering over MPLS ”
RFC2702, Sep.1999.
[9] [VPN] Eric C.Rosen, et al, “BGP/MPLS VPNs”, dratf-ietf-ppvpn-rfc2547bis-
03.txt, Oct.2002.
[10] MPLS and IP Quanlity of Service In Service Provider ATM Network. Cisco
Systems White Paper.
[11] Multiprotocol Label Switching. Web Tutorials.
[12] QoS protocols and Architectures. Qosforum.com White Paper.
[13] Quanlity of Service (QoS). Web Technology Document.
[14] Victoria FineBerg, Consultant. QoS support in MPLS Network. MPLS/ Frame
Relay Alliance White Paper
Đỗ Tiến Dũng-Lớp K46ĐA
52
Các file đính kèm theo tài liệu này:
- Chuyển mạch nhãn đa giao thức mpls (đh qg hn).pdf