Việc thiết lập cấu hình ưu tiên một cách hợp lý cho các luồng traffic là tối quan
trọng trong WRED. Thí nghiệm với TSW3CM cho thấy nếu nguồn bùng phát được
giới hạn không đúng mức, thì khi xảy ra tắc nghẽn,giao thức sẽ không có được kết
quả mong muốn, thậm chí còn giảm đáng kể hiệu năng của hệ thống
86 trang |
Chia sẻ: lylyngoc | Lượt xem: 3218 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Luận văn Đánh giá hiệu quả đảm bảo qos cho truyền thông đa phương tiện của chiến lược quản lý hàng đợi wred, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
g tôi cũng đồng ý với các tác giả
trong [1] rằng nên chọn maxp = 0.1.
3.2.4 Một số đánh giá về RED
RED là một điển hình của các chiến lược quản lý hàng đợi động AQM, ngoài
những ưu điểm chung của AQM, RED còn có một số tính chất (ưu điểm) riêng biệt
khác nữa:
− Tránh tắc nghẽn: Nếu RED gateway thực sự loại bỏ gói tin đến khi kích thước
hàng đợi trung bình đạt đến ngưỡng trên, thì RED gateway đảm bảo kích
thước hàng đợi trung bình tính theo lý thuyết không vượt quá ngưỡng trên. Nếu
trọng số hàng đợi wq được thiết lập một cách hợp lý thì RED gateway hoàn
toàn có thể điều khiển được kích thước hàng đợi trung bình thực sự. Nếu RED
gateway đánh dấu một bit trong header của gói tin đến khi kích thước hàng đợi
trung bình vượt quá ngưỡng trên, thay vì loại bỏ nó, thì hiệu quả hoạt động của
RED gateway còn phụ thuộc vào sự hợp tác của các cặp nguồn/đích để điều
khiển kích thước hàng đợi trung bình.
− Tránh đồng bộ toàn cục: Tỷ lệ đánh dấu gói tin của RED gateway phụ thuộc
vào mức độ tắc nghẽn. Ở giai đoạn tắc nghẽn thấp, RED gateway đánh dấu gói
tin với một xác suất thấp, và khi tắc nghẽn tăng lên thì xác suất đánh dấu cũng
tăng lên. Mặt khác, RED gateway chọn ngẫu nhiên các gói tin đến để đánh dấu;
với phương pháp này xác suất đánh dấu một gói tin từ một kết nối cụ thể tỉ lệ
với phần băng thông được chia sẻ của kết nối đó tại gateway. Như vậy, RED
gateway tránh hiện tượng đồng bộ toàn cục bằng cách đánh dấu gói tin theo một
tỷ lệ thấp nhất có thể và việc đánh dấu các gói tin một cách ngẫu nhiên.
− Đơn giản: Thuật toán RED có thể được cài đặt với một chi phí vừa phải,
không yêu cầu phải cài đặt đồng loạt cho tất cả các gateway trong mạng mà có
thể triển khai dần.
53
− Cực đại hoá công suất toàn cục: Công suất nói ở đây được định nghĩa bằng tỷ lệ
giữa thông lượng và độ trễ. Vì RED gateway điều khiển cho kích thước hàng
đợi nhỏ, dẫn tới độ trễ nhỏ, mặt khác như các mô phỏng chúng tôi trình bày
dưới đây, hệ số sử dụng đường truyền với RED và DropTail là xấp xỉ nhau, vì
vậy công suất đường truyền cao hơn rất nhiều so với DropTail (điều này được
khẳng định bằng các mô phỏng dưới đây).
− Tính công bằng: một trong những mục tiêu quan trọng của một thuật toán quản
lý hàng đợi là sự công bằng trong việc cấp phát đường truyền cho các kết nối
chia sẻ. Về điểm này thì RED gateway có phần hạn chế. RED gateway không
phân biệt các kết nối hay các lớp kết nối khác nhau. Đối với RED gateway, tỷ lệ
các gói tin bị đánh dấu tỷ lệ với phần băng thông chia sẻ của kết nối đó tại
gateway. Tuy nhiên nó không cố gắng đảm bảo tất cả các kết nối nhận được
cùng một tỷ lệ dải thông, mặt khác nó không điều khiển được hiện tượng
misbehaving users - hiện tượng một kết nối nào đó nhận được tỷ lệ băng thông
lớn hơn rất nhiều so với các kết nối khác đi qua gateway.
3.3 Phương pháp loại bỏ ngẫu nhiên theo trọng số - WRED
Thuật toán RED không phải lúc nào cũng đảm bảo cho các luồng chia sẻ băng
thông một cách cân đối nhau. Trong thực tế, RED không ưu tiên đối với các luồng
TCP tốc độ thấp vì RED loại bỏ ngẫu nhiên các gói khi ngưỡng bị vượt quá. WRED
(Weighted RED) là phương pháp tránh tắc nghẽn dựa trên việc các thuộc tính của
thuật toán RED và ưu tiên IP. WRED có thể lựa chọn loại bỏ lưu lượng có mức ưu tiên
thấp khi trên giao diện bắt đầu xảy ra quá trình tắc nghẽn và cung cấp các đặc tính tiêu
chuẩn khác nhau cho các lớp dịch vụ khác nhau.
Với các giao diện mạng được cấu hình sử dụng đặc tính giao thức dành sẵn tài
nguyên (RSVP), khi quá trình nghẽn xảy ra WRED ưu tiên các luồng RSVP hơn là các
luồng dữ liệu khác trong quá trình loại bỏ gói để tránh tắc nghẽn. Cũng giống như
RED trong cơ chế của mình WRED loại bỏ gói một cách ngẫu nhiên, từ đó thông báo
tới trạm gốc giảm tốc độ truyền gói tin vào mạng. Nếu trạm gốc sử dụng TCP, nó sẽ
làm giảm tốc độ của chính các gói đó cho tới khi tất cả các gói có thể đến được đích.
WRED loại gói dựa trên giá trị ưu tiên IP được gán cho mỗi gói. Các gói có giá trị
ưu tiên thấp hơn có khả năng bị làm rớt cao. WRED khắc phục các điểm yếu của cơ
chế DropTail khi đầu ra giao diện có nguy cơ bị tắc nghẽn nó sẽ thực hiện lựa chọn
làm mất một số gói thay vì chờ cho tới khi các hàng đợi bị đầy rồi mới thực hiện việc
loại bỏ gói.
WRED tránh việc làm mất một lượng lớn các gói trong một khoảng thời gian ngắn,
từ đó nó cho phép các đường truyền được sử dụng hữu ích tại mọi thời điểm. WRED
tránh được các vấn đề đồng bộ toàn cục xảy ra khi sử dụng DropTail để tránh tắc
54
nghẽn. WRED chỉ hữu ích khi phần lớn lưu lượng là dữ liệu của giao thức TCP, khi đó
các gói bị loại sẽ phát sinh thông báo (gián tiếp) về sự nghẽn mạch để từ đó trạm phát
giảm tốc độ truyền dẫn của mình. Đối với các gói tin được đóng gói theo một giao
thức khác có thể trạm gửi không phát hiện quá trình mất gói xảy ra, như vậy có thể
không ngăn chặn được quá trình nghẽn mạch. Với các dữ liệu mà không thuộc dạng
gói TCP, WRED coi đó như là dữ liệu có mức ưu tiên thấp nhất (Precedence = 0), bởi
vậy khả năng bị loại của nó là cao hơn các dữ liệu TCP.
Hình 3. 3 Cơ chế làm việc của WRED được minh hoạ trong hình vẽ trên
Router sẽ tự động tính toán các thông số của WRED để xác định cỡ hàng đợi trung
bình. Cỡ hàng đợi trung bình được tính trên cơ sở cỡ hàng đợi trung bình trước và cỡ
hàng đợi hiện tại. Giá trị của nó được tính theo công thức sau:
average = (old_average * (1 – 1/2n )) + (current_queue_size * 1/2n )
Trong đó:
n: là hệ số trọng số và có thể cấu hình được.
average: Cỡ hàng đợi trung bình
old_average: Cỡ hàng đợi trung bình trước đó
current_queue_size: Kích thước hàng đợi hiện tại
Chúng ta nên chọn hệ số trọng số cho phù hợp nếu n quá lớn WRED sẽ không tác
động để chống tắc nghẽn, các gói tin sẽ được gửi hoặc bị loại vì vậy việc áp dụng
WRED là vô ích, tuy nhiên việc lựa chọn n quá nhỏ WRED sẽ phản ứng mãnh liệt với
sự bùng nổ lưu lượng tạm thời dẫn đến làm mất gói trong khi không thực sự cần thiết.
Chúng tôi sẽ sử dụng NS2 để mô phỏng thuật toán này và đưa ra các nhận xét trong
chương 4.
Như đã trình bày trong chương 2, DiffServ đi theo hướng đảm bảo chất lượng dựa
trên nguyên lý hành vi theo từng chặng căn cứ vào mức ưu tiên của các gói tin đã được
đánh dấu. Việc đưa ra chính sách với các loại lưu lượng khác nhau là do người quản trị
quyết định và có thể thay đổi theo thực tế nên nó rất mềm dẻo. DiffServ tận dụng tốt
tài nguyên mạng hơn, tránh được tình trạng nhàn rỗi băng thông và năng lực xử lý trên
55
router, ngoài ra mô hình DifServ có thể triển khai trên nhiều miền độc lập do vậy khả
năng mở rộng mạng trở nên dễ dàng. Dưới đây, là các đặc tính của WRED được sử
dụng trong kiến trúc DiffServ.
a. Cấu trúc của DiffServ
DiffServ cung cấp dịch vụ QoS bằng việc chia traffic ra làm nhiều nhóm (lớp) khác
nhau, mỗi một packet sẽ được đánh dấu bằng 1 mã (Code Point) để xác định nhóm.
Module DiffServ trong NS2 có thể hỗ trợ 4 lớp traffic, mỗi lớp lại có 3 loại quyền ưu
tiên loại bỏ (dropping precedences) cho phép ta xử lý các lớp traffic theo nhiều cách
khác nhau. Các packet trong một lớp đơn sẽ được đưa vào trong 1 hàng đợi RED vật lý
(physical queue), trong đó chứa tối đa 3 hàng đợi ảo (virtual queue). Tại các hàng đợi
ảo này ta có thể cấu hình để ưu tiên với các loại gói tin theo ý muốn.
Những tham số khác nhau của RED có thể được cấu hình cho các virtual queue, từ
đó có thể dẫn đến 1 virtual queue có thể drop gói tin thường xuyên hơn những virtual
queue khác. Mỗi packet sẽ được gắn với 1 giá trị Code Point và các tham số của RED,
trong đó có trị số drop (dropping precedences), nếu trị số này thấp thì sẽ packet được
ưu tiên hơn, sẽ ít bị drop khi xảy ra tắc nghẽn.
Module DiffServ trong NS2 có 3 thành phần chính như sau:
- Policy: là bộ luật, nó được thiết lập bởi người quản trị mạng, nói về các cấp độ
của dịch vụ mà của 1 lớp traffic nhận được trên mạng
- Edge router: các router biên có nhiệm vụ đánh dấu mã Code Point vào packet.
Giá trị Code Point tương ứng với policy đã được thiết lập ở trên.
- Core router: các router lõi có nhiệm vụ thực thi policy dựa theo code point của
gói tin.
Tất cả những thủ tục và chức năng của DiffServ có thể tìm thấy trong bộ code/thư
viện của NS2: ~ns/diffserv/dsred, dsredq, dsEdge, dsCore, dsPolicy.{cc, h}
b. Hàng đợi RED trong module DiffServ
Hàng đợi RED trong DiffServ khác với hàng đợi RED sẵn có của NS2 trong
REDQueue, nó được định nghĩa trong lớp dsREDQueue, thừa kế từ lớp Queue, nó có
những chức năng như sau:
- Triển khai nhiều hàng đợi vật lý RED qua cùng 1 liên kết đơn
- Triển khai nhiều hàng đợi ảo trong 1 hàng đợi vật lý, với những tham số riêng
biệt cho mỗi hàng đợi ảo
- Xác định 1 packet thuộc hàng đợi vật lý và hàng đợi ảo nào dựa vào giá trị
Code Point của nó
- Xác định hàng đợi vật lý và hàng đợi ảo nào mà packet đi ra.
56
Lớp dsREDQueue bao gồm tối đa 4 hàng đợi RED vật lý, mỗi cái lại chứa tối đa 4
hàng đợi ảo. Số hàng đợi vật lý và ảo được sử dụng có thể được thiết lập thông qua
biến numPrec và numQueues_.
Hàng đợi vật lý được định nghĩa trong lớp redQueue, nó khả năng phân biệt các
traffic thông qua việc định nghĩa các hàng đợi ảo với các cấu hình độc lập, chi tiết về
việc này có tại file dsredq.h và dsredq.cc trong bộ cài NS2.
Lớp dsREDQueue còn chứa một kiến trúc dữ liệu là bảng Per Hop Behavior
(PHB), các router biên đánh dấu packet bằng Code Point và core router xử lý packet
dựa trên giá trị Code Point đó, và cả 2 loại router đều sử dụng bảng PHB để ánh xạ
Code Point tới hàng đợi vật lý và ảo.
Bảng PHB được định nghĩa như là 1 mảng với 3 trường như sau:
struct phbParam {
int codePt_; // giá trị Code Point
int queue_; // số hiệu hàng đợi vật lý
int prec_; // số hiệu hàng đợi ảo
c. Router lõi và router biên
Định nghĩa router lõi và router biên trong DiffServ có trong class edgeQueue và
coreQueue, chúng thừa kế từ class dsREDQueue. Chi tiết có tại file dsEdge,
dsCore.{h.cc}.
Vị trí của router lõi và router biên trong miền DiffServ được minh hoạ trên
Hình 3.4 sau đây.
Hình 3. 4 Vị trí router lõi và biên trong miền DiffServ
Nhiệm vụ của router biên:
- Phân tích và phân loại các gói tin đến mạng dựa theo các policy đã thiết lập
- Đánh dấu gói tin với 1 mã (code point) phản ánh mức độ phục vụ
- Bảo đảm tất cả các luồng dữ liệu phải được đánh dấu và tuân theo policy
Nhiệm vụ của router lõi:
- Phân tích các gói tin
- Xử lý gói tin dựa theo code point được đánh dấu
57
Các packet được đánh dấu bằng class edgeQueue. Mỗi packet với 1 code point xác
định thường phải liên quan đến 1 policy đã định nghĩa trước đó. Class edgeQueue có
mối liên hệ với class PolicyClassifier – nơi chứa các policy để đánh dấu gói tin.
d. Các chính sách - Policy
Lớp Policy và những lớp con của nó định nghĩa các cách xử lý gói tin bởi router
biên trong việc đánh dấu. Một policy được xác định bởi node nguồn và đích. Tất cả
những luồng packet mà có chung nguồn và đích thì đều được coi như 1 tập hợp traffic
đơn (single traffic aggregate).
Policy cho mỗi tập hợp này được gán bằng 3 thông số: polycier type, meter type và
initial code point. Meter type xác định phương thức đo lường các giá trị cần thiết bởi
polycier, ví dụ: TSW Tagger là một kiểu meter đo bằng tần suất traffic trung bình.
Khi một gói tin tới 1 router biên, nó sẽ được phân tích để xác định thuộc luồng nào.
Tiếp theo Policier sẽ xác định đánh dấu (marking) gói tin ra sao. Dựa vào các thông
số: trạng thái của luồng, code point ban đầu, code point bị giảm, sau đó packet sẽ được
đưa vào hàng đợi.
Bảng chính sách (Policy Table):
Lớp Policy sử dụng Policy Table để lưu trữ các bộ luật của mỗi luồng traffic. Bảng
này là 1 mảng bao gồm nhiều trường, trong đó tùy theo policer type mà có nhiều
trường không sử dụng. Các trường của Policy Table là:
- Source node ID: định danh node nguồn
- Destination node ID: định danh node đích
- Policer type : kiểu policer
- Meter type : kiểu đo
- Initial code point : code point ban đầu
- CIR (committed information rate) : là tốc độ thông tin cam kết và cũng được
gọi là tốc độ cam kết hoặc tốc độ được định dạng.
- CBS (committed burst size) : kích thước burst cam kết
- C bucket (current size of the committed bucket) : Kích thước hiện tại của
bucket cam kết
- EBS (excess burst size) : kích thước burst ngưỡng giới hạn
- E bucket (current size of the excess bucket) : kích thước hiện tại của bucket
ngưỡng giới hạn
- PIR (peak information rate) : Tốc độ gửi đỉnh
- PBS (peak burst size) : Ngưỡng kích thước burst
58
- P bucket (current size of the peak bucket) : Kích thước hiện tại của ngưỡng
bucket
- Arrival time of last packet : thời gian tới của packet cuối cùng
- Average sending rate: tốc độ gửi trung bình:
- TSW window length : độ dài cửa sổ TSW
Các kiểu thi hành (Policier Types):
Hiện tại lớp Policy hỗ trợ 6 loại Policier:
- Time Sliding Window with 2 Color Marking (TSW2CMPolicer): Cửa sổ trượt
theo thời gian với việc đánh dầu 2 màu, sử dụng biến CIR và 2 hàng đợi ảo.
Những hàng đợi ảo có số hiệu thấp hơn sẽ drop gói tin khi ngưỡng CIR bị vi
phạm.
- Time Sliding Window with 3 Color Marking (TSW3CMPolicer): Cửa sổ trượt
theo thời gian với việc đánh dầu 3 màu, sử dụng biến CIR, PIR và 3 hàng đợi
ảo. Khi PIR bị vi phạm thì sẽ drop trong hàng đợi thấp nhất, khi CIR bị vi phạm
thì sẽ drop trong hàng đợi thấp thứ 2.
- Token Bucket (tokenBucketPolicer): sử dụng CIR, CBS và 2 hàng đợi ảo. Mỗi
packet sẽ bị ưu tiên drop bằng cách đặt vào hàng đợi ảo thấp hơn khi kích cỡ
của nó lớn hơn CBS và tần suất gửi vi phạm CIR
- Single Rate Three ColorMarker (srTCMPolicer): sử dụng biến CIR, CBS, EBS
để ưu tiên packet từ 3 hàng đợi ảo.
- Two Rate Three Color Marker (trTCMPolicer): sử dụng biến CIR, CBS, PIR
và PBS để ưu tiên packet từ 3 hàng đợi ảo.
- NullPlocier: không ưu tiên packet nào cả.
Nhưng policy ở trên đều được định nghĩa như là một class con của class dsPolicy.
3.4 Một số phương pháp khác
3.4.1. Tốc độ truy cập cam kết (CAR - Committed Access Rate)
CAR là một cơ chế giám sát tốc độ cho phép người quản trị mạng đưa ra các biện
pháp xử lý để kiểm soát lưu lượng. Do CAR là một cơ chế kiểm soát chứ không phải
là cơ chế hàng đợi vì vậy nó không có bộ đệm và nó cũng không làm phát sinh trễ có
thể cho phép truyền tốc độ cao.
3.4.1.1. Cơ chế hoạt động
Khi dữ liệu được gửi đến một giao tiếp, CAR thực hiện việc kiểm tra lưu lượng sau
đó so sánh tốc độ của lưu lượng với thông số “token bucket” (xô chứa thẻ bài) và đưa
ra hành động tương ứng dựa trên cơ sở kết quả so sánh đó. Ví dụ CAR sẽ loại gói, sửa
lại quyền ưu tiên IP hay khởi tạo lại các bit ToS. Người quản trị mạng cũng có thể cấu
59
hình CAR để truyền gói, loại bỏ gói hoặc thiết lập quyền ưu tiên (xem hình sơ đồ khối
của CAR).
Hình 3. 5 Sơ đồ khối của CAR
Lưu lượng chuyển đến đòi hỏi phải được nhận dạng phù hợp với các đặc tính về
tốc độ giới hạn, quyền ưu tiên hoặc cả hai. Cơ sở của việc định nghĩa tốc độ giới hạn
dựa trên 3 thông số sau:
− Tốc độ trung bình, được xác định là tốc độ truyền dẫn trong một thời gian dài. Đó
là lưu lượng luôn dưới mức tốc độ giới hạn cho phép.
− Cỡ khối trung bình, xác định lưu lượng lớn cỡ nào trước khi một vài phần lưu
lượng vượt quá tốc độ giới hạn cho phép.
− Cỡ khối quá mức, xác định lưu lượng lớn cỡ nào trước khi tất cả lưu lượng vượt
quá tốc độ giới hạn cho phép (CAR).
3.4.1.2. Các chức năng của CAR
Chức năng giới hạn tốc độ được thể hiện như sau:
− Cho phép điều khiển tốc độ tối đa truyền hay nhận trên một giao diện.
− Thực hiện điều khiển tại lớp 3 để điều khiển lưu lượng cụ thể nào đó khi lưu
lượng có thể phù hợp hoặc quá tải.
− Nhà quản trị có thể giới hạn tốc độ dữ liệu dựa trên các đặc tính về quyền ưu tiên,
địa chỉ MAC (Medium Access Control) hoặc các thông số khác. CAR thường
được thiết lập tại các router biên (edge) trong tổ chức của một mạng để giới hạn
tốc độ truyền dữ liệu đi và đến mạng.
60
Hình 3. 6 Lưu đồ thuật toán CAR được minh họa họa ở hình trên
Khi CAR có hiệu lực, lưu lượng sẽ được đi vào phân lớp đầu tiên rồi đưa vào quá
trình xử lý CAR. Sau đó CAR đo lưu lượng và trên kết quả đo của CAR cho biết lưu
lượng có thể phù hợp hoặc vượt quá mức chính sách đã cấu hình.
Có 3 hành động cơ bản có thể xẩy ra trên mỗi gói, phụ thuộc vào các gói đó hợp
hay vượt quá so với chính sách:
− Truyền (Transmit): gói được gửi đi.
− Rớt (Drop): Gói bị loại bỏ.
− Tiếp (Continue): Gói được đưa tiếp đến chính sách về tốc độ tiếp theo trên dây
truyền giới hạn tốc độ. Nếu không còn chính sách nào khác thì gói sẽ được
chuyển đi.
Như đã đề cập ở phần trước, CAR cũng có thể được đánh dấu hoặc đánh dấu lại
lưu lượng cũng như thực hiện giới hạn tốc độ. Phụ thuộc vào hình dạng lưu lượng các
hành động đánh dấu hoặc tái đánh dấu có thể được thực hiện trong xử lý CAR như:
Đặt Precedence hoặc giá trị DSCP và phát đi IP Precedence ToS hoặc bit DSCP
trong header của gói được viết lại. Sau đó gói được phát đi. Hành động này có thể
đánh dấu hoặc tái đánh dấu các gói.
− Đặt bit MPLS experimental và truyền bit experimental MPLS có thể được thiết
lập. Thường sử dụng các tham số QoS báo hiệu trong MPLS.
− Đặt QoS group và phát QoS group có thể được đặt. Nó chỉ được sử dụng trong
router nội tại (local router). QoS group có thể được dùng trong cơ chế QoS cuối
cùng và thực hiện trên cùng một router, như là CB-WFQ.
3.4.1.3. Mô hình chiếc thùng và thẻ bài
Thưc hiện cơ chế đo lưu lượng bằng mô hình chiếc thùng và thẻ bài được chỉ ra
trong hình
61
Hình 3. 7 Mô hình chiếc thùng và thẻ bài
Mô hình chiếc thùng và thẻ bài (Token Bucket) là một mô hình cho việc điều hoà
lưu lượng, để xử lý bất kỳ một gói mới nào đi đến. Mỗi một thẻ (Token) đại diện sự
cho phép gửi một số lượng bit cố định vào mạng. Bucket (cái thùng) là khả năng giữ
một số lượng thẻ bài nào đó. Nếu bucket được điền đầy, thì các gói mới đến sẽ bị lờ đi,
không có thẻ bài cho các gói đến sau, do vậy các gói sẽ bị drop. Ví dụ Token bucket
với khả năng có thể là 700 bytes, khi một gói 500 byte đi đến giao diện, kích thước của
gói sẽ được so sánh với Bucket và gói 500 byte này được lấy thẻ bài. Khi một gói 300
byte tiếp theo đến ngay sau gói thứ nhất, gói này không được nhận thẻ bài vì trong
bucket chỉ còn có 200 thẻ cho gói tiếp theo, nên gói này bị drop. Thực hiện token
bucket dựa vào 3 tham số CIR, Bc, Be.
− CIR (Committed Information Rate) là tốc độ thông tin cam kết và cũng được gọi
là tốc độ cam kết hoặc tốc độ được định dạng.
− Bc được biết đến như là khả năng bùng nổ nằm trong giới hạn.
− Be là khả năng bùng nổ quá giới hạn.
− Tc là chu kỳ mà số thẻ được thêm vào.
3.4.2 Định dạng lưu lượng tổng quát - GTS (Generic Traffic Shaping)
− GTS cho phép người quản trị điều khiển lưu lượng đầu ra của một giao diện phù
hợp với các yêu cầu giữa tốc độ trạm đầu ra và chỉ tiêu của giao diện mà đã được
thỏa thuận trước. Từ đó loại trừ hiệu ứng nút cổ chai xảy ra trong mạng.
− GTS cho phép thực hiện điều khiển truy nhập băng thông khả dụng, bên cạnh đó nó
cũng có tính năng ngăn cản quá tình làm mất gói.
− GTS cũng có thể sử dụng để giới hạn tốc độ truyền dẫn. Người sử dụng có thể giới
hạn tốc độ truyền dẫn theo một trong các đặc tính sau:
Tốc độ được thiết lập.
Tốc độ của trạm gửi dựa trên mức tắc nghẽn.
− GTS làm “trơn” lưu lượng bằng cách lưu giữ lưu lượng có tốc độ lớn hơn tốc độ
được thiết lập trong một hàng đợi.
a. Cơ chế hoạt động của GTS
62
GTS bao gồm các khối chức năng (xem Hình 3.8 Sơ đồ các khối chức năng của
GTS) như sau:
− Bộ phân lớp lưu lượng: Phân loại các lớp lưu lượng khác nhau để có thể có các
chính sách được áp dụng khác nhau.
− Bộ đo (Metering): Dùng cơ chế token-bucket để phân biệt lưu lượng thỏa mãn và
lưu lượng quá ngưỡng.
− Định dạng: Dùng buffer để trễ những lưu lượng vượt quá tốc độ, và sửa dạng
chúng tới một tốc độ giới hạn đã được cấu hình. GTS được thực hiện như cơ chế
hàng đợi, trong đó có các hàng đợi trễ WFQ riêng biệt được thực hiện cho mỗi lớp
lưu lượng. Mỗi hàng đợi trễ các gói cho tới khi chúng thỏa mãn tốc độ giới hạn, và
cũng sắp xếp chúng theo thuật toán WFQ. Sau đó lưu lượng được thỏa mãn sẽ
được gửi tới giao diện vật lý.
Hình 3. 8 Sơ đồ các khối chức năng của GTS
Đầu tiên các gói được đưa tới các bộ phân loại, sự phân lớp có thể được thực hiện
bằng access-list. Một gói được phân lớp đi vào một lớp định dạng, kích thước của
chúng được so sánh với số lượng thẻ bài có thể trong token bucket của lớp đó. Gói
được chuyển tiếp tới hàng đợi giao diện chính nếu đủ thẻ bài. Nếu không đủ thẻ bài
cho các gói chuyển tiếp, các gói nằm trong bộ đệm trong hệ thống WFQ được gán cho
lớp định dạng này. Sau đó router làm đầy token bucket định kỳ và kiểm tra nếu đủ thẻ
bài cấp cho các gói chuyển tiếp. Các gói được xếp ra khỏi hàng đợi định dạng tùy
thuộc vào thuật toán sắp xếp WFQ.
b. Kết luận
GTS thực thi trong phiên bản router hỗ trợ đa giao thức và làm việc trên nhiều loại
giao diện khác nhau. WFQ được dùng như hàng đợi trễ định dạng, cho phép sự sắp
63
xếp công bằng trong một lớp lưu lượng. GTS có thể thực hiện kết hợp với các cơ chế
hàng đợi khác như: FIFO, PQ, CQ, WFQ. GTS chỉ làm việc ở đầu ra của giao diện.
GTS có thể được dùng để định dạng tất cả lưu lượng đầu ra trên giao diện hoặc nó có
thể chia thành nhiều lớp định dạng.
Kết luận chương
Chương 3 đã đưa ra các phân tích ưu điểm và hạn chế của các chiến lược quản lý
hàng đợi DropTail, RED, WRED.
Ngoài ra còn phương pháp Tốc độ truy cập cam kết – CAR và phương pháp Sửa
dạng lưu lượng – GTS.
Trong chương tiếp theo chúng tôi sử dụng NS2 để mô phỏng, so sánh giải thuật
WRED với DropTail, RED, đưa ra những nhận xét, đánh giá hiệu năng và khẳng định
bằng thực nghiệm mô phỏng về các giải thuật này.
64
Chương 4: ĐÁNH GIÁ VÀ SO SÁNH WRED VỚI
DROP-TAIL VÀ RED
4.1. Giới thiệu bộ mô phỏng mạng NS-2
NS-2 là phần mềm mô phỏng mạng hướng đối tượng, được viết bằng ngôn ngữ
C++ và OTcl. Bằng NS-2, ta có thể tạo ra các nút mạng theo 1 topo xác định, sau đó
gắn các nguồn sinh lưu lượng dữ liệu lên các thực thể giao thức để truyền qua mạng,
theo các giao thức định tuyến xác định, từ đó quan sát cách thức hoạt động của mạng
và phân tích dữ liệu đến và đi qua các node.
Sử dụng NS-2 mang lại 4 lợi ích chính:
− Có khả năng kiểm tra, mô phỏng các giao thức sẵn có theo nhiều kịch bản, topo
mạng khác nhau
− Cho khả năng thử nghiệm, đánh giá các giao thức mạng mới trước khi triển khai
thực hiện và đưa vào sử dụng trong mạng thực.
− Khả năng thực thi mạnh: có những mô hình mạng lớn mà gần như ta không thể
triển khai được trong thực tế nhưng lại dễ dàng xây dựng trên NS-2.
− Có thể mô phỏng nhiều loại mạng khác nhau và rất linh hoạt khi xây dựng kịch
bản.
NS-2 là phần mềm mã nguồn mở có sẵn cho cả nền Windows 32 và Linux. Trong
hệ thống mạng xây dựng cho luận văn, chúng tôi triển khai trên hệ điều hành Ubuntu
10.04 Lucid Lynx, phiên bản của phần mềm là 2.33. NS-2 được cài đặt chuẩn thông
qua tiện ích aptitude, khai báo nguồn trong source.list như sau:
deb lucid main
deb-src lucid main
4.2. Thiết lập tô-pô mạng mô phỏng
Trong các thí nghiệm mô phỏng DropTail, RED, WRED, chúng tôi sử dụng chung
một tô-pô mạng mô phỏng (node, link...) để so sánh ưu nhược điểm giữa các giao thức.
Nhằm mục tiêu kiểm tra hoạt động của hàng đợi nên hệ thống mạng mô phỏng cần
phải có 1 đường truyền là nút cổ chai, có băng thông nhỏ hơn tổng thông lượng truyền
qua nó.
Mạng mô phỏng có cấu trúc như trong hình sau:
65
Hình 4.1 Cấu trúc mô phỏng
Hệ thống gồm 8 nút, trong đó R1, R2, CORE đóng vai trò là router trên đường đi,
S1, S2, S3, S4 là nguồn phát và DEST là đích.
Với mục đích minh họa các chiến lược quản lý hàng đợi để chống tắc nghẽn, hệ
thống được thiết kế như trên với nhiều nguồn phát tới đích, đi qua mạng có điểm nút
cổ chai là đường truyền (link) nối nút CORE và nút R2 với băng thông thấp. Tất cả các
đường truyền đều là song công với thời gian đáp ứng và băng thông như trên hình vẽ.
Mỗi nguồn S1, S2, S3 được gắn với 1 thực thể gửi (nguồn) của giao thức TCP, mỗi
thực thể gửi TCP lại được gắn với một nguồn sinh lưu lượng của ứng dụng FTP, đó là:
ftp(1,1) ; ftp(1,2); ftp(1,3); ftp(2,1).... Nguồn sinh lưu lượng trên nút S4 phát dữ liệu
với tốc độ không đổi - CBR bằng giao thức UDP. Nguồn S3 và S4 nằm trên nút nỗi
với các đường truyền có băng thông lớn nhằm mục đích tạo ra các thời điểm bùng
phát, truyền nhiều dữ liệu làm ngập nút cổ chai.
Các thông số quan trọng khác: kích thước cửa sổ tối đa của các luồng TCP: 50;
kích thước các gói tin: 100 byte.
Router ghi nhãn CORE là nơi sẽ xảy ra tắc nghẽn, ta sẽ triển khai các dịch vụ quản
lý hàng đợi tại đó để so sánh đặc tính của các chiến lược quản lý hàng đợi.
4.3. Kịch bản mô phỏng
Trong các thí nghiệm mô phỏng DropTail, RED, WRED sử dụng chung 1 kịch bản
mô phỏng (tô-pô mạng, các nguồn sinh lưu lượng, các thời điểm bắt đầu, kết thúc
truyền, kích thước hàng đợi...). Mục tiêu của kịch bản là nhằm tạo ra ngữ cảnh thuận
lợi cho việc quan sát trạng thái của hệ thống như: số gói tin trong hàng đợi, phục hồi
tốc độ truyền giữa các nguồn, số gói tin bị mất… khi hệ thống trong trạng thái bình
thường và khi có xảy ra tắc nghẽn.
Với mỗi một giao thức, ta có 3 kịch bản như sau:
− Kịch bản 1: Tăng cường độ tắc nghẽn với các nguồn phát TCP
Giây 0.1, 10 và 20 lần lượt các nguồn S1, S2, S3 bắt đầu truyền 1 luồng ftp
tương ứng.
66
Tại giây 20, lúc S3 bắt đầu truyền thì tổng băng thông của 3 nguồn đã bắt
đầu lớn hơn băng thông của nút cổ chai (3Mbps), nhưng do có hàng đợi nên
vẫn trong phạm vi xử lý được của router CORE.
Đến giây 30, tại nguồn S3 thì 2 luồng ftp(3,2) và ftp(3,3) cùng lúc truyền và
chiếm hết băng thông 5Mbps của link S4-R1. Từ đó tạo nên thời điểm tắc
nghẽn ở nút cổ chai.
Đến giây 40, cả 3 luồng TCP tại S3 đều đột ngột dừng truyền, mô tả burst
dữ liệu đã hết. Từ đó ta sẽ quan sát sự phục hồi về tốc độ truyền của S1 và
S2.
Code:
$ns at 0.1 "$ftp(1,1) start"
$ns at 10 "$ftp(2,1) start"
$ns at 20 "$ftp(3,1) start"
$ns at 30 "$ftp(3,2) start"
$ns at 30 "$ftp(3,3) start"
$ns at 40 "$ftp(3,1) stop"
$ns at 40 "$ftp(3,2) stop"
$ns at 40 "$ftp(3,3) stop"
− Kịch bản 2: Tăng cường độ tắc nghẽn với nguồn phát UDP
Thí nghiệm này có 2 phần: theo dõi, so sánh sự thay đổi khi có sự bùng phát
về lưu lượng UDP trong 2 trường hợp UDP: khi các luồng TCP đang chạy
ổn định và khi các luồng TCP cũng đang tắc nghẽn.
Thí nghiệm thực hiện với thông lượng của luồng UDP là 5Mbps. Trong khi
đó băng thông của nút cổ chai chỉ là 3Mbps. Tình trạng tắc nghẽn sẽ xảy ra
tại link CORE-R2, các gói tin sẽ được cache trong queue của router Core.
Code:
$ns at 0.1 "$ftp(1,1) start"
$ns at 0.1 "$ftp(2,1) start"
$ns at 10 "$ftp(3,1) start"
$ns at 20 "$cbr4 start"
$ns at 30 "$cbr4 stop"
$ns at 40 "$ftp(3,1) stop"
- Kịch bản 3: Luồng ưu tiên bắt đầu chạy khi đang có tắc nghẽn
Kịch bản này chỉ áp dụng với cơ chế WRED với chức năng đặt ưu tiên
truyền dữ liệu theo nguồn phát.
Khi mạng bị tắc nghẽn bởi nguồn CBR cbr4, các luồng dữ liệu TCP với độ
ưu tiên khác nhau lần lượt được phát. Sau một thời gian thì luồng gây tắc
67
nghẽn CBR dừng truyền, từ đó ta sẽ quan sát được độ phục hồi của hệ
thống.
Code:
$ns at 0.1 "$cbr4 start"
$ns at 0.1 "$ftp(2,1) start"
$ns at 10 "$ftp(1,1) start"
$ns at 20 "$ftp(3,1) start"
$ns at 20 "$ftp(3,2) start"
$ns at 20 "$ftp(3,3) start"
$ns at 30 "$cbr4 stop"
$ns at 40 "$ftp(2,1) stop"
4.4. Đánh giá hiệu năng truyền thông đa phương tiện khi sử dụng DropTail
và RED
4.4.1 Kịch bản 1: Tăng cường độ tắc nghẽn với các nguồn phát TCP
a. Kết quả
Ta theo dõi 2 giải thuật DropTail và RED dựa trên 3 tham số: tỉ lệ packet mất, kích
thước hàng đợi và thông lượng sử dụng.
Hình 4. 2 Tỉ lệ packet bị mất của DropTail và RED
68
Hình 4. 3 – Kích thước hàng đợi của DropTail và RED
Hình 4. 4 Thông lượng của DropTail và RED
b. Nhận xét
− Trong vòng 20 giây đầu, chưa có sự quá tải băng thông xảy ra, vì thế trong cả 2
giao thức thì luồng dữ liệu đều đi qua thông suốt, gần như không có packet nào
phải ở trong hàng đợi. Tốc độ truyền của các luồng TCP qua link giữa 2 router
CORE – R2 đạt tốc độ tối đa.
− 20s – 30s: bắt đầu xuất hiện tắc nghẽn, các gói tin được lưu lại ở trong hàng đợi.
Với giao thức DropTail thì đạt ổn định khoảng 38 packet thường xuyên trong
69
queue, dưới ngưỡng tối đa 50 packet của link, và vì thế không có packet nào bị
drop, dù băng thông đã bị đầy. Nhưng giao thức RED lại khác, do có cơ chế drop
sớm các gói tin trong hàng đợi nên đã xuất hiện các packet bị mất, từ đó lưu lượng
truyền dao động, không liên tục đạt ngưỡng tối đa 3Mbps, nhưng bù lại số gói tin
trong hàng đợi giảm hẳn, dao động mạnh trong khoảng từ 0 đến 36 packet.
− 30s - 40s: lưu lượng truyền tăng cường TCP, tại giây 30 đột ngột tăng làm tràn đầy
queue (hiện tượng lock out) ở cả 2 giao thức. Với DropTail, do đặc tính của nó nên
băng thông lúc nào cũng được sử dụng tối đa, tuy nhiên số gói tin trong hàng đợi
dao động hết sức thất thường, từ 0-50 packet, rất thường xuyên đạt ngưỡng 50
packet và drop mọi gói tin đến (hiện tượng lockout). Với RED, do có khả năng
drop sớm nên không bị hiện tượng này, và số gói tin trong hàng đợi vẫn dao động
ổn định quanh ngưỡng từ 5 đến 35 packet.
− 40s – 50s: quá trình bùng phát dữ liệu kết thúc, hàng đợi được giải phóng, không có
gói tin nào bị mất. Trong thí nghiệm này thì giao thức DropTail tỏ ra tốt hơn khi gần
như ngay lập tức tốc độ truyền của S1 và S2 đã duy trì ở mức tối đa. Trong khi đó, dựa
vào biểu đồ băng thông, ta thấy với giao thức RED thì S1 và S2 phải mất 2 giây để từ
từ tăng window size lên để truyền với tốc độ cao nhất. Nguyên nhân của việc này là do
trong quá trình trước đó, RED đã drop nhiều gói tin hơn hẳn so với DropTail, trong đó
vì tính ngẫu nhiên, nhiều gói tin từ nguồn S1, S2 cũng bị drop theo, vì thế trường
window size từ 2 nguồn này đã giảm thấp và cần thời gian để phục hồi.
4.4.2. Thí nghiệm 2: Tăng cường độ tắc nghẽn với nguồn phát UDP
a. Kết quả
Ta theo dõi sự thay đổi của thông lượng - throughput sử dụng trên link CORE – R2
với 2 lần thay đổi mức độ bùng phát UDP như kịch bản đã phát biểu ở trên.
Hình 4. 5 Kích thước hàng đợi của DropTail và RED
70
Hình 4. 6 Thông lượng của Droptail và RED khi CBR có throughput 3Mbps
Hình 4. 6.2. Thông lượng của Droptail và RED khi CBR có throughput 5Mbps
71
Hình 4.7. Tỉ lệ packet bị mất của Droptail và RED
b. Nhận xét:
Giao thức UDP truyền tin không tin cậy, nó không sử dụng trường window size
hay 1 cơ chế nào khác để tự giảm tốc độ truyền mà chỉ đơn thuần là làm ngập băng
thông, khác với giao thức TCP có thể tự giảm tốc độ truyền khi gặp tắc nghẽn. Trong
thí nghiệm 2, ta có thể thấy tại giây 30, sau khi dừng phát UDP, chỉ còn luồng TCP
đang hoạt động, thì có sự khác biệt giữa tốc độ phục hồi của luồng TCP giữa giao thức
DropTail và RED.
Trong trường hợp mức độ bùng phát tại nguồn UDP chưa thật sự lớn (3Mbps, bằng
với băng thông nút cổ chai) thì kết quả thu được cho thấy 2 nguồn TCP khi sử dụng
giao thức RED có thể phục hồi nhanh hơn hẳn so với DropTail. Cụ thể tại các giây 30,
3 luồng TCP ở RED với tổng thông lượng 100Kbps chỉ mất 2s để đạt được thông
lượng tối đa 3Mbps. Trong khi đó với Droptail thì từ 0 Kbps và phải mất đến 5s mới
phục hồi hoàn toàn, lâu hơn 2,5 lần.
Tuy nhiên khi mức độ bùng phát tại nguồn UDP nghiêm trọng (5Mbps) thì kết quả
thu được giữa 2 giao thức là không có sự khác biệt rõ ràng. Với lượng dữ liệu lớn,
ngập tràn thì thuật toán loại bỏ sớm ngẫu nhiên của RED không còn tỏ ra hiệu quả, và
tốc độ phục hồi ở giây 30 như trong thí nghiệm trên không có nhiều sự khác biệt so với
giải thuật DropTail.
4.5. Đánh giá hiệu năng truyền thông đa phương tiện khi sử dụng WRED
Topô mạng và kịch bản được xây dựng chung như đã trình bày trong phần trên.
WRED có nhiều loại khác nhau, tùy theo mục đích cần minh họa cho Policier Type
nào mà ta sẽ có kịch bản tùy chỉnh các tham số tương ứng. Chi tiết sẽ được trình bày
trong mô phỏng cụ thể tiếp theo.
4.5.1. Mô phỏng WRED TSW2CM và TSW3CM
72
a. Cấu hình mô phỏng
Theo mô phỏng, ta sẽ ưu tiên các gói tin từ nguồn S1 và S3, và sẽ hạn chế thông
lượng từ S2 và S4. Ngưỡng CIR của S1, S3 đặt max băng thông của nó và lần lượt là
1Mbps và 3Mbps. Ngưỡng CIR của 2 luồng cần giới hạn S2, S4 sẽ đặt lần lượt là
0.5Mbps và 1Mbps.
Tham số PIR của TSW3CM sẽ được thiết lập gấp đôi so với CIR.
TSW2CM sử dụng 2 hàng đợi ảo, trong đó hàng đợi (0,0) màu green sẽ được ưu
tiên hơn, hàng đợi (0,1) màu đỏ sẽ có xác suất drop cao hơn. Cụ thể trong cấu hình
configQ như sau:
$qCR2 configQ 0 0 20 80 0.02
$qCR2 configQ 0 1 20 40 0.10
TSW3CM sử dụng 3 hàng đợi ảo, trong đó hàng đợi (0,0) màu green sẽ được ưu
tiên nhất, tiếp đó hàng đợi (0,1) màu vàng sẽ có xác suất drop cao hơn., và cuối cùng
hàng đợi (0,2) màu đỏ kém ưu tiên sẽ bị drop nhiều nhất. Cụ thể trong cấu hình
configQ như sau:
$qCR2 configQ 0 0 20 80 0.02
$qCR2 configQ 0 1 20 40 0.10
$qCR2 configQ 0 2 10 20 0.30
b. Phương thức thu thập kết quả
− Lấy dữ liệu từ NS2:
Với mục đích nghiên cứu về các cơ chế quản lý hàng đợi nên kết quả thu thập được
sẽ chủ yếu được lấy từ hàng đợi Core-R2, là nơi có băng thông thấp và xảy ra hiện
tượng nút cổ chai.
Thông số thu thập bao gồm kích cỡ, thông lượng và số gói tin bị mất. Các giá trị
này được tính toán và ghi vào file bằng việc phân tích dữ liệu ở qFile – đối tượng
thuộc dạng monitor-queue. Từ các giá trị thu được ta dùng xgraph để vẽ biểu đồ so
sánh tương ứng.
− Đường trung bình
Do dữ liệu thô có biên độ dao động lớn, để trực quan hơn ta sử dụng giá trị trung
bình. Ta tính giá trị này theo thuật toán:
average = (old_average * (1 – 1/2n )) + (current_queue_size * 1/2n )
Trong đó:
n: là hệ số trọng số và có thể cấu hình được.
average: Cỡ hàng đợi trung bình
old_average: Cỡ hàng đợi trung bình trước đó
current_queue_size: Kích thước hàng đợi hiện tại
File shell script: calculate_average_point.sh lấy đầu vào là file dữ liệu kích cỡ,
thông lượng hoặc số gói tin bị mất, từ đó sinh ra file ghi các giá trị trung bình tương
73
ứng. Ta sử dụng file mới này để vẽ đường trung bình. Chi tiết code của file
calculate_average_point.sh được cung cấp trong phụ lục của luận văn.
− Độ trễ
Để tính độ trễ của các gói tin khi qua các node thì ta phải phân tích tệp vết của file
tcl.
Tệp vết sẽ sử dụng 2 chương trình awk để phân tích :
calculate-queue-delay.awk : tính độ trễ trung bình khi các gói tin đi qua 1 link
(thường bị chậm do lưu trong queue).
calculate-flow-delay.awk: tính độ trễ trung bình của 1 flow từ nguồn đến đích.
Do các tệp vết ghi đầy đủ thông tin về tất cả các gói tin qua mạng nên dung lượng
thường khá lớn. Với 45s mô phỏng của mỗi kịch bản thì tệp vết sẽ có xấp xỉ khoảng 3
triệu record và dung lượng khoảng 120MB. Trong luận văn ứng với mỗi kịch bản mô
phỏng và cơ chế quản lý hàng đợi thì đều có 1 tệp vết tương ứng. Vì vậy, có tất cả
3x3=9 tệp vết được phân tích.
c. Kết quả
Ta xem xét kích thước hàng đợi và băng thông qua Core router khi sử dụng các kĩ
thuật RED, TSW2CM, TSW3CM
- Kịch bản 1: Tăng cường độ tắc nghẽn với nguồn phát TCP
Hình 4. 8. Kích thước hàng đợi RED, WRED-TSW2CM , WRED-TSW3CM
[
74
Hình 4. 9 Kết quả so sánh thông lượng của RED với hai chính sách của WRED
Hình 4. 10 Đường thông lượng trung bình của RED, tsw2cm và tsw3cm
Giao thức
quản lý hàng
đợi
Thời gian trễ
trung bình của
link R1 - Core
(s)
Thời gian trễ
trung bình của
link Core – R2
(s)
Thời gian trễ
trung bình của
link R2 – Dest
(s)
Thời gian trễ
trung bình từ
nguồn S1 đến
đích (s)
RED 0.00512952 0.00950826 0.005112 0.00859365
WRED
tsw2cm 0.0101001 0.0182467 0.005112 0.00976031
WRED
tsw3cm 0.0100821 0.024623 0.00508321 0.0092573
75
Bảng 4.1. Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 1
- Kịch bản 2: Tăng cường độ tắc nghẽn với nguồn phát UDP
Hình 4. 11 Kích thước hàng đợi của RED, tsw2cm và tsw3cm (Kịch bản 2)
Hình 4. 12 Kết quả so sánh thông lượng của RED với ba chính sách của WRED
76
Hình 4. 13 Kết quả so sánh đường thông lượng trung bình của RED với ba chính sách
của WRED
Giao thức
quản lý hàng
đợi
Thời gian trễ
trung bình của
link R1 - Core
(s)
Thời gian trễ
trung bình của
link Core – R2
(s)
Thời gian trễ
trung bình của
link R2 – Dest
(s)
Thời gian trễ
trung bình từ
nguồn S1 đến
đích (s)
RED 0.00510018 0.0310101 0.00510062 0.00852365
WRED
tsw2cm 0.0101055 0.0154239 0.005112 0.00920217
WRED
tsw3cm 0.0100949 0.0196376 0.00509856 0.00922524
Bảng 4.2. Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 2
- Kịch bản 3: Luồng ưu tiên bắt đầu chạy khi đang có tắc nghẽn
77
Hình 4. 14 Kích thước hàng đợi của RED, tsw2cm và tsw3cm (Kịch bản 3)
Hình 4. 15 Kết quả so sánh thông lượng của RED với ba chính sách của WRED
78
Hình 4. 16 Kết quả so sánh thông lượng trung bình của RED với ba chính sách của
WRED
Giao thức quản
lý hàng đợi
Thời gian trễ
trung bình của
link R1 - Core
(s)
Thời gian trễ
trung bình của
link Core – R2
(s)
Thời gian trễ
trung bình của
link R2 – Dest
(s)
Thời gian trễ
trung bình từ
nguồn S1 đến
đích (s)
RED 0.00508605 0.0606333 0.00508553 0.00850128
WRED tsw2cm 0.0101001 0.0182467 0.005112 0.00976031
WRED tsw3cm 0.0100821 0.024623 0.00508321 0.0092573
Bảng 4.3. Kết quả so sánh thời gian trễ của RED, tsw2cm và ts3cm ở kịch bản 3
d. Nhận xét
Kịch bản 1: bùng phát TCP, ta có thể thấy 1 sự khác biệt đáng kể giữa 3 chính
sách: RED, TSW2CM và TSW3CM:
− RED tận dụng được nhiều băng thông nhất, tuy nhiên không có cơ chế QoS để
ưu tiên luồng dữ liệu từ S1 và S3. Khi có tắc nghẽn (từ giây 20 đến giây 40) thì
loại bỏ gói tin ngẫu nhiên trong hàng đợi. Sau khi nguồn S3 ngập băng thông
ngừng truyền, thì thông lượng qua router cũng bị giảm đột ngột, dữ liệu từ S1
và S2 phải mất 2 giây để phục hồi từ tốc độ 1Mbps lên 2Mbps
− TSW2CM theo cấu hình luôn ưu tiên S1 vào hàng đợi (0,0) ưu tiên còn S2 vào
hàng đợi (0,1) có xác suất loại bỏ rất cao. Theo cấu hình tại configQ thì các
traffic của S2 đã vượt ngưỡng maxth 20 nên trong kịch bản này bị drop toàn bộ.
Biên độ dao động tốc độ truyền là khá lớn, nhưng đến khi dữ liệu ưu tiên từ
nguồn S3 làm ngập mạng, thì router tận dụng hết throughput để phục vụ S3 và
đường throughput trở nên “mịn”. Đặc biệt, sau khi S3 dừng truyền ở giây 40 thì
ngay lập tức S1 vẫn có tốc độ truyền tối đa (1Mbps) chứ không bị mất 2 giây
79
phục hồi như RED. Điều này chứng tỏ sau khi S1 được ổn định tốc độ tối đa, dù
có xảy ra tắc nghẽn nhưng do được ưu tiên nên không có gói tin nào của S1 bị
mất. Từ đó tốc độ S1 không bị ảnh hưởng.
− TSW3CM được cấu hình với các luồng dữ liệu từ S2, S4 ban đầu sẽ được cho
vào hàng đợi (0,1), nói cách khác traffic được màu vàng, chỉ hạn chế phần nào
tốc độ truyền chứ không cấm chặt chẽ như màu đỏ ở hàng đợi (0,2).Vì vậy khi
tới giây 10, nguồn S2 với tốc độ 1Mbps bắt đầu truyền nhưng chỉ được đi qua
55%, từ giây 10 đến giây 20, băng thông đi qua router core dao động trong
khoảng 1,55 Mbps. Khi bùng phát xảy ra ở giây 30, do nguồn gây bùng phát là
S3 và cũng là 1 nguồn được ưu tiên, vì thế dữ liệu bùng phát nhanh chóng
chiếm đầy hàng đợi mà không bị drop. Từ đó gây nên hiện tược lockout và sau
đó băng thông của router tụt xuống về gần 0. Sau đó quá trình truyền dữ liệu
khi quá tải của CORE router hết sức bất thường với sự tăng giảm đột ngột, liên
tục của tốc độ truyền. Khi nguồn bùng phát S3 dừng truyền dữ liệu thì giống
như TSW2CM, ngay lập tức S1 và S2 vẫn giữ được tốc độ lý tưởng (1,55Mbps)
như trước khi xảy ra tắc nghẽn. Điều này chứng tỏ khả năng phục hồi của hệ
thống là rất tốt.
− Về độ trễ trung bình, giao thức RED cho thời gian trễ là nhỏ nhất. Nguyên nhân
là khi chạy giao thức WRED tsw2cmm tsw3cm, các gói tin cần mất thêm thời
gian tại link R1-CORE để đánh dấu và router core ở link CORE-R2 cũng mất
nhiều thời gian phân loại, ưu tiên gói tin theo hàng đợi hơn.
Kịch bản 2: bùng phát UDP
− RED: kết quả của thí nghiệm không khác với những gì đã làm trong phần trên.
Băng thông được tận dụng nhiều nhưng khi bùng phát xảy ra, dữ liệu truyền lại
chủ yếu là UDP, và sau đó các luồng tcp phải mất đến 6 giây mới phục hồi
được tốc độ 3Mbps như ban đầu.
− TSW2CP: Do cấu hình đã đánh dấu traffic từ S2 và S4 bằng màu đỏ, đặt vào
hàng đợi (0,1) với tham số loại bỏ rất cao. Vì thế ngay từ khi bắt đầu S2 và S4
đã vi phạm ngưỡng truyền CIR và bị drop sớm. Dữ liệu bùng phát không được
truyền qua router CORE, không làm ngập băng thông và các traffic TCP từ S1,
S3 được bảo đảm hoàn toàn, không gặp phải tắc nghẽn.
− TSW3CP: Dữ liệu từ nguồn bùng phát S4 được đánh dấu màu vàng, cho vào
hàng đợi (0,1) với các tham số loại bỏ vừa phải. Tuy nhiên do traffic UDP bùng
phát sinh ra là quá lớn nên trong khoảng thời gian từ 20s đến 30s đã chiếm toàn
bộ băng thông của router CORE. Kết quả là hệ thống cũng mất đến 6s để phục
hồi lại tốc độ truyền TCP như trước khi tắc nghẽn, TSW3CP trong trường hợp
này không đạt hiệu quả nào đáng kể trong việc chống bùng phát.
80
− Về thời gian trễ trung bình, RED vẫn chỉ bằng 1 nửa so với tsw2cm và tsw3cm
trong link R1-CORE vì không phải đánh dấu gói tin. Tuy nhiên tại link CORE-
R2 thì thời gian trễ của RED là 0,0310101 giây, nhiều hơn gấp đôi so với
0.0154239 và 0.0196376 của tsw2cm và tsw3cm. Nguyên nhân vì lưu lượng
CBR phát ra là rất lớn, giao thức RED drop gói tin sớm không hiệu quả bằng
WRED nên trong thời gian hàng đợi bị tràn nhiều hơn hẳn. Vì thế gói tin bị giữ
trong hàng đợi lâu hơn và tổng hợp lại làm thời gian trễ trung bình của gói tin
RED trong kết nối CORE-R2 nhiều lên.
Kịch bản 3: Luồng ưu tiên bắt đầu chạy khi đang có tắc nghẽn
− RED: do traffic từ S2, S4 truyền quá mạnh, và không có cơ chế ưu tiên nên
traffic từ S1, S3 truyền vào trong thời gian tắc nghẽn không gây được hiệu quả
nào. Sau khi hết tắc nghẽn, băng thông được giải phóng thì S1, S3 mới bắt đầu
tăng window size từ 0 lên và mới truyền được dữ liệu
− TSW2CM: traffic từ S2, S4 bị đánh màu Đỏ và nhanh chóng bị drop, vì thế khi
S1 và S3 bắt đầu truyền vào giây 10 và giây 20, chúng không gặp cản trở gì và
nhanh chóng đạt tốc độ tối đa.
− TSW3CM: Dữ liệu từ S2, S4 bị đánh màu Vàng, có khả năng bị drop nhiều
hơn nhưng do lưu lượng bùng phát là quá lớn, nên cho dù traffic ưu tiên từ S1,
S3 cũng không thể truyền qua được. Sau khi nguồn S2, S4 dừng truyền thì
traffic của S1, S3 dần dần chiếm được băng thông nhưng với tốc độ chậm hơn
RED
− Thời gian trễ trung bình của RED và WRED trong link R1-CORE không có gì
thay đổi so với kịch bản 1 và 2. Tuy nhiên tại nút cổ chai CORE-R2 thì có sự
khác biệt rõ rệt. Ta có thể quan sát tương ứng với biểu đồ thông lượng, thì giải
thuật nào có thời gian truyền với full throughput lâu hơn thì sẽ có nhiều packet
lưu trong hàng đợi hơn, theo đó thì độ trễ của gói tin sẽ lớn theo. Theo bảng dữ
liệu thì RED với cơ chế quản lý hàng đợi kém hơn có thời gian trễ lớn nhất ở
nút cổ chai là 0.0606333, so với 0.0182467 và 0.024623 của tsw2cm và
tsw3cm.
4.5 So sánh và kết luận chung
Qua việc lập mô phỏng WRED với phương pháp TSW2CM và TSW3CM, so với
RED, DropTail thì ta thấy có 1 số ưu điểm như sau:
− Ta có thể định nghĩa chính xác ưu tiên cho những luồng dữ liệu nào, và có thể
chặn hoặc giới hạn traffic từ những nguồn không mong muốn. Điều này có ý
nghĩa quyết định trong việc triển khai mô hình QoS bảo đảm chất lượng dịch vụ
truyền tin.
81
− Độ phục hồi của dữ liệu sau khi xảy ra bùng phát được cải thiện đáng kể. Nếu
có cấu hình đúng đắn, thì tốc độ truyền sẽ được bảm đảo, vẫn đạt tối đa ngay cả
khi tắc nghẽn xảy ra.
Việc thiết lập cấu hình ưu tiên một cách hợp lý cho các luồng traffic là tối quan
trọng trong WRED. Thí nghiệm với TSW3CM cho thấy nếu nguồn bùng phát được
giới hạn không đúng mức, thì khi xảy ra tắc nghẽn, giao thức sẽ không có được kết
quả mong muốn, thậm chí còn giảm đáng kể hiệu năng của hệ thống
4.6 Hướng nghiên cứu tiếp theo
Trong phạm vi luận văn này chúng tôi mới nghiên cứu, tìm hiểu, đánh giá và mô
phỏng một số chiến lược quản lý hàng đợi: DropTail, RED và đặc biệt là WRED. Để
có thể chứng minh được tính ưu việt của giao thức WRED cũng như tăng tính chất
thực tiễn của nghiên cứu, chúng ta có thể phát triển luận văn theo hướng triển khai, áp
dụng RED, WRED trên 1 số thiết bị router/switch của Cisco.
Trong thực tế, cơ chế quản lý hàng đợi RED và WRED đã được lập trình như là 1
thành phần hoàn chỉnh của router/switch và được tích hợp vào hệ điều hành IOS trên
một số thiết bị phần cứng của Cisco, Juniper. Các dòng router/switch của Cisco hỗ trợ
RED, WRED là: AS5200, 4000, 4500 4700, 7000 series, 7500 series…
Qua quá trình nghiên cứu, có 3 kịch bản triển khai thực tế của Cisco mà sử dụng cơ
chế quản lý hàng đợi RED, WRED như là 1 thành phần của QoS. Chúng tôi đề xuất
một số giải pháp triển khai trong doanh nghiệp.
Dưới đây là các giải pháp triển khai:
4.6.1 SNA ToS (System Network Architecture Term of Service)
Kiến trúc hệ thống mạng (SNA) ToS là 1 khái niệm liên quan đến sự chuyển mạch
ở tầng datalink (datalink switching plus DSLw+), nó cho phép ánh xạ giữa một kiến
trúc hệ thống mạng CoS (Class of Service) với 1 dịch vụ IP riêng lẻ.
Sơ đồ triển khai của hệ thống như sau:
82
Hình 4.17 Kiến trúc mạng TOS
DLSW+ mở 4 TCP session và ánh xạ mỗi lưu lượng SNA ToS vào 1 session, trong
hình vẽ trên là các dịch vụ SNA interactive, Telnet, SNA batch và FTP. Mỗi session
lại được đánh dấu bằng 1 độ ưu tiên trong queue và có thể áp dụng các cơ chế quản lý
hàng đợi của QoS.
4.6.2 QoS VoIP Solution
Với mục đích tăng cường chất lượng thoại trong truyền tin VoIP, khả năng QoS
cần phải thêm vào mạng dữ liệu truyền thống. Chức năng QoS của hệ điều hành IOS
trên các thiết bị Cisco đáp ứng tốt yêu cầu đó với việc kết hợp luồng dữ liệu voice với
dữ liệu thông thường.
Sơ đồ sau diễn tả một mô hình mạng doanh nghiệp thực tế sử dụng hệ thống VoIP
đã được tối ưu về chi phí thoại.
83
Hình 4.18 Sơ đồ hệ thống VoIP trong doanh nghiệp
3 router dòng 3620, 3640 kết nối giữa 3 chi nhánh của doanh nghiệp, trên đó được
cấu hình QoS với các chiến lược quản lý hàng đợi để tối ưu tốc độ truyền và giảm độ
trễ cho dữ liệu thoại.
4.6.3 QoS trong streaming video
Xây dựng hệ thống streaming video thì khó khăn hơn hệ thống VoIP vì video yêu
cầu được đáp ứng một lượng dải thông lớn hơn rất nhiều. Trong sơ đồ tiếp theo, giao
thức RSVP (Resource Reservation Protocol) được kết nối với hệ thống ATM PVCs để
đảm bảo 1 lượng băng thông ổn định cho việc truyền streaming video.
84
Hình 4.19 Sơ đồ hệ thống Streaming Video trong doanh nghiệp
85
TÀI LIỆU THAM KHẢO
Tài liệu Tiếng Việt
[1]. PGS.TS. Nguyễn Đình Việt, Bài giảng đánh giá hiệu năng mạng máy tính,
2008.
[2]. PGS.TS. Nguyễn Đình Việt, Bài giảng Mạng và Truyền số liệu nâng cao,
2008.
[3]. Luận văn cao học - Nguyễn Đức Xuân Bình, 2009.
[4]. Vũ Duy Lợi, Nguyễn Đình Việt, Ngô Thị Duyên, Lê Thị Hợi (2004), “Đánh
giá hiệu suất chiến lược quản lý hàng đợi RED bằng bộ mô phỏng NS”, Kỷ yếu
Hội thảo Khoa học Quốc gia lần thứ hai về Nghiên cứu, Phát triển và Ứng dụng
Công nghệ Thông tin và Truyền thông (ICT.rda'04), (Hà nội, 24-25/9/2004). NXB
Khoa học và Kỹ thuật, Hà Nội, 5/2005, trang 394-403.
Báo cáo khoa học, PGS,TS Vũ Duy Lợi, TS Nguyễn Đình Việt, Sinh viên Ngô Thị
Duyên, Lê Thị Hợi, 2004.
[5]. Luận văn cao học – Lê Đình Danh, 2007
Tài liệu Tiếng Anh
[6]. The ns Manual (formerly ns Notes and Documentation) - A Collaboration
between researchers at UC Berkeley, LBL, USC/ISI, and Xerox PARCAAuthor,
Reference 1, Publisher, Year.
[7]. A study of TCP-RED congestion control using ns2 - Arijit Ganguly & Pasi
Lassila
[8]. A Network Simulator Differentiated Services Implementation - Peter Pieda &
Jeremy Ethridge & Mandeep Baines & Farhan Shallwani
[9]. Implementing Quality of Service – Cisco
[10]. Integration of Mechanisms for ACK Control and Queueing Management in
Network Traffic Control – Vo Thanh Tu & Nguyen Thuc Hai
[11]. Adaptive RED: An Algorithm for Increasing the Robustness of RED’s Active
Queue Management - Sally Floyd, Ramakrishna Gummadi, and Scott Shenker
[12]. NS Simulator for beginners - Eitan Altman & Tania Jimenez
[13]. Network advanced modeling in NS-2 - Giovanni Perbellini
[14]. B. SUTER ET AL., “Efficient Active Queue Management for Internet
Routers”, Proc. Eng. Conf. at Interop 98, Las Vegas, NV, May 1998.
[15]. http:// www. isi.edu/nsnam/ns/ns-documentation.html
[16]. LEONARD KLEINROCK, “On the Modeling and Analysis of Computer
Networks”, IEEE, vol.81, No.8, August 1993.
[17]. M. BORDEN, V. FIROIU, “Queue Management for Congestion Control”,
IEEE INFOCOM, Mar 2000.
86
[18]. S. FLOYD AND V. JACOBSON, “Random Early Detection Gateways for
Conges-tion Avoidance”, IEEE/ACM Trans. Net., vol. 1, no. 4, Aug. 1993,
pp.397–413.
[19]. SALLY FLOYD, “A Report on Some Recent Developments in TCP
Congestion Control”, IEEE Magazine, April 2001.
[20]. R. G. GALLAGER, A. K. PAREKH, “A Generalized Processor Sharing
Approach to Flow Control in Integrated Services Networks: The Multiple Node
Case”, IEEE Net., vol. 2, no. 2, Apr. 1994, pp. 137–50.
Các file đính kèm theo tài liệu này:
- LUẬN VĂN- ĐÁNH GIÁ HIỆU QUẢ ĐẢM BẢO QoS CHO TRUYỀN THÔNG ĐA PHƯƠNG TIỆN CỦA CHIẾN LƯỢC QUẢN LÝ HÀNG ĐỢI WRED.pdf