Đề tài Kiến trúc cqs

MỤC LỤC THUẬT NGỮ VIẾT TẮT v LỜI NÓI ĐẦU 1 CHƯƠNG 1: TỔNG QUAN VỀ QoS 2 1. 1. Giới thiệu chung 2 1. 1. 1 Chất lượng dịch vụ của ATM 3 1. 1. 2 Những dịch vụ QoS của hệ điều hành liên mạng Cisco 5 1. 1. 3 Chất lượng dịch vụ (QoS) trên Internet và Intranet 7 1. 1. 4 Chất lượng dịch vụ trong viễn cảnh ứng dụng 8 1. 2. Khái niệm 9 1. 2. 1 Phân cấp QoS 11 1. 2. 2 Bảo đảm QoS 12 1. 2. 3 Các tham số QoS 14 1. 2. 3. 1 Băng thông 14 1. 2. 3. 2. Trễ 15 1. 2. 3. 3. Jitter 16 1. 2. 3. 4. Loss 17 1. 2. 3. 5. Độ khả dụng 19 1. 2. 3. 6. Bảo mật 20 1. 3. Kiến trúc QoS 21 1. 3. 1 QoS nhận dạng và đánh dấu 22 1. 3. 2 QoS trong một thiết bị mạng 22 1. 3. 2. 1 Quản lý tắc nghẽn 22 1. 3. 2. 2 Quản lý hàng đợi 23 1. 3. 2. 3 Hiệu suất liên kết 23 1. 3. 2. 4 Chính sách và định hình lưu lượng 23 1. 3. 3 Các mức QoS 24 1. 4 Bổ xung QoS vào mạng IP 25 1. 4. 1 Các giao thức và thuật toán sử dụng để thêm QoS vào mạng IP 27 1. 4. 1. 1 Tốc độ truy nhập cam kết. 27 1. 4. 1. 2 Xếp hàng trên cơ sở lớp 27 1. 4. 1. 3 Lớp dịch vụ 28 1. 4. 1. 4 Các dịch vụ phân biệt 28 1. 4. 1. 5 Quyền ưu tiên IP 28 1. 4. 1. 6 Chuyển mạch nhãn đa giao thức 29 1. 4. 1. 7 Xếp hàng theo VC. 29 1. 4. 1. 8 Định tuyến theo chính sách. 29 1. 4. 1. 9 Các hàng QoS. 30 1. 4. 1. 10 Loại bỏ sớm ngẫu nhiên. 30 1. 4. 1. 11 Giao thức dự trữ tài nguyên 30 1. 4. 1. 12 Trường dịch vụ 33 1. 4. 1. 13 Định hình lưu lượng 33 1. 4. 1. 14 Xếp hàng hợp lý theo trọng số 33 1. 4. 1. 15 Quản lý băng thông mạng con 34 1. 4. 2 Báo hiệu QoS 35 1. 5. Định tuyến QoS 35 CHƯƠNG 2: KIẾN TRÚC CQS 37 2. 1 Tổng quan về kiến trúc CQS 37 2. 2. Các chức năng của kiến trúc CQS 39 2. 2. 1 Định hình lưu lượng 39 2. 2. 2 Hợp đồng lưu lượng 41 2. 2. 3 Phân mảnh hàng đợi 41 2. 3. Đánh dấu và sắp xếp lại 42 2. 4. Các ứng dụng của kiến trúc CQS 43 2. 4. 1. Router nguồn 43 2. 4. 2. Các dịch vụ ứng dụng 45 2. 4. 2. 1 Dịch vụ Best Effort 45 2. 4. 2. 2 Dịch vụ tích hợp IntServ 47 2. 4. 2. 3 Dịch vụ DiffServ 51 2. 4. 2. 4 QoS và tunnel 58 2. 4. 2. 5 QoS và MPLS 58 CHƯƠNG 3: SCHEDULING 61 3. 1. Khái niệm 61 3. 1. 1 Giới thiệu 61 3. 1. 2. Tốc độ định hình 61 3. 1. 3 Quyền ưu tiên chặt 62 3. 2. Lập lịch gói 63 3. 2. 1 Tổng quan 63 3. 2. 2 Các thuật toán 64 3. 2. 2. 1 FIFO 64 3. 2. 2. 2 Leaky Buckets 65 3. 2. 2. 3 Round-Robin 66 3. 2. 2. 4 Stop-And-Go 67 3. 2. 2. 5 EDD Phí sớm nhất của ngày 69 3. 2. 2. 6 RCSP ưu tiên tốc độ điều khiển cố định 70 3. 2. 2. 7 GPS 72 3. 2. 2. 8 WFQ 74 3. 2. 2. 9 Đồng hồ ảo . 77 3. 2. 2. 10 SCFQ Xếp hàng hợp lý tự định giờ 79 3. 2. 2. 11 WF2Q 81 3. 2. 2. 12 WF2Q+ 82 3. 2. 2. 13 Thuật toán trong trường hợp nhiều node 83 3. 2. 2. 14 Thuật toán lập lịch không lõi 84 CHƯƠNG 4: ĐỊNH HƯỚNG PHÁT TRIỂN MẠNG VIỄN THÔNG VIỆT NAM 91 4. 1. Mạng mục tiêu 91 4. 2. Mạng truyền dẫn 92 4. 3. Mạng truy nhập 93 4. 4. Sự phát triển của các mạng lên NGN 94 4. 4. 1 Sự hội tụ các mạng 94 4. 4. 2 Sự tiến hoá của các mạng lên NGN 94 4. 4. 3 Các chức năng tiến hoá 95 4. 5. Một số dịch vụ bảo đảm QoS trong mạng 96 4. 5. 1 Sử dụng các giao thức hỗ trợ 96 4. 5. 2 Sử dụng các mô hình dịch vụ 97 4. 5. 2. 1 Dịch vụ IntServ 97 4. 5. 2. 2 Dịch vụ DiffServ 97 4. 5. 3 Đo kiểm và đánh giá QoS trong mạng NGN 98 KẾT LUẬN 100 TÀI LIỆU THAM KHẢO

doc107 trang | Chia sẻ: lvcdongnoi | Lượt xem: 2613 | Lượt tải: 0download
Bạn đang xem trước 20 trang tài liệu Đề tài Kiến trúc cqs, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
ột tuỳ theo số lượng các Hop, khi độ trễ hàng đợi tại của các gói tại các Hop khác nhau một khoảng [35]. FIFO+ là một quá trình thử để gây ra sự phân chia các hàng FIFO (tất cả những người sử dụng trong cùng một lớp có độ jitter là ngang nhau) qua tất cả các Hop theo các đường có jitter tối thiểu. Với mỗi Hop chúng ta đo độ trễ trung bình cho các gói trong mỗi lớp tại node đó. Sau đó chúng ta tính toán cho mỗi gói khác nhau với độ trễ ngoại lệ của chúng và tính trung bình của lớp. Chúng ta cộng “hoặc trừ” giá trị khác nhau này vào một trường trong tiêu đề gói. Sau đó tính tổng cho các gói này từ giá trị trung bình của lớp. Trường này cho phép mỗi node tính toán khi các gói đã đến. Bộ lập lịch tập hợp các khả năng phân chia kết nối và lập bộ đệm đầu vào cho mỗi người sử dụng các dịch vụ đó. Chúng ta gói đó là phân phối phần chia hợp lý lớn nhất và nhỏ nhất-max-min fair share nếu giá trị lớn nhất và nhỏ nhất phân chia của một người sử dụng yêu cầu vẫn chưa đủ làm thoả mãn. Hàng đợi FIFO (bao gồm cả FIFO+) không thể cung cấp một sự phân chia hợp lý hay là không cung cấp “giấy thông hành”. Giấy thông hành có nghĩa là một cách cư xử xấu của một người sử dụng (bằng việc gửi đi các gói tại một tốc độ cao hơn phần phân chia hợp lý của nó) có thể không ảnh hưởng tới việc nhận của những người khác. Với hàng đợi FIFO trễ chính của người sử dụng có thể tăng lên nếu tổng các tốc độ đến của tất cả những người sử dụng tăng lên. Theo đó, chúng ta có thể đưa ra một số biện pháp lập lịch mà nó có thể cung cấp cả hai giá trị hợp lý và “giấy thông hành”. 3. 2. 2. 2 Leaky Buckets (Thuật toán gáo rò) Tốc độ phân chia đạt được bằng việc thường xuyên hạn chế khi mỗi lần hàng đợi được phục vụ và bộ lập lịch không làm gì cả. Nếu một gói đến với một khoảng thời gian ngắn hơn thời gian cho phép của bộ lập lịch, chúng được xếp hàng vào một ngưỡng có thể gây tràn. Hình vẽ 3. 2 cho thấy một bộ lập lịch không bao giờ thử cho hàng đợi đầu thường đến với mỗi T giây, điều này không quan trọng nếu các gói đến được bó chặt lại, chúng sẽ xuất phát sau khoảng T giây. Schedule Cổng M Ít nhất Tgiây giữa hai lần Hàng đợi(khác) Hàng(được phân chia lớp) T Gói đi 1 2 3 4 Phân loại 1 2 3 4 Gói đến Các gói đến đã được bó Hình 3. 2 :Sự phân chia yêu cầu lập lịch thời gian cho các hàng đợi Hình 3. 2 đề cập đến các hàng đợi chưa biết khác, việc phân chia không nhất thiết là phải lập lịch phân chia chung. Việc phân chia cũng có thể kết hợp với một hàng đợi độc lập với các hàng đợi khác trong hệ thống. Dù sao, nếu việc phân chia được dự định là bắt buộc tốc độ bit trung bình qua hàng đợi, thời gian phục vụ cần biến đổi linh hoạt, nó phụ thuộc vào số bytes truyền dẫn, độ dài gói tiếp theo trong hàng đợi và tốc độ bit trung bình. 3. 2. 2. 3 Round-Robin(RR) Trong thuật toán lập lịch RR, gói tin sẽ được tới xếp hàng trước bởi người sử dụng. Người phục vụ cắt mỗi hàng trong vòng và phục vụ gói tin từ một hàng không rỗng bất kì. Một sự cư xử không đúng đắn sẽ làm đầy hàng của nó, và người sử dụng khác sẽ không bị ảnh hưởng . Vì thế, RR có thể cung cấp một sự bảo hộ. RR là một cố gắng để đối xử với tất cả mọi người sử dụng như nhau và cung cấp cho họ một sự chia sẻ như nhau về các liên kết. Nó thực hiện một cách hợp lý khi tất cả mọi người sử dụng có cùng khối lượng tin và tất cả các gói tin có cùng kích cỡ (như là những tế bào trong mạng ATM). Nếu người sử dụng có khối lượng tin khác nhau thì trọng số của RR(WRR) phục vụ một người sử dụng tương ứng với khối lượng tin của anh ta. Xét một RR có hai người sử dụng A và B có khối lượng tin WA=3, WB=7 tế bào đối với từng người, hệ thống sáp xếp sẽ đưa ra 30 % [=WA/ WA+ WB ] sự chia sẻ kết nối cho người A v à 70 % [=WB/ WA+ WB ] sự chia sẻ kết nối cho người B. Một tế bào đầu ra liên tục trong một vòng có thể là AAABBBBBB. Một sự tiến hành tốt hơn của WRR một cách hiệu quả đồng bộ tới cấu trúc hệ thống và đưa ra ABBABBBBB. Như thế, người sử dụng A không cần 7 đơn vị thời gian trước khi có tín hiệu gửi đi. DRR(Deficit RR)-vòng RR hụt có thể sửa đổi WRR để cho phép biến đổi kích cỡ gói tin theo một kiểu hợp lý. Ý tưởng cơ sở là sử dụng RR với một mức phục vụ ấn định cho mỗi hàng. Sự khác biệt duy nhất với RR truyền thống là: nếu một hàng không thể gửi một gói tin vào vòng trước vì kích cỡ của gói tin quá lớn (rộng), thì phần còn lại ở mức trước được cộng vào mức của vòng kế tiếp. Vì vậy, sự thiếu hụt được ghi lại chi tiết trong thuật toán. Giả sử rằng mối luồng i cấp cho Qi bít trong mỗi vòng ; sẽ có một sự kết hợp thay đổi trạng thái DCi ghi nhớ những sự thiếu hụt. Mỗi vòng là 1 RR ảnh hưởng qua lại lẫn nhau dưới hàng chưa thực hiện được. Để triệt tiêu những hàng rỗng, một bảng phụ lục Active được giữ và gồm có không những chỉ số của hàng mà bao gồm cả những phần tối thiểu của một gói tin. Gói tin đến từ đường truyền khác nhau thì sẽ được để ở các hàng khác nhau. Để số byte của đầu đường truyền (HDL) gói tin vào 1 hàng i trong vòng k bởi byte (k). Bất cứ lúc nào 1 gói tin đến hàng vòng i một cách nhanh chóng, i sẽ cộng tới cuối của thuật toán trong phép toán: DCi DCi + Qi, gửi ra hàng ngoài HOL Tuy nhiên DRR chỉ sử dụng hợp lý khi thời gian kéo dài hơn thời gian vòng. Ở thời gian ngắn hơn, một vài người sử dụng có thể có thêm hình thức phục vụ ( chọn giới hạn bít được gửi ) hơn người khác. 3. 2. 2. 4 Stop-And-Go Stop-And-Go sử dụng một cấu trúc mang tính chiến lược ở mỗi chiến lược, trục thời gian là đường chia trong cấu trúc đó là một khoảng dài không đổi T. Stop-And-Go định rõ sự khởi hành và đến đích cho mỗi liên kết. Tại mỗi chuyển mạch, khung chứa các gói của tuyến liên kết đến được sắp xếp lại để các khung của tuyến kết nối đầu ra xuất phát bằng cách thiết lập một giá trị trễ là ∂ với 0≤ ∂< T. Việc truyền dẫn của mỗi gói có đến được trên mỗi kết nối l trong một khung f luôn được trì hoãn cho tới khi khung tiếp theo bắt đầu. Stop-And-Go bảo đảm rằng các gói tin trên cùng một thứ tự ở nguồn sẽ được ở cùng một thứ tự trong mạng. Nếu hàm lưu lượng ở nguồn là (r;T) độ êm (i. e, không thể hơn r. T bit được thay đổi trong suốt thứ tự T ). Nó đáp ứng những gói tin có cùng đặc điểm lưu thông trên mạng. Hình 3. 3 :Mức khung G với G = 4, f1 = 3, f2 = 2, f3 = 2 Để kết nối các vấn đề xoay quanh vòng, bản dịch tổng quát của “Stop-And-Go” với thứ tự có kích cỡ phức tạp được đưa ra các thứ bậc cấu trúc. Cho level-G với thứ tự cỡ T1, …, TG chúng ta có Tg =fgtg ( với g = 1, …, G) Như sự mô tả ở hình 3. 3. Gói tin ở level-g- kết nối cần phải được giám sát bởi các qui tắc của “Stop and Go” với cỡ frame, Tg, i. e, gói tin cấp g có thể đến đầu ra của liên kết trong suốt 1 khoảng thời gian sẽ không trở nên thích hợp cho quá trình truyền nữa, cho đến khi khởi động thứ tự Tg tiếp theo. Cũng như vậy đối với 2 gói tin có cỡ thứ tự khác nhau, gói tin có cỡ thứ tự nhỏ hơn sẽ không được ưu tiên trước gói tin có cỡ thứ tự lớn hơn. Đặc biệt, ở mỗi mắt xích, bất cứ một cấp g nào đến đầu vào liên kết i sẽ được sắp đặt tới một cấp g ở đầu ra của liên kết j bởi sự đưa ra giữ chậm liên tục như được thể hiện ở hình 3. 4 Hình 3. 4 Trễ khung ghép tại một node chuyển mạch Kết quả là, nếu luồng lưu lượng của một kết nối mô tả đặc điểm của nguồn như (r, Tg )- độ êm smoth, nó sẽ đáp ứng cả những dữ liệu có cùng đặc điểm thông suốt trên mạng. Thời gian trễ cảu cấp g ở nút vòng, có thể được giới hạn trong khoảng Tg trạng thái trễ <2Tg Hơn nữa, thời trễ trong mỗi cấu trúc của gói tin ở nút vòng có thể hạn trong khoảng Tg . Vì vậy, thời gian trễ của gói tin có thể giới hạn 0 < Tế bào giữ chậm<3Tg Để có kết quả, bộ đệm cần phải được cung cấp một (r, Tg)- độ êm smooth có thể được đưa ra bởi qui luật Litle được tính bằng 3Tg. r. Với vòng tổ hợp Stop-And-Go, nó có thể cung cấp một thời gian trễ giới han thấp cho một vài kênh bằng cách cho chúng vào khung với thời gian khung hẹp hơn. Và để cung cấp băng thông đều đặn tới kênh khác bằng cách đưa chúng vào các mức với khung thời gian rộng hơn. Tuy nhiên sự liên quan giữa trễ và băng thông ấn định đều đặn vấn sẽ tồn tại trong mỗi khung. Vòng Robin có thứ bậc HRR giống với Stop-And-Go ở điểm, nó chỉ sử dụng những cấp chiến lược phức tạp. Một nấc ở một cấp có thể được phục vụ quay vòng trong suốt cấu trúc và những gói tin phục vụ và phù hợp với phần của nấc. Nếu người phục vụ xoay vòng trong suốt một nấc xác định của một kết nối, một gói tin từ kết nối ấy được chuyển đi; Nếu nó xoay vòng trong suốt một nấc xác định tới cấp thấp hơn, nó phục vụ một nấc từ cấp thấp vào cùng một cấp. Giống như Stop-And-Go, HRR chỉ duy trì lưu thông một cách trôi chảy trong mạng. Tuy nhiên có những khác biệt quan trọng giữa HRR và Stop-And-Go . Ví dụ như ta giả sử nguồn trong cùng một Frame. Ở Stop-And-Go, các gói tin dược truyền đi trong cùng một frame ở cổng vào tới mạng sẽ được truyền đi trong cùng một frame ở tất cả các liên kết truyền tải bởi tin nào từ nguồn tới người phục vụ bất kỳ được giới hạn bởi T khoảng thời gian. Ở HRR, gói tin được truyền đi trong cùng một frame ở đầu vào tới mạng không cần thiết ở lại trong cùng một frame ở mạng, tuy nhiên về chi tiết không có gì hơn 3 gói tin từ kết nối được truyền trong suốt khoảng thời gian được giữ xuyên suốt mạng. Từ khi HRR sử dụng cấp chiến lược nó chỉ có vấn đề về sự liên kết giữa trễ và băng thông ấn định đều đặn. 3. 2. 2. 5 EDD Phí sớm nhất của ngày Ở lớp lập lịch EDD có thời gian chúng ta phân chia mỗi gói tin một đường giới hạn và lập lịch phục vụ các gói tin trong lệnh của nó ở dòng giới hạn. Nếu thời hạn vượt quá sự cho phép thì một vài gói tin sẽ lạc mất đường giới hạn của nó. Hiển nhiên là, với EDD, gói tin đã được phân chia đường trễ nhỏ hơn so với những gói tin phân chia theo giới hạn hơn từ thời gian đến của chúng. Trễ EDD là một sự mở rộng của EDD với quá trình đặc biệt là thời hạn phân chia đường giới hạn tới ở một tốc độ cao nhất. Lập lịch được thiết lập tại đường giới hạn của một gói tin có thể được gửi đi vì nó nhận được không nhanh hơn là tốc độ đỉnh của nó. Vì vậy mỗi gói từ một phiên bắt buộc phải tuân theo tốc độ đỉnh có giới hạn trễ mà nó độc lập với băng thông dành riêng, nhưng ở giá trị của việc sử dụng tốc độ đỉnh cung cấp sẽ loại bỏ thời gian thống kê lợi ích đa dạng. Jitter EDD đưa ra trễ EDD để cung cấp giới hạn trễ Jitter ( một giới hạn trên thời gian trễ lớn nhất khác biệt giữa 2 gói tin). Jitter EDD kết hợp chặt chẽ với một trễ EDD có thời hạn trước bởi một máy điều chỉnh trễ Jitter. Sau khi một gói tin được phục vụ bởi một người phục vụ, khoảng trống trong nó được đánh dấu với sự khác biệt giữa đường giới hạn của nó và thời gian kết thúc thực. Một máy điều chỉnh ở đầu vào của người phục vụ kế tiếp nắm lấy gói tin cho giai đoạn trước khi nó được làm cho tương thích với thời hạn. Một thời hạn thực hiện trễ jitter được điều chỉnh có thể gỡ bỏ kết quả hàng trễ biến đổi ở nút trước vì vậy phải tránh sự phá vỡ cấu trúc của mạng chính xác hơn, nếu akn và ekn là quá trình đến và sự thích hợp về thời gian cho K của gói tin ở nút thứ n, tính riêng từng cái thì : eko= aok (3. 1) en+k= ekn + dn + ln, n+1 dn là giới hạn giữ chậm của nút trước và ln, n+1 là liên kết với giữ chậm với giữ chậm truyền lại giữa nút n và nút n+1. Gói tin thứ k thích hợp cho việc phục vụ ở nút sau nó chỉ thích hợp cho việc phục vụ sau khi một khoảng thời gian ấn định dài dn+ ln, n+1, - là khoảng thời gian giữ chậm dài nhất có thể ở nút trước và liên kết phía trước. Vì vậy, nếu một gói tin được phục vụ trước giới hạn trễ của nó ở nút trước, máy điều khiển trễ jitter ở nút dòng dưói sẽ cộng đủ trễ để chuyển đổi gói tin này thành trễ dài nhất có thể. Bởi thế cho nên, một mạng của lập lịch jitter EDD có thời hạn có thể đưa ra băng thông end-to-end, trễ, và giới hạn trễ jitter. Tuy nhiên, máy trễ jitter rất khó để thực hiện. Không chỉ nó đòi hỏi trễ trên mỗi liên kết, mà nó còn đòi hỏi mạng phải bảo vệ thời gian đồng bộ ở nút liền kề trong tất cả thời gian. Từ đó ở thế giới thực, đồng hồ thời gian trôi ra ngoài sự đồng bộ ngoại trừ chính xác, trễ jitter điều chỉnh bao hàm cả hệ thống của máy móc thực hiện được. 3. 2. 2. 6 RCSP ưu tiên tốc độ điều khiển cố định Khi thuật toán EDD có thể cung cấp linh hoạt giới hạn trễ và băng thông cung cấp, nó dựa trên một hạng cơ cấu ưu tiên mà không đi với một phần cứng cơ khí, rất khó để thực hiện mạng tốc độ cao . RCSP là mục đích để đạt được sự linh hoạt trong cung cấp thời gian trễ và băng rộng tốt đẹp như việc thực hiện một việc đơn giản. Như mô tả ở hình (4. 4) một RCSP phục vụ bao gồm tốc độ điều khiển và ưu tiên thời hạn cố định một cách lôgíc, một tốc độ điều khiển phù hợp với mỗi phục vụ. Khi gói tin đến người phục vụ, một thời gian thích hợp được tính toán để gắn vào gói tin bởi máy điều chỉnh. Máy đc 1 Máy đc 2 Máy đc N FIFO FIFO FIFO Mức độ bất lợi Lưu lượng yêu cầu Lưu lượng ra Lưu lượng vào 1 2 N Hình 3. 5 Một bộ điều chỉnh với N đường truyền Ví dụ, một dòng lưu thông được mô tả bằng (Xmin, XAVCI) nếu thời gian giữa 2 gói tin bất kỳ trong dòng hơn Xmin và khoảng thời gian trung bình của gói tin trong suốt quá trình truyền dài I và hơn XAVC. Ta có Xmin nhỏ hơn hoặc bằng Xavc <I. Cho một (Xmin, XAVC, I) điều chỉnh, thời gian tương thích của gói tin thứ k từ i, ei, k, là được vạch ra với sự liên quan tới thời gian tương thích của gói tin được chuyển tới sớm hơn đến người phục vụ ở cùng một vùng có ei, k= -1 với k0 ei, 1=ai, 1 ( 3. 2) ei, k =max (ei, k-1 + Xmin, ei, k-1+I, ai, k) ai, k là thời gian mà gói tin thứ k từ vùng I chuyển đến người phục vụ. Từ công thức trên đây chúng ta có thể thấy rằng ei, k luôn luôn lớn hơn hoặc bằng ai, k. Thời gian tương thích của một gói tin ở chỗ phục vụ là liên tục thì nó luôn luôn thoả mãn quá trình lưu thông (Xmin, Xave, I). Lập lịch trong RCSP sử dụng một chính sách ưu tiên cố định (SP) nó luôn lựa chọn gói tin ở đầu của mức ưu tiên cao nhất mà không rỗng . Đánh số của giới hạn giữ chậm liên kết với mức ưu tiên P và d1, d2, . . ., d∞ (d1< d2< . . . <d∞) lẻ trong một vòng RCSP. Kết nối thứ j giữa chuyền tải i1 mức ưu tiên l có hàm đặc biệt (Xlmin, j, Xavel, Ijl ) Liên kết tốc độ với hệ thống được hoà hợp làm một. Zhang và Ferrari đã chứng minh được rằng nếu: (3. 3) Thì thời gian đợi của một gói tin ở mức m được giới hạn bởi dm, với 1 Bất đẳng thức (3. 3) bảo đảm rằng gói tin mức m sẽ được truyền trong khoảng dm, sau khi nó được thu vào bởi liên kết. Để Max Packets thay đổi mức l là tổng số lớn nhất của mức gói tin có thể truyền đi trong thời gian dl . Chú ý rằng giá trị ban đầu của Max Packets được đặt tới 1. Một cuộc gọi i với hàm mô tả lm Maxpacketst + [dt/Xmint] dl (3. 4) Từ trên, i được nhận được như gọi một cấp độ m, chúng ta đặt: Nếu ta yêu cầu luồng đầu ra thoả mãn (Xmin, Xabe, 1), người lập lịch trình SP phải đưa thời gian khởi hành của gói thứ k từ phần thứ i, di, k trở lại phần điều chỉnh thông tin, vì vậy tính có thể chọn được thời gian thiết lập thuật toán đã được đưa ra trong (4. 2) có thể biến đổi dưới dạng: với k≤ 0, (3. 5) với k > 1. 3. 2. 2. 7 GPS (Generalized Processor Sharing): Phân chia bộ xử lý chung GPS là một ý tưởng thực thi sáng suốt mà nó cung cấp một cặp max – min chính xác được định rõ ở nơi chia sẻ. GPS là khá hợp lí mà nó định rõ toàn bộ khả năng đưa tới tất cả các phần còn lại trong sự cân đối với giá trị yêu cầu băng thông. Một cách cơ bản thì thuật toán này được xây dựng trên cơ sở một mẫu dòng lí tưởng. Điều đó có nghĩa là chúng ta thừa nhận rằng một người lập lịch trình GPS có thể đáp ứng tất cả các phần còn lại một cách tức thời và chỉ định tới các phần này. Nhưng trong các hệ thống thực chỉ có một phiên có thể được đáp ứng tại một thời điểm và các gói không thể bị cắt thành các thành phần nhỏ hơn được. Một lớp quan trọng mà được gọi là thuật toán gói sắp xếp hợp lý (packet fair queuing – PFQ) có thể được định nghĩa trong đó người lập lịch trình cố gắng sắp xếp các gói còn lại bằng một lịch trình gần đúng GPS, như là sắp xếp hợp lý theo trọng lượng (weighted fair queuing – WFQ), đồng hồ ảo, hay sắp xếp hợp lý theo đồng hồ riêng (self-clock fair queuing - SCFQ). Những nội dung này sẽ được thảo luận trong chương sau. Trước tiên chúng ta đi vào nghiên cứu ý tưởng thuật toán GPS. Thừa nhận rằng một tập hợp các phiên N (kết nối), được đánh số 1, 2, . . . N, chia sẻ các kết nối ngoài chung của một máy chủ GPS. Với i (1, 2, . . . N), đặt ri là giá trị nhỏ nhất của của phiên i. Bằng phương pháp quy nạp có thể bảo đảm rằng: (3. 6) ở đây r là công suất của đường liên kết ngoài. Đặt B(t) là sự thiết lập phiên sau tại thời điểm t, theo GPS [15], phiên sau i sẽ được định rõ bởi một chỉ số phục vụ gi(t) tại thời điểm t là: (3. 7) Chúng ta sẽ dùng một ví dụ để minh hoạ cho chỉ số phục vụ chỉ rõ nguyên lí của hệ thống GPS. Đặt Ai(τ, t) là số cuộc khởi hành của phiên thứ i trong khoảng (τ, t). Wi(τ, t) là số dịch vụ nhận được bởi phiên i trong cùng khoảng, và Qi(t) là số phiên lưu thông i sắp xếp trong máy chủ tại thời điểm t, nghĩa là: Qi(t)= Ai(τ, t) - Wi(τ, t). Chú ý rằng, hệ thống trở thành rỗi (không thực hiện) thì tất cả các tham số có thể được reset khởi tạo về 0. Định nghĩa 3. 1: Một chu kỳ bận của hệ thống là khoảng thời gian lớn nhất mà trong đó máy chủ luôn luôn bận với các gói luôn được truyền qua. Định nghĩa 3. 2: Chu kỳ đợi của phiên i là bất kỳ chu kỳ thời gian nào mà trong đó các gói của phiên i được tiếp tục xếp hàng trong hệ thống Định nghĩa 3. 3: Chu kỳ bận của phiên i là khoảng thời gian lớn nhất (τ1, τ2) mà đối với bất kỳ t (τ1, τ2] các gói của phiên i rời đi lớn hơn hoặc bằng so với ri nghĩa là: Ai(τ1, t) ≥ ri(t – τ1) với t (τ1, τ2). Sau khi xem xét hình 4. 5 chúng ta thấy rằng công suất của máy chủ là r = 1, và với 3 kết nối được đánh số 1, 2, và chia sẻ tới cùng một liên kết ra của máy chủ thì ở đó có: r1 = 1/6 Server r r= 1 r2 = 1/3 r2 = 1/2 Hình 3. 6 GPS server với mức nhập vào Giả sử rằng mỗi một gói có độ dài xác định và cần đúng một đơn vị thời gian để truyền qua. Tại thời điểm t = 0, phiên 1 bắt đầu một chu kỳ bận phiên trong đó từ phiên 1 rời đi khỏi máy chủ với tốc độ 1 gói trên một đơn vị thời gian. Tại thời điểm t = 1, các gói từ phiên 2 cũng bắt đầu rời khỏi máy chủ với cùng một tốc độ như vậy. Phiên 3 bắt đầu một chu kỳ bận phiên tại t = 3, với tốc độ rời đi của các gói là tương tự. Máy chủ GPS sẽ chỉ rõ một tốc độ dịch vụ cho mỗi phiên theo công thức sau: Chú ý là gi(t) cũng là độ dốc của đường cong phục vụ của phiên i tại thời điểm t. Hơn nữa, tại bất kỳ thời điểm nào trong chu kỳ bận của hệ thống, luôn có: do thuộc tính bảo toàn công việc. Thời điểm khởi hành của của gói đầu tiên của các phiên 1, 2, 3 theo thứ tự là 1, 2. 5, và 5. Chỉ số tính chất tốt của phần tồn phiên i có thể được định nghĩa là . Điều này có nghĩa là trong bất kỳ khoảng thời gian nào (τ1, τ2], đối với bất kỳ hai phần tồn nào của phiên i và j lịch trình được gọi là hoàn thiện khi và chỉ khi: Lúc này máy chủ GPS là đạt hiệu quả hoàn thiện. Theo một cách khác, PFQ là một sấp xỉ của lịch trình GPS mà không tạo ra một giả định GPS của kích cỡ gói rất nhỏ. Một cách trực quan, PFQ dựa trên cơ sở duy trì một hàm chức năng toàn cục. Hàm chức năng toàn cục này được sử dụng để tính toán thời gian kết thúc ảo cho mỗi gói hoặc cho gói HOL của mỗi phiên trong hệ thống. Biểu thời gian của một gói là tổng thời gian bắt đầu ảo của chúng và thời gian cần để truyền gói tại băng thông riêng của chúng. Các gói được cung cấp việc tăng bậc trong biểu thời gian của chúng. 3. 2. 2. 8 WFQ Mặc dù GPS cung cấp nguyên tắc một cách hoàn hảo mô hình lưu lượng chất lỏng lí tưởng khoảng có ích để thực hành. Ngoài ra chúng ta có thể dựa theo GPS cung cấp và sau đó làm biểu đồ gói tin dự trữ trong sự phù hợp với hoạt động dựa theo sự cung cấp của GPS. Một WFQ ( cũng gọi là nhóm GPS) hệ thống là xác định đặc điểm với khía cạnh hệ thống GPS thông tin của nó. Để GPS được là thời gian mà gói nhỏ đi khỏi (phục vụ xong) dưới GPS. Sự xấp xỉ gần đúng AP của GPS sẽ được một biểu đồ mà cung cấp gói nhỏ trong thứ tự đang tăng lên của dpGPS . Ngoài ra không luôn luôn có thể không có nguyên nhân thực hiện là không có công việc. Đó là nguyên nhân khi hệ thống gói nhỏ sẵn sang lựa chọn gói nhỏ tiếp theo được lưu thông, gói nhỏ tiếp theo tới dưới GPS không thể đến hệ thống gói nhỏ đựơc mở đòi hỏi nhận biết trong tương lai và nguyên nhân hệ thống không có công việc trong WFQ, thời gian khởi hành cung cấp đơn giản của 1 gói là dựa theo sự cung cấp của GPS. Giống như lịch thời gian của gói kia. Trong thứ tự đang tăng lên của của lịch thời gian này. Khi dịch vụ cung cấp sẵn sàng vận chuyển gói tiếp theo vào thời gian ﺡ, nó lựa chọn gói đưa đến mà sẽ cung cấp đầy đủ trong hệ thống GPS tương ứng nếu không có gói nhỏ đến sau ﺡ WFQ dùng khái niệm của thời gian thực tế để tìm sự phát triển của GPS mà sẽ dẫn dắt sự thực hiện từ gói đến gói GPS. Định nghĩa một sự việc giống như một vật mới hoặc sự khởi hành của một nhóm từ GPS cung cấp và mặc dù tj là thời gian mà sự kiện xảy ra. Đặt thời gian của vật mỗi lần đến bị bận trong một chu kỳ là ti= 0. Bây giờ xét cho mỗi j=2, 3, … kết quả của lần gặp mà bận trong khoảng (tj-1, tj) là không đổi. Chúng ta chứng minh kết quả là Bj. Thời gian thực tế V(t) là xác định tới 0 khi tất cả thời gian cung cấp là không thực hiện. Coi như thời kì bận và đặt thời gian mà nó bắt đầu là thời gian không. Sau đó rút ra như sau. V(0)= 0 (3. 8) V(tj-1, tj)= V(tj-1) + r/ trong đó tj – tj-1, j= 2, 3… Tốc độ thay đổi của V là dV(tj+)/d, r/ và mỗi cuộc gặp chưa thực hiện I thu một cung cấp Bây giờ giả thiết k gói tin từ cuộc gặp I tới đúng ai, k và dài Li, k. Sau đó hiển thị thực tế thời gian mà gói tin này bắt đầu và cung cấp trọn vẹn. SI, k gọi là thời gian thực [15] hoặc thế bắt đầu [19] và Fi, k thời gian hoàn thành thực tế 15 hoặc thế hoàn thành [19] riêng từng cái. Định nghĩa Fi, 0 cho với mọi i, ta có Si, k=max(Fi, k-1, V(ai, k)) Fi, k=Si, k + (3. 9) Vai trò của V(ai, k) là bỏ lại gía trị của Si, k khi xếp hàng i tới. Chủ đông (i, e thu một gói sau trở nên rỗng ). Sau khi tnhs đến cung cấp nó đọc [19, 29]. Thời gian bắt đầu của dự trữ xếp hàng có thể đóng với nhau chúng có thể cùng trong nhãn (i, diGPS, k) là thời gian đi khỏi gói này dựa theo dịch vụ GPS. Gói rời khỏi theo đúng thời gian khởi hành như là các gói tin cung cấp bởi dịch vụ GPS. Các gói tin mà có cùng thời gian xuất thì được đáp ứng tùy ý . Hình 3. 7 Hàm đồng hồ ảo Mặt khác, mỗi gói tin được ghi nhãn (). biểu diễn hàm bậc thang của thời gian với ; là thời gian đi tới của gói tin thứ của phiên và được tính theo (3. 9) . Chú ý rằng bậc xuất phát giống như ở hình 3. 7 . Trong [15], Pareckh và Gallager thiết lập mối quan hệ giữa hệ thống GPS và gói tin hệ thống WFQ tương ứng của nó : (3. 10) (3. 11) Tại và thời gian mà tại đó gói tin thứ trong phiên thứ đi ra WFQ và GPS một cách lần lượt; và là tổng số các dịch vụ nhận được bởi phiên (số bit của phiên truyền) trong thời gian ở WFQ và GPS một cách lần lượt ; và là độ dài tối đa giữa tất cả các phiên . Tham số khác, gọi là độ trễ [19], có thể định nghĩa và sử dụng để so sánh với sự thực thi của phục vụ WFQ và GPS . Định nghĩa 3. 4: Độ trễ của một phục vụ , là số không âm nhỏ nhất thoả mãn (3. 12) Trong phục vụ GPS, phiên mới ùn lại có thể nhận được sự phục vụ ngay với tốc độ bằng hoặc lớn hơn tốc độ truyền mà nó cần đến . Kết quả là độ trễ bằng không . Trong máy chủ WFQ tuy no, độ trễ trường hợp xấu nhất của gói đầu tiên chu kỳ dồn đầy của phiên i là di ở đây ai là thời gian đến của gói đó. Từ bất đẳng thức (3. 10) chúng ta có: Ở đây Li là kích thước gói cực đại của phiên I. Như vậy chung ta có thể kết luận rằng sự tăng của phiên i trong WFQ có được giới hạn bởi Li/n + Lmax Thuật toán WFQ có thời gian hoàn thành Q(N) vì ở đoạn đầu phần tương thích của tập hợp là Bj (là bản chất sự dồn phiên trong máy chủ. Tuy nhiên, chúng ta có thể tìm hàm thời gian khác để xấp xỉ hoá hàm thời gian ảo mà có độ phức tạp tính toán của bộ lệnh thuật toán có thể được giảm hơn nữa. Như biểu diễn trong phần tiếp theo, tất cả thuật toán PFQ dùng mô phỏng ưu thế dòng máy mà sự sắp xếp gói truyền tăng dần theo thời gian mẫu của chúng nhưng chúng khác nhau trong các lựa chọn hệ thống hàm thời gian ảo và gói lựa chọn kiểm tra. 3. 2. 2. 9 Đồng hồ ảo . Bộ lệnh đồng hồ ảo (VC) dùng hàm thời gian thực để tiệm cận hàm thời gian ảo như vậy, bộ lệnh được chia là: Vvc(t) = t khi t ≥ 0 (3. 13) K gói tin phiên i sẽ được chia theo mẫu thời gian Fi, k từ (3. 9) và (3. 13), cụ thể là: Fi, k =max{Fi, k, ai, k}+Li, k/ri (3. 14) Ở đây ai, k là thời gian đến của k gói phiên i hình 3. 8 biểu diễn đường cong V(t) và Vvc(t), hình (3. 9) biểu diễn đường cong dịch vụ và mức xuất phát của gói ở ví dụ trước . Từ thời gian thực luôn nhỏ hơn hay bằng thời gian đến, bộ dịch Vvc(t) có thể luôn cung cấp phiên dồn mới với sự tăng nhỏ hơn hay bằng với sự cung cấp bởi máy chủ WFQ. Tuy nhiên phương pháp dịch vụ Vc được định nghĩa tham chiếu tới hệ thống thờ gian đỉnh và sự tính toán thời gian mẫu là độc lập với cách tính của các phiên khác. Như vậy, nếu liên kết các gói đã gửi nhiều hơn đã định thì nó có thể bị xấu đi bởi Vc, không kể đến có phải hiệu quả xấu hay tốt thì các kết nối được thực hiện ví dụ, cho là có hai phiên 1 và 2 như trong 3. 8, tất cả các gói từ cả hai phiên cùng kích thước lượng kết nối thông thường là 1 gói cho một khoảng thời gian và r1 = r2 =0, 5 giây, như vậy thời gian mẫu của một phiên sẽ được chuyển lên trước bằng hai rãnh mỗi lúc . VVC(t) Hình 3. 8 :Lập lịch VC sử dụng thời gian thực gần như thời gian ảo Hình 3. 9 Thời gian kết thúc ảo và xuất phát của các gói lập lịch đồng hồ ảo Hình 3. 10 Ví dụ về sự không công bằng của đồng hồ ảo Ban đầu tại thời điểm 0 F10 = F20 = 0. Phiên 1 nguồn tiếp tục phát các gói từ thời điểm 0, trong khi phiên 2 nguồn bắt đầu gửi các gói tiếp tục tại thời điểm 700 (trong các đơn vị của rãnh), như minh hoạ trong (3. 10) F1 gói = 1802 tại thời điểm 900, trong khi F1, 2 = 902. Như vậy, Những gói nhỏ chuyển đến từ phiên 1 tại thời điểm gói chia thành (1082)không thể tạo thành dịch vụ cho các gói thứ 449 từ phiên 2(đến tại thời điểm 1449 và chưa thành 1800) đã kết thục dịch vụ của nó. Nói cách khác, các gói của phiên 1 đến trong khoảng từ [900, 1500] đã dùng máy chủ trong khoảng từ [0, 900]. Sự dùng riêng máy chủ như vậy không xảy ra đối với các gói của phiên 2. Hình 3. 9 cho thấy sự tổn thất bởi bộ lập lịch VC. Trong trường hợp này, các phiên một phải đợi máy chủ phục vụ phiên mới cho đến khi các gói HOL có một chu kì mẫu lớn hơn hay bằng với chu kì mẫu của các gói phiên cũ. Khi đó, bộ lập lịch VC không có giới hạn biên mà biên không là | Wi()/ri – Wj()/rj/rj|, lúc này cả hai phiên I và J đều dở dang. . 3. 2. 2. 10 SCFQ Xếp hàng hợp lý tự định giờ Bộ lập lịch SCFQ có chức năng cập nhật các giá trị thời gian ảo khi một gói xuất phát và ấn định thời gian ngang nhau cho các tem thời gian của gói đó. Đó là việc ấn định lập lịch Hình 3. 11 Lập lịch SCFQ sử dụng thời gian ảo nếu gói tin thứ i của phiên j xuất phát tại thời gian t ≥ 0 VSCFQ (t)=Fj, i (3. 15) Tương tự gói tin thứ k từ phiên i sẽ được ấn định a tem thời gian Fi, k. Từ (3. 9) và (3. 15) suy ra : Fi, k=max+Li/ri (3. 16) Hình 3. 12 Thời gian kết thúc và xuất phát của gói tin trong lập lịch SCFQ Hình 3. 13 Sự thiếu cân bằng của SCFQ và của VC. Đồ thị 3. 11 cho thấy đường cong tương ứng với V(t) và VSCFQ (t) và hình 3. 12 cho thấy các tem thời gian và lệnh xuất phát của các gói ở các ví dụ trước. Hình 3. 13 chứng minh rằng SCFQ có thể cung cấp một giá trị đảm bảo công bằng như thế nào thì ở vị trí tương tự trong hình 3. 10 ở đó VC cũng không có khả năng làm được như vậy. Khi xem xét hình 3. 13, chúng ta có thể thấy rằng dưới SCFQ các gói từ cả hai phiên đã đến trong một kiểu RR thoả hiệp để các tem thời gian của chúng sau khi phiên 2 đến là tại thời gian 900. So với bộ lập lịch VC, SCFQ có thể gần giống với WFQ hơn. Tuy nhiên đó cũng là vấn đề mà VSCFQ(t) có thể lớn hơn V(t) như trong hình 3. 11 và do đó trễ cũng có thể rất lớn. Xét trường hợp xấu nhất, tại các phiên N-1 có hiện tượng ùn tắc và tại các giá trị F cũng vậy. Giả sử rằng khi một gói hoàn thành việc truyền dẫn tại thời gian τ, thời gian ảo là thời gian được cập nhật từ lúc các gói khởi hành cho tới thời gian ảo kết thúc F, được gọi là VSCFO(τ). Cũng giả sử rằng phiên i đến tạm thời tại thời gian τ và N-2 HOL, các gói từ các phiên tạm thời khác cũng có các giá trị tem thời gian là VSCFQ(τ). Khi gói đầu tiên của phiên tạm thời gần đây có tem thời gian với giá trị nhỏ nhất là VSCFQ(τ) + Li, t/ri nó có thể là thời gian trễ trong trường hợp xấu nhất Li, t/ri +(N-1)Lmax/r [19, 20]. Giá trị đầu tiên (N-2)Lmax/r là cho các gói (N-2) đã truyền và giá trị tiếp theo Li, t/ri + Lmax/r là giá trị giống như latency trong WFO. Kết quả latency của bộ lập lịch SCFQ là Li, t/ri +(N-1)Lmax/r. 3. 2. 2. 11 WF2Q Hàng đợi hợp lý theo trọng số trong trường hợp xấu nhất Từ kết quả (3. 10) và (3. 11) có thể dễ dàng thấy rằng WFQ và GPS cung cấp hầu hết tính đúng đắn của một gói Parekh đã cung cấp rằng WFQ không thể sụp đổ sau GPS ở khía cạnh các dịch vụ cung cấp bởi một gói có kích thước lớn nhất . Xét hình 3. 14, ở đó 11 phiên được phân thành các liên kết giống nhau. Trục ngang là thời gian, trục dọc là đường đi đơn giản của mỗi phiên. Để đơn giản, giả sử tất cả các gói cùng có kích cỡ là 1 và tốc độ là 1. Đặt tốc độ bảo đảm của phiên 1 là 0. 5 và tốc độ của 10 phiên còn lại là 0. 05 Hình 3. 14 Ví dụ Phiên 1 gửi 11 gói lặp lại bắt đầu từ thời gian là 0, trong khi mỗi phiên của 10 phiên khác chỉ gửi 1 gói cũng tại thời gian là 0. Nếu dịch vụ là GPS nó sẽ giữ 2 đơn vị thời gian cho gói của phiên 1 và 20 đơn vị thời gian cho các gói của các phiên còn lại. Còn nếu server là WFQ, tại thời gian 0, tất cả 11 phiên có các gói gửi đi sẽ được xử lý. Khi gói p1, 1(gói đầu tiên của phiên 1) kết thúc tại thời gian 2, trong khi tất cả các gói khác sẽ kết thúc ở thời gian 20 trong hệ thống GPS. WFQ sẽ phục vụ gói p1, 1 trước, vì thế 10 gói trong phiên 1 sẽ có thời gian xử lý nhỏ hơn các gói từ các phiên khác. Tức là 10 gói trong phiên 1 sẽ được phục vụ lặp lại trước khi các gói trong phiên khác được truyền đi. Định nghĩa 3. 5 : Một dịch vụ s được gọi là hợp lý nhất cho phiên i nếu tại thời gian τ trễ của gói đến tại τ được giới hạn bởi Qis()/ri+cis đó là : Dsi, k<ai, k+Qsi(ai, k)/ri+csi (3. 17) Trong đó ri là giới hạn băng thông nhỏ nhất của phiên i, Qis() là kích thước của hàng đợi của phiên i tại thời gian ai, k khi gói thứ k của phiên i đến, cis là hằng số C’i=rici’/r (3. 18) C’=max{cis} (3. 19) Định l ý 3. 1: Cho một hệ thống WF2Q và một hệ thống GPS tương ứng, th ì các thuộc tính sẽ giữ cho mỗi i, k, τ là: DWFQi, k–di, kGPSLmax/r (3. 20) Wi, kWFS(0, 0)-WiWFQLmax (3. 21) WiW2FQ(0, 0)-WiGPS(1–ri/r)Li (3. 23) 3. 2. 2. 12 WF2Q+ WF2Q cung cấp giới hạn trễ chặt và nhỏ nhất WFI của tất cả các thuật toán PFQ, nó có thời gian phức tạp giống như trường hợp xấu nhất, O(N), như WFO vì chúng cần cả hai để tính toán thời gian ảo hay hệ thống thời gian ảo V(t) bằng dấu hiệu hệ thống GPS lỏng. WF2Q+ và SPFQ cho thấy có các đặc tính tương tự như WF2Q nhưng chúng thực hiện đơn giản hơn bằng việc đưa ra hàm thời gian ảo của hệ thống như sau: V(t+)=maxi(t) (3. 23) trong đó β(t) là tập hợp các phiên tạm thời trong hệ thống tại thời gian t, và Si(t) là thời gian bắt đầu ảo của phiên tạm thời của gói tin HOL. Gọi W(t, t+τ) là tổng số lượng các dịch vụ được cung cấp bởi các server hoặc số bit đã được truyền dẫn trong khoảng thời gian (t, t+τ). Trong trường hợp đặc biệt của một server tốc độ không đổi, τ = W(t, t+τ)/r, trong đó r là khả năng kết nối. Thời gian phức tạp được giảm tới O (log N), các thuộc tính này được vận hành cho việc tìm kiếm giá trị thời gian bắt đầu nhỏ nhất trong số các phiên N. Gần giống với GPS, thuật toán PQF, như WF2Q+ và SPFQ duy trì một hệ thống hàm thời gian ảo V(t), hàm thời gian bắt đầu ảo Si(t) và hàm thời gian kết thúc ảo (hoặc tem thời gian) Fi(t) cho mỗi hàng đợi i. Si(t) và Fi(t) được cập nhật khi các gói HOL đến mỗi hàng đợi. Một gói thực sự khởi hành khi các bit cuối của nó được gửi ra ngoài khi một gói đến xuất hiện trong hai trường hợp sau : Trường hợp 1, một hàng đợi trước rỗng ngay lập tức có một gói HOL đến ; trường hợp 2 gói tiếp theo của gói HOL trong một hàng đợi không rỗng ngay lập tức trở thành gói HOL khi nó xuất phát. Hiển nhiên, trong trường hợp 2 gói xuất phát và gói đến tại cùng một thời điểm, vì thế: Si(t) = max{V(t), Fi(t -)} ; đối với gói đến trong trường hợp 1 (3. 24) Si(t) = Fi(t -) ; đối với gói đến trong trường hợp 2 Fi(t) = Si(t) + LiHOL/ri Ở đây, Fi(t -) là thời gian kết thúc của hàng đợi i trước khi cập nhật và LiHOL là độ dài của gói HOL trong hàng đợi i. Cách chính để xác định V(t) là sử dụng thuật toán PFQ [19, 29] đã đưa ra. 3. 2. 2. 13 Thuật toán trong trường hợp nhiều node Một chú ý rất quan trọng của thuật toán PFQ, giống như WQF với điều khiển truy nhập lưu lượng bằng gáo rò, có thể cung cấp trễ bảo đảm end-to-end trong trường hợp xấu nhất. Để thấy điều đó, giả sử lưu lượng phiên i được điều chỉnh bằng một gáo rò với tham số ( σi, ρi), trong đó σi là giá trị tràn lớn nhất và ρi là tốc độ nguồn trung bình. Đó là tốc độ đến của phiên i tại đầu vào của mạng trong khoảng thời gian ( τ, t] thoả mãn bất đẳng thức Ai(τ, t)≤σi+ρi(t-τ) (3. 25) Đó là K bộ lập lịch PFQ ; mỗi bộ lập lịch có tốc độ kết nối như nhau và cung cấp một giá trị băng thông bảo đảm nhỏ nhất, ri ≥ ρi, cho mỗi phiên. Gọi Li và Lmax lần lượt là gói lớn nhất trong phiên i và trong tất cả các phiên của mạng . Sau đó xử lý độc lập các phiên khác(nếu chúng không bắt buộc có gáo rò), hàng đợi end-to-end trường hợp xấu nhất và trễ truyền dẫn Di được giới hạn bởi: Di≤σi/ri+(K-1)Li/ri+K. Lmax/r (3. 26) Hình 3. 15 Giới hạn trễ của nhiều node Hình 3. 15 minh hoạ việc tính toán độ trễ cực đại, độ trễ lớn nhất của gói tại node 1, d1 là : σi/ri +Lmax/r . Tại node k, k = 2, 3, . . ., K, chúng ta có dk = Li/ri + Lmax/r . Vì thế, chúng ta có Di = d1 + (k - 1)dk . Mặc dù, qua phiên thực tế, một chuỗi các bộ lập lịch, nó có thể được xử lý nếu nó được phục vụ bằng một bộ lập lịch với tốc độ ri, vì vậy khi nguồn gửi σi, trễ σi/ri giống như trong dịch vụ GPS. Thời kì tiếp theo của mỗi bộ lập lịch, các gói khác từ phiên i sẽ nhận được dịch vụ của nó trước khi bị “đuổi bắt”, vì thế các gói bị đuổi bắt có trễ là Li/ri . Thời kì thứ 3, xét đến trường hợp đuổi bắt gói bằng một bộ lập lịch bận, nó phải đợi một khoảng thời gian là Lmax/r trước khi được phục vụ. Bất đẳng thức (3. 26) có thể dễ dàng mở rộng cho các vị trí chung với tốc độ kết nối hỗn hợp. Định lý Parekh và Gallager cho rằng, với một bảng lựa chọn các tham số, bộ lập lịch WFQ của mạng có thể trễ bảo đảm end-to –end. Phiên j yêu cầu một giới hạn trễ đặc biệt chỉ cần chọn một giá trị rj phù hợp. Đây là ý tưởng cơ bản của việc bảo đảm các dịch vụ IntServ trong mạng Internet sử dụng RSVP và cho phép nhận để quyết định các mức băng thông dành riêng nhằm đạt được giới hạn trễ tốt nhất. 3. 2. 2. 14 Thuật toán lập lịch không lõi Đặc thù của đồng hồ ảo là thực hiện kết hợp đơn giản việc lập lịch với giá trị WFI nhỏ nhất như trong WF2Q. Trong phần này chúng ta sẽ nghiên cứu một bộ lập lịch không lõi đơn giản được gọi là thuật toán Core-Stateless Shaped Virtual Clock (CSSVC) -Thuật toán đồng hồ ảo định dạng không lõi, nó gần giống với việc xử lý của một mạng đồng hồ ảo được định dạng mà không giữ lại các thông tin trạng thái luồng tại các node lõi. Trong một mạng CSSVC, khi các gói đến tại node đầu vào, thì ở đó thông tin trạng thái đầu vào được duy trì, các trạng thái kết hợp biến đổi được thiết lập giá trị ban đầu bằng node đầu vào và được lưu trữ trong phần tiêu đề gói. Các node bên trong ở trong mạng lõi không giữ thông tin trạng thái luồng nhưng các trạng thái biến đổi được lưu trong phần tiêu đề để lập lịch các gói đến. Thêm vào đó, các node bên trong cập nhật các rạng thái biến đổi trong các tiêu đề gói trước khi chúng được gửi tới node tiếp theo. Chúng ta thấy rằng, CSSVC có thể cung cấp giới hạn trễ end-to-end và cung cấp WFI nhỏ nhất cho mạng như đồng hồ ảo được định dạng đã làm. Hình 3. 16 Các router và router lõi trong mạng CSSVC Thuật toán đồng hồ ảo định dạng Bằng cách sử dụng thuật toán đồng hồ ảo như một bộ lập lịch dưới đây, một server đồng hồ ảo định dạng sử dụng đồng hồ thời gian thực giống như một hàm đồng hồ thời gian ảo và các server có thể chọn được gói có thời gian kết thúc ảo F nhỏ nhất. Gói thứ k của phiên i có thể được chọn để phục vụ tại thời gian t nếu và chỉ nếu S£V(t) (3. 27) trong đó, S là thời gian bắt đầu ảo của gói thứ k trong phiên i tại node s và Vs(t) là hệ thống thời gian ảo của node s tại thời gian t. Khi một gói đến tại thời gian a, S được định nghĩa như sau: S = max [VS(a), F] = max [a, F] (3. 28) trong đó, các tem thời gian hay thời gian kết thúc ảo của gói thứ k tại phiên i được định nghĩa như sau: F= S + (3. 29) với l là độ dài gói và ri là tốc độ kết hợp của phiên i. Bằng cách sử dụng thuật toán đồng hồ ảo định dạng để lập lịch các gói chúng ta có thể đảm bảo WFI nhỏ nhất của phiên i như sau: WFIi, s=+ (3. 30) rs là tốc độ phục vụ của server s, Li, max là độ dài lớn nhất của gói tại phiên i còn Lmax là độ dài lớn nhất của gói tại server s. Định lý 3. 2 : Trong một mạng có hai server đồng hồ ảo định dạng, nếu server 1 và 2 có thể đảm bảo WFI của phiên i là WFIi, 1 và WFIi, 2 thì WFI end-to-end của mạng WFIi, 1 + WFIi, 2 . Chứng minh: Chú ý rằng đơn vị của WFI có thể là bit hoặc giây, trong đó WFI(bit) = r1 × WFI(s), ở đây chúng ta dùng WFIb để biểu thị WFI(bit) và WFI(s) để biểu thị WFI(giây). Nếu server đồng hồ ảo định dạng s đảm bảo giới hạn trễ Di, s tới phiên i được giới hạn bởi một gáo rò (σi, ri) thì nó cũng phải bảo đảm WFIb của ri × Di, s – σi. Đó là : WFI=ri×Di, s– σi (3. 31) WFI = ri × WFIi, s . Vì thế (3. 31) trở thành: WFIi, s=Di, s–σi/ri (3. 32) thay s = 1 và s = 2 ta có: Di, 1 = + WFIi, 1 (3. 33) và Di, 2=+ WFIi, 2 (3. 34) trong đó Di, 1 và Di, 2 là các giới hạn trễ của phiên i được cung cấp bởi server 1 và server 2 . Do đó giới hạn trễ end-to-end tại điểm cuối của server 2 là : =Di, 1 + Di, 2 = 2x + WFIi, 1 + WFIi, 2 (3. 35) Số hạng đầu trong phương trình trên sinh ra từ trễ của gáo rò định dạng và có thể chỉ có một lần trong mạng. Do vậy giới hạn trễ tại điểm cuối của server 2 sẽ là: =-=Di, 1+ Di, 2 - (3. 36) Trong khi đó, WFI end-to-end, biểu thị có thể được biểu diễn thành =- (3. 37) Từ (3. 36) ta có : =Di, 1+Di, 2-- (3. 38) Kết hợp (3. 33) và (3. 34) ta có : =WFIi, 1+WFIi, 2 (3. 39) Thuật toán đồng hồ ảo định dạng không lõi Như đã thấy ở (3. 28) và (3. 29) thuật toán đồng hồ ảo định dạng cần hai trạng thái biến đổi cho mỗi luồng i: tốc độ định trước r1 và thời gian kết thúc ảo của gói trước F, khi tất cả các node trên một đường sử dụng các giá trị ri giống nhau cho luồng i thì nó dễ dàng khử ri bằng cách đặt nó trong tiêu đề gói. Hình 3. 17 Giới hạn WFI end-to-end, Ci, s trong mạng CSSVC Tuy nhiên, F là một giá trị động và được tính toán lặp lại tại mỗi node và có thể loại bỏ một cách đơn giản. Vì thế chúng ta cần thiết kế một thuật toán mà có thể tính toán thời gian kết thúc ảo trong các node lõi mà không lưu giữ thông tin của F. Ở đây, chúng ta có thể chứng tỏ trạng thái trung bình là X, vì thế với mỗi node lõi s trên một đường có thể giữ : S=a+X ³ F (3. 40) Mục đích của chúng ta là sử dụng mạng CSSVC gần giống với việc xử lý của một mạng đồng hồ ảo định dạng không giữ lại thông tin trạng thái của luồng tại các node lõi. Khi gói thứ k của phiên i dến các node biên trong mạng CSSVC tại thời gian a và xuất phát từ node s tại thời điểm d nó sẽ trải qua các giới hạn WFI end-to-end, Ci, s giốmg nhau như khi nó qua một mạng đồng hồ ảo định dạng . Vì thế từ định lý 3. 2 ta có : Ci, s= (3. 41) trong đó là WFI của phiên i được giới hạn bởi server h . Chú ý rằng : d-d(fluid)£ (3. 42) d và d(fluid) lần lượt là thời gian mà gói thứ k của phiên i xuất phát tại node s dưới dạng gói đồng hồ ảo định dạng và kiểu fluid. Khi chúng ta sử dụng CSSVC gần giống với việc xử lý của mạng đồng hồ ảo định dạng và (3. 42) sẽ giữ tại mỗi node CSSVC bao gồm cả node s. Trong khi đó phiên i được phục vụ tại tốc độ ri ở dạng fluid và chúng ta sẽ giữ d(fluid) như sau : d(fluid)=S+ (3. 43) Từ (3. 29) và (3. 43) chúng ta có : d(fluid)£F (3. 44) Kết hợp (3. 42) và (3. 44) ta được: d-F£ (3. 45) Trừ cả hai vế cho a ta có : d-F-a£-a (3. 46) Hay : d-a£F+-a (3. 47) Vế phải của bất phương trình trên là giới hạn trễ bó của phiên i. Từ điều này chúng ta có : =F+-a (3. 48) Trong khi đó, từ kết quả của (3. 37) khi gói thứ k của phiên i được giới hạn bởi gáo rò (σi, ri) xuất phát từ server s trong mạng CSSVC nó có thể tạo giới hạn trễ end-to-end là: = (3. 49) Khi xét đến trễ tuyến (3. 49) trở thành: =+ (3. 50) Trong đó là trễ tuyến giữa node h-1 và node h. Tham số đầu trong phương trình sinh ra từ luồng lưu lượng đến được giới hạn bằng gáo rò khi chúng ta thực hiện định dạng một gói WFI trong router biên . Ở đây trễ quyết định chính cho việc định dạng lưu lượng là Dki, shaper . Đó là : =Dki, shaper+Ci, S+ (3. 51) Việc thiết lập sự mô tả lưu lượng (Ra, Rp, và MBS) trễ của việc định dạng lưu lượng trong router biên có kết quả là: Li, max/RP, với Li, max là độ dài lớn nhất của gói trong phiên i . Từ những điều đó chúng ta sẽ thấy rằng định dạng lưu lượng chỉ tăng them trễ của router biên và nó không liên quan tới router lõi trong CSSVC. Lưu ý rằng kết quả (3. 51) được sinh ra từ giới hạn WFI end-to-end của thuật toán đồng hồ ảo định dạng và đó cũng là giới hạn trễ bó trong phiên i. Từ (3. 48) và (3. 51) chúng ta có: =F+-a=Dki, shaper+Ci, S + (3. 52) Thay F bằng S + ta có : S=a-+Dki, shaper+Ci, S+- (3. 53) Từ (3. 53) chúng ta biểu diễn S bằng : S=a-+Dki, shaper+Ci, S-1+- (3. 54) So sánh (3. 53) và (3. 54) chúng ta có được mối quan hệ giữa S và S để đảm bảo Ci, s : S=S+WFIi, S+-+PS-1 (3. 55) Lặp lại phương trình trên ta có: S=S+Ci, S-1-WFIi, S+- + (3. 56) Từ (3. 40) và (3. 29) ta có : S³F = S + Bằng cách sử dụng (3. 56) ta có bất phương trình giữa gói thứ k và k-1 tại node biên 1 là: S³S+ (3. 57) Vế phải của bất phương trình là hiệu của S đảm bảo:S ³ F. Chúng ta sẽ có vài cặp (S và S) thoả mãn điều kiện đó . Như vậy : S=S+ (3. 58) Từ (3. 40) ta có: S=a+X=d+ P S-1 + X (3. 59) Trong đó d là thời gian xuất phát của gói tại node s-1 . Từ (3. 45) : d £ F + nên (3. 59) trở thành: S£F+ +P S-1 + X (3. 60) Hay: S£S+++PS-1+X (3. 61) Để có kết quả chúng ta có thể đặt S là : S=S+++PS-1+X (3. 62) Kết hợp (3. 55) và (3. 62) ta có: S+++PS-1+X=S+WFIi, S+ - +P S-1 (3. 63) Sắp xếp lại các thời kì ta có trạng thái biến đổi : X=WFIi, S-- (3. 64) Kết hợp với các giá trị WFI từ (3. 30) ta có : X = + - - - =-- (3. 65) CHƯƠNG 4 ĐỊNH HƯỚNG PHÁT TRIỂN MẠNG VIỄN THÔNG VIỆT NAM Với những ưu điểm nổi bật của mình, công nghệ IP đang dần chiếm ưu thế trong các giải pháp xây dựng mạng thế hệ sau. Hội tụ IP đang là một xu hướng có thể nói là tất yếu trong khi thiết kế và xây dựng NGN để cung cấp tất cả các dịch vụ trên một cơ sở hạ tầng mạng duy nhất. Tuy nhiên mạng IP hiện nay chỉ là mạng “Best Effort” tức là một mạng không có bất kì một sự bảo đảm nào về QoS. Mà mục đích của chúng ta hiện nay là nghiên cứu và đưa QoS vào trong mạng để đáp ứng nhu cầu ngày càng cao của người tiêu dùng. Trong chương này em xin trình bày một số định hướng phát triển mạng Viễn thông Việt Nam để tiến tới NGN và một số phương pháp để có thể đảm bảo QoS cho mạng NGN 4. 1. Mạng mục tiêu Hoà cùng sự phát triển của nền Viễn thông thế giới, mạng thế hệ sau đang là mục tiêu hướng tới của Việt Nam trong thời gian tới. Với mục tiêu xây dựng một mạng hội tụ cho phép cung cấp tất cả các loại hình dịch vụ của mạng thế hệ hiện nay và các loại hình dịch vụ mới trong tương lai thì việc lựa chọn một cơ sở hạ tầng mạng phù hợp là vô cùng quan trọng. Theo báo cáo của giáo sư tiến sĩ Đỗ Trung Tá về định hướng phát triển mạng Internet Việt Nam vào tháng 12/2001 thì mô hình mạng Viễn thông thế hệ mới của Việt Nam sẽ được mô tả như sau : Hình 4. 1 Mô hình mạng Viễn thông thế hệ mới Trong đó các lớp dưới mạng được xây dựng dựa trên hệ thống mạng cáp quang và các công nghệ RAS, DSL, Frame Relay cũng như hệ thống truy nhập vô tuyến thế hệ thứ ba. Các hệ thống này được kết nối lên mạng lõi thông qua hệ thống tập trung. Phần mạng lõi là sự kết hợp của công nghệ IP và MPLS kết nối với mạng thoại PSTN thông qua hệ thống Media Gateway. Chuyển mạch dịch vụ IP và hệ thống Media Gateway sẽ đóng vai trò là cầu nối cho lớp điều khiển dịch vụ kết nối xuống lớp mạng. Lớp diều khiển dịch vụ gồm hai hệ thống chính là Server điều khiển dịch vụ và hệ thống chuyển mạch mềm. Trong đó, Server điều khiển dịch vụ điều khiển các ứng dụng và dịch vụ IP để đảm bảo các yếu tố: Chất lượng dịch vụ Kiểm tra quyền sử dụng dịch vụ Quản lý bảo mật Quảng bá dịch vụ Chuyển mạch mềm sẽ điều khiển các kết nối đa phương tiện bao gồm : Kết nối VoIP và Video Điều khiển các đầu cuối IP theo các giao thức H. 323 và SIP Điều khiển các Media Gateway ở lớp mạng Lớp ứng dụng sẽ kết nối xuống các hệ thống Server điều khiển và chuyển mạch mềm thông qua lớp thích nghi ứng dụng. Các dịch vụ của lớp ứng dụng bao gồm các ứng dụng thế hệ thứ 3, các ứng dụng tin nhắn và các dịch vụ trên nền Web. 4. 2. Mạng truyền dẫn Xây dựng một mạng đường trục có đủ năng lực truyền dẫn tất cả các nhu cầu trao đổi thông tin của toàn bộ khách hàng luôn là một yêu cầu có tính hàng đầu trong quá trình phát triển mạng Viễn thông. Hình 4. 2 đưa ra cấu hình mạng truyền dẫn mục tiêu của nước ta. Trong đó có một sự thống nhất chung là sử dụng cáp sợi quang và công nghệ DWDM để xây dựng lên một mạng toàn quang có đủ khả năng để đáp ứng nhu cầu lưu lượng mạng IP đồng thời giảm giá thành băng thông truyền dẫn. Tuy nhiên, phía trên tầng DWDM vẫn còn là một vấn đề chưa được xác định rõ ràng. Do đó, trong giai đoạn hiện nay không nên đầu tư quá ồ ạt vào công nghệ SDH. Bên cạnh đó, thời điể triển khai công nghệ DWDM trên mạng trục cũng chưa được xác định rõ ràng. Công nghệ này chỉ được triển khai khi nó đã đảm bảo được khả năng quản lý mạng của mình. Trong cấu kình mạng đường trục sử dụng công nghệ DWDM được đề xuất sử dụng 3 bộ chuyển mạch được đặt tại Hà Nội, Đà Nẵng và thành phố Hồ Chí Minh. Tại các điểm nút khác chỉ đặt các bộ xen rẽ để tách/ghép lưu lượng. KÕt nèi DWDM trôc ChuyÓn m¹ch / bé ®Þnh tuyÕn quang Bé xen/t¸ch kªnh quang Bé ®Þnh tuyÕn biªn HÖ thèng ghÐp sãng quang Nót ®a dÞch vô Hình 4. 2 Mạng truyền dẫn mục tiêu 4. 3. Mạng truy nhập Với sự triển khai của một loạt các công nghệ truy nhập mới, mạng truy nhập sẽ trở nên đa dạng hơn, và có thể nói sự hỗn loạn trong công nghệ mạng truy nhập sẽ còn kéo dài trong nhiều năm nữa. Các công nghệ truy nhập như Dial-up, xDSL, truyền hình số quảng bá, Modem cáp, GSM, truyền hình vệ tinh tới thuê bao DTH (Direct To Home), và hệ thống thông tin di động (UTMS hoặc 3G) sẽ dược sử dụng để truyền tải IP. Trong đó, lưu ý một số điểm như sau: Hợp nhất các mạng vào một trục IP, trong khi vẫn giữ nguyên công nghệ truy nhập. Nhà cung cấp dịch vụ di động GSM phải nhận định rõ hơn công nghệ truy nhập mà họ sở hữu và họ sẽ thử triển khai các công nghệ truy nhập mới. Phát triển hình thức truy nhập băng rộng bằng cáp đồng trục theo công nghệ xDSL. 4. 4. Sự phát triển của các mạng lên NGN 4. 4. 1 Sự hội tụ các mạng 4. 4. 2 Sự tiến hoá của các mạng lên NGN Sự phát triển từ PSTN lên NGN Thoại luôn là dịch vụ được xét đến hàng đầu trong quá trình xây dựng mạng. Ở đây ta xét một minh hoạ về sự chuyển dịch thoại từ PSTN lên NGN Mạng PSTN hiện tại : Phát triển lên NGN : 4. 4. 3 Các chức năng tiến hoá Mạng hiện tại: Mạng tương lai gần : Mạng tương lai : 4. 5. Một số dịch vụ bảo đảm QoS trong mạng 4. 5. 1 Sử dụng các giao thức hỗ trợ Sử dụng RSVP Sử dụng MPLS Triển khai kiến trúc CQS trong MPLS-DiffServ 4. 5. 2 Sử dụng các mô hình dịch vụ 4. 5. 2. 1 Dịch vụ IntServ Sơ đồ kiến trúc: 4. 5. 2. 2 Dịch vụ DiffServ Mô hình : Nhận xét: Với mô hình IntServ Đảm bảo QoS end-to-end trên cơ sở mỗi luồng thông qua báo hiệu QoS trên từng chặng. Các router dọc theo đường truyền phải duy trì trạng thái cho mỗi luồng thông tin. Tối ưu về sử dụng tài nguyên mạng nhưn kéo theo đó là gánh nặng xử lý và tăng kích cỡ mạng. Với DiffServ Chỉ đảm bảo được QoS trên từng chặng thông qua việc ấn định tài nguyên cứng. Gánh nặng xử lý của các router nhẹ hơn, đơn giản hơn, nhưng không đảm bảo được QoS end-to-end. Như vậy, mô hình IntServ không khả thi trong mạng lõi, và mô hình mạng DiffServ lại không đáp ứng tốt trong mạng truy nhập. Giải pháp tốt nhất đặt ra là sử dụng mô hình IntServ cho mạng truy nhập và sử dụng mô hình DiffServ cho mạng lõi. Vì thế, để hỗ trợ QoS tốt nhất nên sử dụng mô hình tích hợp IntServ/DiffServ. Mô hình : 4. 5. 3 Đo kiểm và đánh giá QoS trong mạng NGN Mô hình: Vị trí thiết lập điểm đo: Thiết bị đo là : Máy tính Các phần mềm đo chuyên dụng Các thiết bị đo chuyên dụng (SmartBits, AX4000, K1297, …) KẾT LUẬN Trong quá trình học tập, nghiên cứu và thực tập đồ án, em đã tìm hiểu về QoS, kiến trúc CQS đặc biệt là kĩ thuật lập lịch và các ứng dụng của nó trong mạng IP với mục đích đưa QoS và cải thiện QoS trong mạng IP -một mạng Best Effort, không có sự đảm bảo về chất lượng dịch vụ. Tuy nhiên, nội dung của đồ án mới chỉ đi sâu vào phần lý thuyết, còn phần thực hành và ứng dụng trên thực tế vẫn còn hạn chế. Do kiến thức còn hạn chế và thời gian có hạn nên đồ án không thể tránh khỏi những thiếu sót, em mong được sự chỉ bảo của các thầy và sự góp ý của các bạn để có thể sửa chữa và nâng cao hiểu biết của mình. Em xin chân thành cảm ơn!

Các file đính kèm theo tài liệu này:

  • docKiến trúc cqs.doc