that for each connection, all the other links along the connection’s p dịch - that for each connection, all the other links along the connection’s p Việt làm thế nào để nói

that for each connection, all the o

that for each connection, all the other links along the connection’s path are not congested and have abundant transmission capacity as compared with the transmission
capacity of the bottleneck link.) Suppose each connection is transferring a large file
and there is no UDP traffic passing through the bottleneck link. A congestion-control mechanism is said to be fairif the average transmission rate of each connection
is approximately R/K;that is, each connection gets an equal share of the link bandwidth.
Is TCP’s AIMD algorithm fair, particularly given that different TCP connections may start at different times and thus may have different window sizes at a
given point in time? [Chiu 1989] provides an elegant and intuitive explanation of
why TCP congestion control converges to provide an equal share of a bottleneck
link’s bandwidth among competing TCP connections.
Let’s consider the simple case of two TCP connections sharing a single link
with transmission rate R, as shown in Figure 3.55. Assume that the two connections
have the same MSS and RTT (so that if they have the same congestion window size,
then they have the same throughput), that they have a large amount of data to send,
and that no other TCP connections or UDP datagrams traverse this shared link. Also,
ignore the slow-start phase of TCP and assume the TCP connections are operating
in CA mode (AIMD) at all times.
Figure 3.56 plots the throughput realized by the two TCP connections. If TCP is
to share the link bandwidth equally between the two connections, then the realized
throughput should fall along the 45-degree arrow (equal bandwidth share) emanating from the origin. Ideally, the sum of the two throughputs should equal R. (Certainly, each connection receiving an equal, but zero, share of the link capacity is not
a desirable situation!) So the goal should be to have the achieved throughputs fall
somewhere near the intersection of the equal bandwidth share line and the full bandwidth utilization line in Figure 3.56.
Suppose that the TCP window sizes are such that at a given point in time, connections 1 and 2 realize throughputs indicated by point Ain Figure 3.56. Because
the amount of link bandwidth jointly consumed by the two connections is less than
TCP connection 2
TCP connection 1
Bottleneck
router capacity R
Figure 3.55Two TCP connections sharing a single bottleneck link
3.7 • TCP CONGESTION CONTROL 281
R, no loss will occur, and both connections will increase their window by 1 MSS
per RTT as a result of TCP’s congestion-avoidance algorithm. Thus, the joint
throughput of the two connections proceeds along a 45-degree line (equal increase
for both connections) starting from point A. Eventually, the link bandwidth jointly
consumed by the two connections will be greater than R,and eventually packet loss
will occur. Suppose that connections 1 and 2 experience packet loss when they
realize throughputs indicated by point B. Connections 1 and 2 then decrease their
windows by a factor of two. The resulting throughputs realized are thus at point C,
halfway along a vector starting at Band ending at the origin. Because the joint
bandwidth use is less than Rat point C,the two connections again increase their
throughputs along a 45-degree line starting from C. Eventually, loss will again
occur, for example, at point D,and the two connections again decrease their window sizes by a factor of two, and so on. You should convince yourself that the
bandwidth realized by the two connections eventually fluctuates along the equal
bandwidth share line. You should also convince yourself that the two connections
will converge to this behavior regardless of where they are in the two-dimensional
space! Although a number of idealized assumptions lie behind this scenario, it still
provides an intuitive feel for why TCP results in an equal sharing of bandwidth
among connections.
In our idealized scenario, we assumed that only TCP connections traverse
the bottleneck link, that the connections have the same RTT value, and that only a
R
R
Equal
bandwidth
share
Connection 1 throughput
Connection 2 throughput
D
B
C
A
Full bandwidth
utilization line
Figure 3.56Throughput realized by TCP connections 1 and 2
282 CHAPTER 3 • TRANSPORT LAYER
single TCP connection is associated with a host-destination pair. In practice, these
conditions are typically not met, and client-server applications can thus obtain very
unequal portions of link bandwidth. In particular, it has been shown that when multiple connections share a common bottleneck, those sessions with a smaller RTT are
able to grab the available bandwidth at that link more quickly as it becomes free
(that is, open their congestion windows faster) and thus will enjoy higher throughput than those connections with larger RTTs [Lakshman 1997].
Fairness and UDP
We have just seen how TCP congestion control regulates an application’s transmission rate via the congestion window mechanism. Many multimedia applications,
such as Internet
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
cho mỗi kết nối, tất cả các liên kết khác dọc theo con đường của kết nối không bị tắc nghẽn và có khả năng truyền tải phong phú khi so sánh với việc truyền tảidung lượng của các liên kết nút cổ chai.) Giả sử mỗi kết nối chuyển một tập tin lớnvà không có lưu lượng truy cập UDP đi qua liên kết nút cổ chai. Một cơ chế kiểm soát tắc nghẽn được gọi là fairif với tỷ lệ truyền Trung bình mỗi kết nốikhoảng R/k; nghĩa là từng kết nối được một phần bằng liên kết băng thông.Là của TCP AIMD thuật toán hợp lý, đặc biệt là cho rằng kết nối TCP khác nhau có thể bắt đầu tại thời điểm khác nhau và do đó có thể có kích cỡ cửa sổ khác nhau tại mộtthời điểm nhất định? [Chiu 1989] cung cấp một lời giải thích trực quan và thanh lịch củatại sao TCP tắc nghẽn kiểm soát hội tụ để cung cấp một phần bằng nhau của một nút cổ chailiên kết của các băng thông trong số các kết nối TCP cạnh tranh.Chúng ta hãy xem xét các trường hợp đơn giản của hai kết nối TCP chia sẻ một liên kết duy nhấtvới truyền dẫn tỷ lệ R, như minh hoạ trong hình 3,55. Giả sử rằng các kết nối haicó cùng MSS và RTT (do đó nếu họ có cùng một kích cỡ cửa sổ tắc nghẽn,sau đó họ có cùng một băng thông), rằng họ có một số lượng lớn các dữ liệu để gửi,và không kết nối TCP hoặc UDP gói nào khác đi qua liên kết này được chia sẻ. Ngoài ra,bỏ qua giai đoạn khởi đầu chậm của TCP và giả định các kết nối TCP đang hoạt độngở chế độ CA (AIMD) tại tất cả các lần.Con số 3.56 lô thông qua thực hiện bởi hai kết nối TCP. Nếu TCPchia sẻ bình đẳng giữa hai kết nối, sau đó nhận ra rằng các liên kết băng thôngthông lượng nên rơi dọc theo mũi tên 45 độ (bằng băng thông chia sẻ) phát ra từ nguồn gốc. Lý tưởng nhất, tổng của hai throughputs nên bằng R. (chắc chắn, mỗi kết nối nhận ngang, nhưng zero, chia sẻ của khả năng liên kết không phải làmột tình hình mong muốn!) Vì vậy, mục tiêu nên có đạt được throughputs mùa thumột nơi nào đó gần giao lộ của đường chia sẻ băng thông bằng và dòng đầy đủ băng thông sử dụng trong hình 3,56.Giả sử rằng kích cỡ cửa sổ TCP như vậy mà tại một điểm nhất định trong thời gian, kết nối 1 và 2 nhận ra throughputs biểu thị bằng con số điểm Ain 3,56. Bởi vìsố lượng liên kết băng thông cùng tiêu thụ của các kết nối hai là ít hơnKết nối TCP 2Kết nối TCP 1Nút cổ chaicông suất router RCon số 3.55 kết nối TCP hai chia sẻ một liên kết duy nhất nút cổ chaiKIỂM SOÁT TẮC NGHẼN TCP 3.7 • 281R, không có mất mát sẽ xảy ra, và cả hai kết nối sẽ tăng lên cửa sổ của họ bằng 1 MSSmỗi RTT do hậu quả của thuật toán tránh tắc nghẽn của TCP. Vì vậy, các doanhthông qua kết nối hai tiền dọc theo một đường 45 độ (tương đương tăngcả hai kết nối) bắt đầu từ điểm A. cuối cùng, liên kết băng thông cùng nhautiêu thụ bởi hai kết nối sẽ lớn hơn R, và cuối cùng mất gói tinsẽ xảy ra. Giả sử rằng kết nối 1 và 2 trải nghiệm gói mất khi họnhận ra throughputs được chỉ định bởi kết nối điểm B. 1 và 2, sau đó giảm của họWindows bởi một nhân tố của hai. Throughputs kết quả thực hiện như vậy, tại điểm C,nửa đường dọc theo một vector bắt đầu từ ban nhạc kết thúc lúc nguồn gốc. Bởi vì các doanhsử dụng băng thông là ít hơn so với chuột điểm C, hai kết nối một lần nữa tăng lên của họthroughputs dọc theo một đường 45 độ bắt đầu từ C. cuối cùng, mất mát sẽ một lần nữaxảy ra, ví dụ, tại điểm D, và hai kết nối lại giảm kích thước cửa sổ của một nhân tố của hai, và như vậy. Bạn nên thuyết phục mình rằng cácbăng thông thực hiện bởi hai kết nối cuối cùng biến động cùng tương đươngdòng chia sẻ băng thông. Bạn cũng nên thuyết phục bản thân rằng hai kết nốisẽ hội tụ về hành vi này không phân biệt nơi họ đang ở trong hai chiềukhông gian! Mặc dù một số giả định lý tưởng nằm đằng sau tình huống này, nó vẫn còncung cấp một cảm giác trực quan cho các lý do tại sao TCP kết quả trong một chia sẻ bình đẳng của băng thôngtrong số các kết nối.Trong trường hợp lý tưởng của chúng tôi, chúng tôi giả định đó đi qua các kết nối TCP duy các liên kết nút cổ chai, rằng các kết nối có cùng một giá trị RTT, và rằng chỉ mộtRRBình đẳngbăng thôngchia sẻThông qua kết nối 1Thông qua kết nối 2DBCAĐầy đủ băng thôngsử dụng lineCon số 3.56 thông qua thực hiện bởi kết nối TCP 1 và 2282 CHƯƠNG 3 • TẦNG GIAO VẬNkết nối TCP duy nhất được kết hợp với một cặp điểm đến máy chủ lưu trữ. Trong thực tế, nhữngđiều kiện thông thường không được đáp ứng, và khách hàng máy chủ ứng dụng có thể có như vậy được rấtphần không bình đẳng liên kết băng thông. Đặc biệt, nó đã cho thấy rằng khi nhiều kết nối chia sẻ một nút cổ chai thông thường, những buổi với RTT nhỏ làcó thể lấy băng thông có sẵn tại các liên kết nhiều hơn một cách nhanh chóng như nó trở thành miễn phí(có nghĩa là, mở cửa sổ tắc nghẽn của họ nhanh hơn) và do đó sẽ thưởng thức các băng thông cao hơn những kết nối với lớn hơn RTTs [Lakshman 1997].Sự công bằng và UDPChúng tôi chỉ nhìn thấy như thế nào TCP tắc nghẽn kiểm soát quy định tốc độ truyền dẫn một ứng dụng thông qua cơ chế cửa sổ tắc nghẽn. Nhiều ứng dụng đa phương tiện,chẳng hạn như Internet
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
rằng đối với mỗi kết nối, tất cả các liên kết khác dọc theo con đường của kết nối không bị tắc nghẽn và có khả năng truyền tải nhiều so với việc truyền tải
công suất của liên kết nút cổ chai.) Giả sử mỗi kết nối được chuyển một tập tin lớn
và không có lưu lượng UDP đi qua liên kết nút cổ chai. Một cơ chế tắc nghẽn kiểm soát được cho là fairif tốc độ truyền trung bình của mỗi kết nối
là khoảng R / K;. Nghĩa là, mỗi kết nối được một phần bằng nhau của các băng thông liên kết
là AIMD thuật toán bằng TCP, đặc biệt là khi kết nối TCP khác nhau có thể bắt đầu vào những thời điểm khác nhau và do đó có thể có kích cỡ cửa sổ khác nhau tại một
thời điểm nào? [Chiu 1989] cung cấp một lời giải thích thanh lịch và trực quan về
lý do tại sao điều khiển tắc nghẽn TCP hội tụ để cung cấp một phần bằng nhau của một nút cổ chai
băng thông liên kết của các kết nối TCP cạnh tranh.
Chúng ta hãy xem xét các trường hợp đơn giản của hai kết nối TCP chia sẻ một liên kết duy nhất
với tốc độ truyền tải R, như thể hiện trong hình 3.55. Giả sử rằng hai kết nối
có cùng MSS và RTT (để nếu họ có cùng một kích thước cửa sổ tắc nghẽn,
sau đó họ có thông lượng như nhau), họ có một số lượng lớn các dữ liệu để gửi,
và không có kết nối TCP hoặc UDP datagram đi qua liên kết chia sẻ này. Ngoài ra,
bỏ qua giai đoạn chậm khởi động của giao thức TCP và giả định các kết nối TCP đang hoạt động
trong chế độ CA (AIMD) ở tất cả các lần.
Hình 3.56 lô thông thực hiện bởi hai kết nối TCP. Nếu TCP là
để chia sẻ băng thông liên kết đều ​​giữa hai kết nối, sau đó các nhận
thông nên rơi dọc 45 độ mũi tên (bằng băng thông phần) phát ra từ nguồn gốc. Lý tưởng nhất, tổng của hai thông lượng phải bằng R. (Chắc chắn, mỗi kết nối nhận bằng, nhưng không, chia sẻ năng lực liên kết không phải là
một tình huống mong muốn!) Vì vậy, mục tiêu nên được để có thông lượng đạt rơi
ở đâu đó gần giao điểm của các đường băng thông chia sẻ bình đẳng và các dòng sử dụng băng thông đầy đủ trong hình 3.56.
Giả sử rằng kích thước cửa sổ TCP là như vậy mà tại một thời điểm cho trước, kết nối 1 và 2 thông lượng nhận ra chỉ định bởi điểm Ain Hình 3.56. Bởi vì
số lượng băng thông liên kết cùng nhau tiêu thụ của hai kết nối là ít hơn so với
TCP kết nối 2
kết nối TCP 1
nút cổ chai
công suất Router R
Hình 3.55? Hai kết nối TCP chia sẻ một liên kết nút cổ chai duy nhất
3.7 • TCP khiển tắc nghẽn 281
R, không mất sẽ xảy ra, và cả hai kết nối sẽ tăng cửa sổ của họ bằng 1 MSS
mỗi RTT như là kết quả của thuật toán ùn tắc tránh thể TCP. Vì vậy, các doanh
thông lượng của các kết nối hai tiền cùng một dòng 45 độ (tăng lên bằng nhau
cho cả hai kết nối) bắt đầu từ điểm A. Cuối cùng, băng thông liên kết cùng nhau
tiêu thụ của hai kết nối sẽ lớn hơn R, và cuối cùng mất gói tin
sẽ xảy ra. Giả sử rằng các kết nối 1 và 2 kinh nghiệm mất gói tin khi họ
nhận ra thông lượng chỉ định bởi điểm B. Kết nối 1 và 2 sau đó giảm của
các cửa sổ bằng một yếu tố của hai. Các thông lượng kết quả nhận được như vậy, tại điểm C,
nửa đường dọc theo một khởi đầu vector tại Ban nhạc kết thúc tại gốc. Bởi vì các doanh
sử dụng băng thông ít hơn Rat điểm C, hai kết nối một lần nữa gia tăng của họ
thông lượng dọc theo một đường 45 độ bắt đầu từ C. Cuối cùng, mất một lần nữa sẽ
xảy ra, ví dụ, tại điểm D, và hai kết nối một lần nữa giảm của họ cửa sổ kích thước bằng một yếu tố của hai, và như vậy. Bạn nên thuyết phục bản thân rằng
băng thông thực hiện bởi hai kết nối cuối cùng dao động dọc theo bằng
dòng phần băng thông. Bạn cũng nên thuyết phục bản thân rằng hai kết nối
sẽ hội tụ về hành vi này không phân biệt nơi họ đang ở trong hai chiều
không gian! Mặc dù một số giả định lý tưởng nằm sau tình huống này, nó vẫn
cung cấp một cảm nhận trực quan cho lý do tại sao TCP kết quả trong một chia sẻ bình đẳng của băng thông
giữa nhiều kết nối.
Trong kịch bản lý tưởng hóa của chúng tôi, chúng tôi giả định rằng chỉ có các kết nối TCP đi qua
các liên kết nút cổ chai, các kết nối có giá trị RTT cùng, và đó chỉ là một
R
R
Equal
băng thông
phần
Connection 1 thông
Connection 2 thông
D
B
C
A
đầy đủ băng thông
đường sử dụng
Hình 3.56? Throughput nhận ra bởi các kết nối TCP 1 và 2
282 CHƯƠNG 3 • TRANSPORT LAYER
duy nhất kết nối TCP có liên quan với một cặp máy chủ đích. Trong thực tế, những
điều kiện thường không được đáp ứng, và các ứng dụng client-server do đó có thể có được rất
phần không công bằng về băng thông liên kết. Đặc biệt, nó đã được chứng minh rằng khi nhiều kết nối chia sẻ một nút cổ chai thông thường, những phiên với RTT nhỏ là
có thể lấy băng thông có sẵn tại trang liên kết nhanh hơn vì nó trở thành miễn phí
(có nghĩa là, mở cửa sổ tắc nghẽn của họ nhanh hơn) và do đó sẽ được hưởng thông lượng cao hơn so với những kết nối với RTT lớn hơn [Lakshman 1997].
Công bằng và UDP
Chúng tôi đã thấy được cách điều khiển tắc nghẽn TCP chỉnh tốc độ truyền tải của một ứng dụng thông qua cơ chế cửa sổ tắc nghẽn. Nhiều ứng dụng đa phương tiện,
chẳng hạn như Internet
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: