The complexity of a globally distributed delivery network bringsabout  dịch - The complexity of a globally distributed delivery network bringsabout  Việt làm thế nào để nói

The complexity of a globally distri

The complexity of a globally distributed delivery network brings
about a unique set of challenges in architecture, operation and
management—particularly in an environment as heterogeneous
and unpredictable as the Internet. For example, network
management and data collection needs to be scalable and fast
across thousands of server clusters, many of which are located in
unmanned, third-party data centers, and any number of which
might be offline or experiencing bad connectivity at any given
time. Configuration changes and software updates need to be
rolled out across the network in a safe, quick, and consistent
manner, without disrupting service. Enterprises also must be able
to maintain visibility and fine-grained control over their content
across the distributed platform.
To guide our design choices, we begin with the assumption that a
significant number of failures (whether they be at the machine,
rack, cluster, connectivity, network levels) is expected to be
occurring at all times in the network. Indeed, while not standard
in system design, this assumption seems natural in the context of
the Internet. We have seen many reasons that Internet failures can
occur in Section 3, and have observed it to be true empirically
within our own network.
What this means is that we have designed our delivery networks
with the philosophy that failures are normal and the delivery
network must operate seamlessly despite them. Much effort is
invested in designing recovery from all types of faults, including
multiple concurrent faults.
This philosophy guides every level of design decision—down to
the choice of which types of servers to buy: the use of robust
commodity servers makes more sense in this context than more
expensive servers with significant hardware redundancy. While it
is still important to be able to immediately identify failing
hardware (e.g., via ECC memory and disk integrity checks that
enable servers to automatically take themselves out of service),
there are diminishing returns from building redundancy into
hardware (e.g, dual power supplies) rather than software. Deeper
implications of this philosophy are discussed at length in [1].
We now mention a few key principles that pervade our platform
system design:
Design for reliability. Because of the nature of our business,
the goal is to attain extremely close to 100% end-to-end
availability. This requires significant effort given our
fundamental assumption that components will fail frequently
and in unpredictable ways. We must ensure full redundancy
of components (no single points of failure), build in multiple
levels of fault tolerance, and use protocols such as PAXOS
[26] and decentralized leader election to accommodate for
the possibility of failed system components.
Design for scalability. With more than 60,000 machines
(and growing) across the globe, all platform components
must be highly scalable. At a basic level, scaling means
handling more traffic, content, and customers. This also
translates into handling increasingly large volumes of
resulting data that must be collected and analyzed, as well as
building communications, control, and mapping systems that
must support an ever-increasing number of distributed
machines.
Limit the necessity for human management. To a very
large extent, we design the system to be autonomic. This is a
corollary to the philosophy that failures are commonplace
and that the system must be designed to operate in spite of
them. Moreover, it is necessary in order to scale, else the
human operational expense becomes too high. As such, the
system must be able to respond to faults, handle shifts in load
and capacity, self-tune for performance, and safely deploy
software and configuration updates with minimal human
intervention. (To manage its 60,000-plus machines, the
Akamai network operation centers currently employ around
60 people, distributed to work 24x7x365.)
Design for performance. There is continual work being
done to improve the performance of the system‘s critical
paths, not only from the perspective of improving end user
response times but for many different metrics across the
platform, such as cache hit rates and network resource
utilization. An added benefit to some of this work is energy
efficiency; for example, kernel and other software
optimizations enable greater capacity and more traffic served
with fewer machines.
We will explore these principles further as we examine each of the
the Akamai delivery networks in greater detail in the next
sections. In Section 5 and Section 6 we outline specific challenges
and solutions in the design of content, streaming media, and
application delivery networks, and look at the characteristics of
the transport systems, which differ for each of the delivery
networks.5 In Section 7, we provide details on the generic system
components that are shared among the Akamai delivery networks,
such as the edge server platform, the mapping system, the
communications and control system, and the data collection and
analysis system.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
The complexity of a globally distributed delivery network bringsabout a unique set of challenges in architecture, operation andmanagement—particularly in an environment as heterogeneousand unpredictable as the Internet. For example, networkmanagement and data collection needs to be scalable and fastacross thousands of server clusters, many of which are located inunmanned, third-party data centers, and any number of whichmight be offline or experiencing bad connectivity at any giventime. Configuration changes and software updates need to berolled out across the network in a safe, quick, and consistentmanner, without disrupting service. Enterprises also must be ableto maintain visibility and fine-grained control over their contentacross the distributed platform.To guide our design choices, we begin with the assumption that asignificant number of failures (whether they be at the machine,rack, cluster, connectivity, network levels) is expected to beoccurring at all times in the network. Indeed, while not standardin system design, this assumption seems natural in the context ofthe Internet. We have seen many reasons that Internet failures canoccur in Section 3, and have observed it to be true empiricallywithin our own network.What this means is that we have designed our delivery networkswith the philosophy that failures are normal and the deliverynetwork must operate seamlessly despite them. Much effort isinvested in designing recovery from all types of faults, includingmultiple concurrent faults.This philosophy guides every level of design decision—down tothe choice of which types of servers to buy: the use of robustcommodity servers makes more sense in this context than moreexpensive servers with significant hardware redundancy. While itis still important to be able to immediately identify failinghardware (e.g., via ECC memory and disk integrity checks thatenable servers to automatically take themselves out of service),there are diminishing returns from building redundancy intohardware (e.g, dual power supplies) rather than software. Deeperimplications of this philosophy are discussed at length in [1].We now mention a few key principles that pervade our platformsystem design:Design for reliability. Because of the nature of our business,the goal is to attain extremely close to 100% end-to-endavailability. This requires significant effort given ourfundamental assumption that components will fail frequentlyand in unpredictable ways. We must ensure full redundancyof components (no single points of failure), build in multiplelevels of fault tolerance, and use protocols such as PAXOS[26] and decentralized leader election to accommodate forthe possibility of failed system components.Design for scalability. With more than 60,000 machines(and growing) across the globe, all platform componentsmust be highly scalable. At a basic level, scaling means
handling more traffic, content, and customers. This also
translates into handling increasingly large volumes of
resulting data that must be collected and analyzed, as well as
building communications, control, and mapping systems that
must support an ever-increasing number of distributed
machines.
Limit the necessity for human management. To a very
large extent, we design the system to be autonomic. This is a
corollary to the philosophy that failures are commonplace
and that the system must be designed to operate in spite of
them. Moreover, it is necessary in order to scale, else the
human operational expense becomes too high. As such, the
system must be able to respond to faults, handle shifts in load
and capacity, self-tune for performance, and safely deploy
software and configuration updates with minimal human
intervention. (To manage its 60,000-plus machines, the
Akamai network operation centers currently employ around
60 people, distributed to work 24x7x365.)
Design for performance. There is continual work being
done to improve the performance of the system‘s critical
paths, not only from the perspective of improving end user
response times but for many different metrics across the
platform, such as cache hit rates and network resource
utilization. An added benefit to some of this work is energy
efficiency; for example, kernel and other software
optimizations enable greater capacity and more traffic served
with fewer machines.
We will explore these principles further as we examine each of the
the Akamai delivery networks in greater detail in the next
sections. In Section 5 and Section 6 we outline specific challenges
and solutions in the design of content, streaming media, and
application delivery networks, and look at the characteristics of
the transport systems, which differ for each of the delivery
networks.5 In Section 7, we provide details on the generic system
components that are shared among the Akamai delivery networks,
such as the edge server platform, the mapping system, the
communications and control system, and the data collection and
analysis system.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Sự phức tạp của một mạng lưới phân phối trên toàn cầu phân bố mang
về một bộ duy nhất của những thách thức trong kiến trúc, hoạt động và
quản lý, đặc biệt là trong một môi trường như không đồng nhất
và không thể đoán trước như Internet. Ví dụ, mạng lưới
quản lý và thu thập dữ liệu cần phải được mở rộng và nhanh chóng
qua hàng ngàn cụm máy chủ, nhiều trong số đó được đặt tại
trung tâm dữ liệu không người lái, bên thứ ba, và bất kỳ số nào trong số đó
có thể ẩn hoặc trải qua kết nối xấu tại bất kỳ định
thời gian . Thay đổi cấu hình và cập nhật phần mềm cần phải được
triển khai trên mạng một cách an toàn, nhanh chóng và nhất quán
theo cách thức, mà không làm gián đoạn dịch vụ. Các doanh nghiệp cũng phải có khả năng
để duy trì khả năng hiển thị và kiểm soát hạt mịn hơn nội dung của họ
trên nền tảng phân phối.
Hướng dẫn lựa chọn thiết kế của chúng tôi, chúng ta bắt đầu với giả định rằng một
số lượng đáng kể những thất bại (dù họ là tại máy,
rack, cụm, kết nối, mức mạng) dự kiến sẽ được
diễn ra tại mọi thời điểm trong mạng. Thật vậy, trong khi không đạt tiêu chuẩn
trong thiết kế hệ thống, giả thiết này có vẻ tự nhiên trong bối cảnh
Internet. Chúng ta đã thấy nhiều lý do mà thất bại Internet có thể
xảy ra tại mục 3, và đã quan sát nó là đúng theo kinh nghiệm
trong mạng của chúng ta.
Điều này có nghĩa là chúng tôi đã thiết kế mạng lưới phân phối của chúng tôi
với triết lý rằng thất bại là bình thường và việc phân phối
mạng phải hoạt động liên tục mặc dù họ. Nhiều nỗ lực được
đầu tư vào thiết kế phục hồi từ các dạng sự cố, bao gồm
cả. Nhiều lỗi đồng thời
triết lý này hướng dẫn mọi cấp độ của thiết kế quyết định xuống để
lựa chọn những loại máy chủ để mua: việc sử dụng mạnh mẽ
các máy chủ hàng hóa có ý nghĩa hơn trong này bối cảnh hơn nhiều
máy chủ đắt tiền với sự thừa phần cứng đáng kể. Trong khi nó
vẫn là quan trọng để có thể ngay lập tức xác định thất bại
phần cứng (ví dụ, thông qua ECC bộ nhớ và đĩa kiểm tra tính toàn vẹn đó
cho phép các máy chủ để tự động đưa mình ra khỏi dịch vụ),
có giảm dần trở lại từ việc xây dựng dư thừa vào
phần cứng (ví dụ, nguồn cung cấp năng lượng kép ) thay vì phần mềm. Sâu sắc hơn
ý nghĩa của triết lý này sẽ được thảo luận tại chiều dài trong [1].
Bây giờ chúng ta đề cập đến một vài nguyên tắc quan trọng mà hết ảnh hưởng đến nền tảng của chúng tôi
thiết kế hệ thống:
Thiết kế cho độ tin cậy. Bởi vì bản chất của kinh doanh của chúng tôi,
mục tiêu là để đạt được vô cùng gần 100% end-to-end
sẵn có. Điều này đòi hỏi nỗ lực rất lớn cho chúng tôi
giả định rằng các thành phần cơ bản sẽ không thường xuyên
và theo những cách không thể đoán trước. Chúng ta phải đảm bảo dự phòng đầy đủ
các thành phần (không có điểm duy nhất của thất bại), xây dựng ở nhiều
mức độ chịu đựng lỗi, và sử dụng các giao thức như Paxos
[26] và cuộc bầu cử lãnh đạo phân cấp để phù hợp với
khả năng của các thành phần hệ thống thất bại.
Thiết kế cho khả năng mở rộng. Với hơn 60.000 máy
(và phát triển) trên toàn cầu, tất cả các thành phần nền tảng
phải được đánh giá cao khả năng mở rộng. Ở mức độ cơ bản, nhân rộng các phương tiện
xử lý nhiều lưu lượng truy cập, nội dung, và khách hàng. Điều này cũng
được chuyển thành xử lý khối lượng ngày càng lớn các
kết quả dữ liệu phải được thu thập và phân tích, cũng như
xây dựng giao thông, kiểm soát, và các hệ thống bản đồ đó
phải hỗ trợ một số lượng ngày càng tăng của các phân phối
máy.
Hạn chế sự cần thiết để quản lý con người. Để một rất
mức độ lớn, chúng tôi thiết kế hệ thống được tự trị. Đây là một
hệ quả tất yếu với triết lý rằng thất bại là chuyện thường
và rằng hệ thống phải được thiết kế để hoạt động bất chấp
họ. Hơn nữa, nó là cần thiết để quy mô, khác các
chi phí hoạt động của con người trở nên quá cao. Như vậy,
hệ thống phải có khả năng đáp ứng với các đứt gãy, xử lý các thay đổi trong tải
và năng lực, tự điều chỉnh cho hiệu suất, an toàn và triển khai
phần mềm và cấu hình cập nhật với con người tối thiểu
can thiệp. (Để quản lý các máy 60.000 cộng với nó, là
trung tâm vận hành mạng Akamai hiện đang sử dụng khoảng
60 người, phân phối làm việc 24x7x365.)
Thiết kế cho hiệu suất. Có công việc liên tục được
thực hiện để cải thiện hiệu suất của quan trọng của hệ thống
đường dẫn, không chỉ từ quan điểm của người sử dụng cải thiện kết thúc
thời gian đáp ứng, nhưng đối với nhiều số liệu khác nhau trên
nền tảng, chẳng hạn như tỷ lệ hit cache và tài nguyên mạng
sử dụng. Một lợi ích thêm vào một số công việc này là năng lượng
hiệu quả; Ví dụ, hạt nhân và các phần mềm khác
tối ưu hóa cho phép công suất lớn hơn và nhiều hơn giao thông phục vụ
với máy ít hơn.
Chúng tôi sẽ tìm hiểu những nguyên tắc hơn nữa khi chúng tôi kiểm tra từng
mạng lưới giao Akamai chi tiết hơn trong các kế tiếp
phần. Trong phần 5, phần 6 chúng tôi phác thảo những thách thức cụ thể
và giải pháp trong việc thiết kế nội dung, phương tiện truyền thông, và
mạng lưới phân phối ứng dụng, và nhìn vào các đặc điểm của
các hệ thống giao thông, trong đó có sự khác biệt cho mỗi giao
networks.5 tại Mục 7, chúng tôi cung cấp thông tin chi tiết về hệ thống chung
các thành phần được chia sẻ giữa các mạng lưới phân phối Akamai,
chẳng hạn như các nền tảng cạnh máy chủ, hệ thống bản đồ, các
thông tin liên lạc và hệ thống điều khiển và thu thập dữ liệu và
phân tích hệ thống.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: