Thus far in our coverage of virtual memory, we have assumed that all m dịch - Thus far in our coverage of virtual memory, we have assumed that all m Việt làm thế nào để nói

Thus far in our coverage of virtual

Thus far in our coverage of virtual memory, we have assumed that all main
memory is created equal—or at least that it is accessed equally. On many
9.6 Thrashing 425
computer systems, that is not the case. Often, in systems with multipleCPUs
(Section 1.3.2), a givenCPUcan access some sections of main memory faster
than it can access others. These performance differences are caused by how
CPUs and memory are interconnected in the system. Frequently, such a system
is made up of several system boards, each containing multipleCPUs and some
memory. The system boards are interconnected in various ways, ranging from
system buses to high-speed network connections like InfiniBand. As you might
expect, theCPUs on a particular board can access the memory on that board with
less delay than they can access memory on other boards in the system. Systems
in which memory access times vary significantly are known collectively as
non-uniform memory access(NUMA) systems, and without exception, they
are slower than systems in which memory andCPUsarelocatedonthesame
motherboard.
Managing which page frames are stored at which locations can significantly
affect performance inNUMAsystems. If we treat memory as uniform in such
a system,CPUs may wait significantly longer for memory access than if we
modify memory allocation algorithms to takeNUMAinto account. Similar
changes must be made to the scheduling system. The goal of these changes is
to have memory frames allocated“as close as possible”to theCPUon which
the process is running. The definition of “close”is “with minimum latency,”
which typically means on the same system board as theCPU.
The algorithmic changes consist of having the scheduler track the lastCPU
on which each process ran. If the scheduler tries to schedule each process onto
its previousCPU, and the memory-management system tries to allocate frames
for the process close to theCPUon which it is being scheduled, then improved
cache hits and decreased memory access times will result.
The picture is more complicated once threads are added. For example, a
process with many running threads may end up with those threads scheduled
on many different system boards. How is the memory to be allocated in this
case? Solaris solves the problem by creatinglgroups(for“latency groups”)in
the kernel. Each lgroup gathers together closeCPUs and memory. In fact, there
is a hierarchy of lgroups based on the amount of latency between the groups.
Solaris tries to schedule all threads of a process and allocate all memory of a
process within an lgroup. If that is not possible, it picks nearby lgroups for the
rest of the resources needed. This practice minimizes overall memory latency
and maximizesCPUcache hit rates.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Vậy, đến nay trong phạm vi bảo hiểm của chúng tôi của bộ nhớ ảo, chúng tôi đã giả định rằng tất cả chínhbộ nhớ được tạo ra bằng nhau- hoặc ít nhất mà truy cập như nhau. Trên nhiều9.6 thrashing 425Hệ thống máy tính, trong đó không phải là trường hợp. Thông thường, trong các hệ thống với multipleCPUs(Mục 1.3.2), một givenCPUcan truy cập vào một số phần của bộ nhớ chính nhanh hơnhơn nó có thể truy cập vào những người khác. Những khác biệt hiệu suất gây ra bởi thế nàoCPU và bộ nhớ được nối liền với nhau trong hệ thống. Thông thường, một hệ thống như vậyđược tạo thành từ một vài hệ thống bảng, từng có chứa multipleCPUs và một sốbộ nhớ. Bảng hệ thống được nối liền với nhau trong nhiều cách khác nhau, khác nhau, từHệ thống xe buýt đến kết nối mạng tốc độ cao như InfiniBand. Như bạn có thểHy vọng, theCPUs trên một bảng cụ thể có thể truy cập vào bộ nhớ trên mà hội đồng quản trị vớiít chậm trễ hơn họ có thể truy cập vào bộ nhớ on hội đồng khác trong hệ thống. Hệ thốngtrong đó thời gian truy cập bộ nhớ thay đổi đáng kể được gọi chung làbộ nhớ phục access(NUMA) hệ thống, và không có ngoại lệ, họchậm hơn so với hệ thống trong đó bộ nhớ andCPUsarelocatedonthesameBo mạch chủ.Quản lý mà khung trang được lưu trữ tại đó địa điểm có thể đáng kểảnh hưởng đến hiệu suất inNUMAsystems. Nếu chúng tôi xử lý bộ nhớ như đồng phục trong đómột hệ thống, CPU có thể chờ đợi lâu hơn một cách đáng kể cho bộ nhớ truy cập hơn nếu chúng taSửa đổi bộ nhớ phân bổ giải thuật takeNUMAinto tài khoản. Tương tự nhưnhững thay đổi phải được thực hiện để hệ thống lập kế hoạch. Mục tiêu của những thay đổi này làđể có khung hình bộ nhớ được cấp phát "càng gần càng tốt" để theCPUon màtiến trình đang chạy. Định nghĩa của "đóng" là "với độ trễ tối thiểu"mà thường có nghĩa là trên cùng một hệ thống bảng như theCPU.Những thay đổi thuật toán gồm có theo dõi lịch lastCPUmà trên đó mỗi quá trình chạy. Nếu trình lập lịch biểu cố gắng để lịch trình mỗi quá trình lênpreviousCPU của nó, và các hệ thống quản lý bộ nhớ cố gắng để phân bổ các khungĐối với quá trình gần theCPUon mà nó được dự kiến, sau đó được cải thiệntruy cập bộ nhớ cache và thời gian truy cập giảm bộ nhớ sẽ cho kết quả.Những hình ảnh là phức tạp hơn khi chủ đề được thêm vào. Ví dụ, mộtvới nhiều chủ đề chạy quá trình có thể kết thúc với những chủ đề theo lịch trìnhtrên nhiều hệ thống khác nhau. Làm thế nào là bộ nhớ được cấp phát trong nàytrường hợp không? Solaris giải quyết vấn đề bằng creatinglgroups (đối với "độ trễ nhóm") tronghạt nhân. Lgroup mỗi tập hợp cùng nhau closeCPUs và bộ nhớ. Trong thực tế, cólà một hệ thống phân cấp của lgroups dựa trên số lượng các độ trễ giữa các nhóm.Solaris cố gắng để lịch trình chủ đề của một quá trình và cấp phát bộ nhớ tất cả của mộtxử lý trong một lgroup. Nếu đó là không thể, nó chọn gần đó lgroups cho cácphần còn lại của các nguồn tài nguyên cần thiết. Điều này thực hành giảm thiểu tổng thể bộ nhớ độ trễvà maximizesCPUcache đánh giá.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Như vậy đến nay trong phạm vi của chúng ta về bộ nhớ ảo, chúng ta đã giả định rằng tất cả các chính
bộ nhớ được tạo ra bằng nhau, hoặc ít nhất là nó được truy cập như nhau. Trên nhiều
9,6 trận đòn 425
hệ thống máy tính, đó không phải là trường hợp. Thông thường, trong các hệ thống với multipleCPUs
(mục 1.3.2), một truy cập givenCPUcan một số phần của bộ nhớ chính nhanh
hơn nó có thể truy cập vào những người khác. Những sự khác biệt hiệu suất là do cách
CPU và bộ nhớ được kết nối với nhau trong hệ thống. Thông thường, một hệ thống như vậy
được tạo thành từ nhiều bảng hệ thống, mỗi có chứa multipleCPUs và một số
bộ nhớ. Ban hệ thống được kết nối với nhau theo những cách khác nhau, từ
xe buýt hệ thống để kết nối mạng tốc độ cao như InfiniBand. Như bạn có thể
mong đợi, theCPUs trên một bảng cụ thể có thể truy cập vào bộ nhớ trên bo mạch với
độ trễ ít hơn họ có thể truy cập vào bộ nhớ trên các bảng khác trong hệ thống. Hệ thống
, trong đó thời gian truy cập bộ nhớ thay đổi đáng kể được gọi chung là
hệ thống không truy cập bộ nhớ (NUMA), và không có ngoại lệ, họ
là chậm hơn so với các hệ thống trong đó bộ nhớ andCPUsarelocatedonthesame
bo mạch chủ.
Giám mà khung trang được lưu trữ tại địa điểm mà có thể đáng kể
ảnh hưởng đến hiệu suất inNUMAsystems. Nếu chúng tôi xử lý bộ nhớ như thống nhất trong đó
một hệ thống, CPU có thể chờ đợi lâu hơn đáng kể cho việc truy cập bộ nhớ hơn nếu chúng ta
sửa đổi các thuật toán cấp phát bộ nhớ cho tài khoản takeNUMAinto. Tương tự như
thay đổi phải được thực hiện cho các hệ thống lập kế hoạch. Mục đích của những thay đổi này là
để có khung hình cấp phát bộ nhớ "càng gần càng tốt" để theCPUon mà
tiến trình đang chạy. Định nghĩa về "gần gũi" là "với độ trễ tối thiểu",
trong đó thường có nghĩa là trên bảng hệ thống tương tự như theCPU.
Những thay đổi thuật toán bao gồm việc lên lịch theo dõi lastCPU
mà mỗi quá trình chạy. Nếu lịch trình cố gắng để sắp xếp mỗi quá trình lên
previousCPU của nó, và các hệ thống quản lý bộ nhớ cố gắng bố trí khung
cho quá trình gần theCPUon mà nó đang được lên kế hoạch, sau đó cải tiến
hits bộ nhớ cache và giảm bộ nhớ thời gian truy cập sẽ cho kết quả.
Những hình ảnh hơn phức tạp khi bài được thêm vào. Ví dụ, một
quá trình với nhiều chủ đề hoạt động có thể kết thúc với những chủ đề dự kiến
trên nhiều bảng hệ thống khác nhau. Làm thế nào là bộ nhớ được phân bổ trong này
trường hợp? Solaris giải quyết vấn đề bằng cách creatinglgroups (cho "nhóm độ trễ") trong
hạt nhân. Mỗi lgroup tập hợp lại với nhau closeCPUs và bộ nhớ. Trong thực tế, có
một hệ thống phân cấp của lgroups dựa vào lượng thời gian trễ giữa các nhóm.
Solaris cố gắng để sắp xếp tất cả các chủ đề của một quá trình và phân bổ tất cả bộ nhớ của một
quá trình trong vòng một lgroup. Nếu điều đó là không thể, nó chọn lgroups gần đó cho
phần còn lại của các nguồn lực cần thiết. Điều này thực tế giảm thiểu độ trễ bộ nhớ tổng thể
và tỷ lệ hit maximizesCPUcache.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: