Thus far in our coverage of virtual memory, we have assumed that all m dịch - Thus far in our coverage of virtual memory, we have assumed that all m Việt làm thế nào để nói

Thus far in our coverage of virtual

Thus far in our coverage of virtual memory, we have assumed that all main
memory is created equal—or at least that it is accessed equally. On many
computer systems, that is not the case. Often, in systems with multipleCPUs
(Section 1.3.2), a givenCPUcan access some sections of main memory faster
than it can access others. These performance differences are caused by how
CPUs and memory are interconnected in the system. Frequently, such a system
is made up of several system boards, each containing multipleCPUs and some
memory. The system boards are interconnected in various ways, ranging from
system buses to high-speed network connections like InfiniBand. As you might
expect, the CPUs on a particular board can access the memory on that board with
less delay than they can access memory on other boards in the system. Systems
in which memory access times vary significantly are known collectively as
non-uniform memory access(NUMA) systems, and without exception, they
are slower than systems in which memory andCPUsarelocatedonthesame
motherboard.
Managing which page frames are stored at which locations can significantly
affect performance inNUMAsystems. If we treat memory as uniform in such
a system,CPUs may wait significantly longer for memory access than if we
modify memory allocation algorithms to takeNUMAinto account. Similar
changes must be made to the scheduling system. The goal of these changes is
to have memory frames allocated“as close as possible”to theCPUon which
the process is running. The definition of “close”is “with minimum latency,”
which typically means on the same system board as theCPU.
The algorithmic changes consist of having the scheduler track the lastCPU
on which each process ran. If the scheduler tries to schedule each process onto
its previousCPU, and the memory-management system tries to allocate frames
for the process close to theCPUon which it is being scheduled, then improved
cache hits and decreased memory access times will result.
The picture is more complicated once threads are added. For example, a
process with many running threads may end up with those threads scheduled
on many different system boards. How is the memory to be allocated in this
case? Solaris solves the problem by creatinglgroups(for“latency groups”)in
the kernel. Each lgroup gathers together closeCPUs and memory. In fact, there
is a hierarchy of lgroups based on the amount of latency between the groups.
Solaris tries to schedule all threads of a process and allocate all memory of a
process within an lgroup. If that is not possible, it picks nearby lgroups for the
rest of the resources needed. This practice minimizes overall memory latency
and maximizesCPUcache hit rates.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Thus far in our coverage of virtual memory, we have assumed that all mainmemory is created equal—or at least that it is accessed equally. On manycomputer systems, that is not the case. Often, in systems with multipleCPUs(Section 1.3.2), a givenCPUcan access some sections of main memory fasterthan it can access others. These performance differences are caused by howCPUs and memory are interconnected in the system. Frequently, such a systemis made up of several system boards, each containing multipleCPUs and somememory. The system boards are interconnected in various ways, ranging fromsystem buses to high-speed network connections like InfiniBand. As you mightexpect, the CPUs on a particular board can access the memory on that board withless delay than they can access memory on other boards in the system. Systemsin which memory access times vary significantly are known collectively asnon-uniform memory access(NUMA) systems, and without exception, theyare slower than systems in which memory andCPUsarelocatedonthesamemotherboard.Managing which page frames are stored at which locations can significantlyaffect performance inNUMAsystems. If we treat memory as uniform in sucha system,CPUs may wait significantly longer for memory access than if wemodify memory allocation algorithms to takeNUMAinto account. Similarchanges must be made to the scheduling system. The goal of these changes isto have memory frames allocated“as close as possible”to theCPUon whichthe process is running. The definition of “close”is “with minimum latency,”which typically means on the same system board as theCPU.The algorithmic changes consist of having the scheduler track the lastCPUon which each process ran. If the scheduler tries to schedule each process ontoits previousCPU, and the memory-management system tries to allocate framesfor the process close to theCPUon which it is being scheduled, then improvedcache hits and decreased memory access times will result.The picture is more complicated once threads are added. For example, aprocess with many running threads may end up with those threads scheduledon many different system boards. How is the memory to be allocated in thiscase? Solaris solves the problem by creatinglgroups(for“latency groups”)inthe kernel. Each lgroup gathers together closeCPUs and memory. In fact, thereis a hierarchy of lgroups based on the amount of latency between the groups.Solaris tries to schedule all threads of a process and allocate all memory of aprocess within an lgroup. If that is not possible, it picks nearby lgroups for therest of the resources needed. This practice minimizes overall memory latencyand maximizesCPUcache hit rates.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Như vậy đến nay trong phạm vi của chúng ta về bộ nhớ ảo, chúng ta đã giả định rằng tất cả các chính
bộ nhớ được tạo ra bằng nhau, hoặc ít nhất là nó được truy cập như nhau. Trên nhiều
hệ thống máy tính, đó không phải là trường hợp. Thông thường, trong các hệ thống với multipleCPUs
(mục 1.3.2), một truy cập givenCPUcan một số phần của bộ nhớ chính nhanh
hơn nó có thể truy cập vào những người khác. Những sự khác biệt hiệu suất là do cách
CPU và bộ nhớ được kết nối với nhau trong hệ thống. Thông thường, một hệ thống như vậy
được tạo thành từ nhiều bảng hệ thống, mỗi có chứa multipleCPUs và một số
bộ nhớ. Ban hệ thống được kết nối với nhau theo những cách khác nhau, từ
xe buýt hệ thống để kết nối mạng tốc độ cao như InfiniBand. Như bạn có thể
mong đợi, các CPU trên một bảng cụ thể có thể truy cập vào bộ nhớ trên bo mạch với
độ trễ ít hơn họ có thể truy cập vào bộ nhớ trên các bảng khác trong hệ thống. Hệ thống
, trong đó thời gian truy cập bộ nhớ thay đổi đáng kể được gọi chung là
hệ thống không truy cập bộ nhớ (NUMA), và không có ngoại lệ, họ
là chậm hơn so với các hệ thống trong đó bộ nhớ andCPUsarelocatedonthesame
bo mạch chủ.
Giám mà khung trang được lưu trữ tại địa điểm mà có thể đáng kể
ảnh hưởng đến hiệu suất inNUMAsystems. Nếu chúng tôi xử lý bộ nhớ như thống nhất trong đó
một hệ thống, CPU có thể chờ đợi lâu hơn đáng kể cho việc truy cập bộ nhớ hơn nếu chúng ta
sửa đổi các thuật toán cấp phát bộ nhớ cho tài khoản takeNUMAinto. Tương tự như
thay đổi phải được thực hiện cho các hệ thống lập kế hoạch. Mục đích của những thay đổi này là
để có khung hình cấp phát bộ nhớ "càng gần càng tốt" để theCPUon mà
tiến trình đang chạy. Định nghĩa về "gần gũi" là "với độ trễ tối thiểu",
trong đó thường có nghĩa là trên bảng hệ thống tương tự như theCPU.
Những thay đổi thuật toán bao gồm việc lên lịch theo dõi lastCPU
mà mỗi quá trình chạy. Nếu lịch trình cố gắng để sắp xếp mỗi quá trình lên
previousCPU của nó, và các hệ thống quản lý bộ nhớ cố gắng bố trí khung
cho quá trình gần theCPUon mà nó đang được lên kế hoạch, sau đó cải tiến
hits bộ nhớ cache và giảm bộ nhớ thời gian truy cập sẽ cho kết quả.
Những hình ảnh hơn phức tạp khi bài được thêm vào. Ví dụ, một
quá trình với nhiều chủ đề hoạt động có thể kết thúc với những chủ đề dự kiến
trên nhiều bảng hệ thống khác nhau. Làm thế nào là bộ nhớ được phân bổ trong này
trường hợp? Solaris giải quyết vấn đề bằng cách creatinglgroups (cho "nhóm độ trễ") trong
hạt nhân. Mỗi lgroup tập hợp lại với nhau closeCPUs và bộ nhớ. Trong thực tế, có
một hệ thống phân cấp của lgroups dựa vào lượng thời gian trễ giữa các nhóm.
Solaris cố gắng để sắp xếp tất cả các chủ đề của một quá trình và phân bổ tất cả bộ nhớ của một
quá trình trong vòng một lgroup. Nếu điều đó là không thể, nó chọn lgroups gần đó cho
phần còn lại của các nguồn lực cần thiết. Điều này thực tế giảm thiểu độ trễ bộ nhớ tổng thể
và tỷ lệ hit maximizesCPUcache.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: