Thus far in our coverage of virtual memory, we have assumed that all m dịch - Thus far in our coverage of virtual memory, we have assumed that all m Việt làm thế nào để nói

Thus far in our coverage of virtual

Thus far in our coverage of virtual memory, we have assumed that all main
memory is created equal—or at least that it is accessed equally. On many
computer systems, that is not the case. Often, in systems with multiple CPUs
(Section 1.3.2), a given CPU can access some sections of main memory faster
than it can access others. These performance differences are caused by how
CPUs and memory are interconnected in the system. Frequently, such a system
is made up of several system boards, each containing multiple CPUs and some
memory. The system boards are interconnected in various ways, ranging from
system buses to high-speed network connections like InfiniBand. As you might
expect, the CPUs on a particular board can access the memory on that board with
less delay than they can access memory on other boards in the system. Systems
in which memory access times vary significantly are known collectively as
non-uniform memory access(NUMA) systems, and without exception, they
are slower than systems in which memory and CPUs are located on the same
motherboard.
Managing which page frames are stored at which locations can significantly
affect performance in NUMA systems. If we treat memory as uniform in such
a system, CPUs may wait significantly longer for memory access than if we
modify memory allocation algorithms to take NUMA into account. Similar
changes must be made to the scheduling system. The goal of these changes is
to have memory frames allocated“as close as possible”to the CPU on which
the process is running. The definition of “close”is “with minimum latency,”
which typically means on the same system board as the CPU.
The algorithmic changes consist of having the scheduler track the last CPU
on which each process ran. If the scheduler tries to schedule each process onto
its previous CPU, and the memory-management system tries to allocate frames
for the process close to the CPU on which it is being scheduled, then improved
cache hits and decreased memory access times will result.
The picture is more complicated once threads are added. For example, a
process with many running threads may end up with those threads scheduled
on many different system boards. How is the memory to be allocated in this
case? Solaris solves the problem by creating lgroups (for“latency groups”)in
the kernel. Each lgroup gathers together close CPUs and memory. In fact, there
is a hierarchy of lgroups based on the amount of latency between the groups.
Solaris tries to schedule all threads of a process and allocate all memory of a
process within an lgroup. If that is not possible, it picks nearby lgroups for the
rest of the resources needed. This practice minimizes overall memory latency
and maximizes CPU cache hit rates.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Vậy, đến nay trong phạm vi bảo hiểm của chúng tôi của bộ nhớ ảo, chúng tôi đã giả định rằng tất cả chínhbộ nhớ được tạo ra bằng nhau- hoặc ít nhất mà truy cập như nhau. Trên nhiềuHệ thống máy tính, trong đó không phải là trường hợp. Thông thường, trong các hệ thống với nhiều CPU(Mục 1.3.2), một CPU nhất định có thể truy cập vào một số phần của bộ nhớ chính nhanh hơnhơn nó có thể truy cập vào những người khác. Những khác biệt hiệu suất gây ra bởi thế nàoCPU và bộ nhớ được nối liền với nhau trong hệ thống. Thông thường, một hệ thống như vậyđược tạo thành từ một vài hệ thống ban, mỗi người có chứa nhiều CPU và một sốbộ nhớ. Bảng hệ thống được nối liền với nhau trong nhiều cách khác nhau, khác nhau, từHệ thống xe buýt đến kết nối mạng tốc độ cao như InfiniBand. Như bạn có thểmong đợi, CPU trên một bảng cụ thể có thể truy cập vào bộ nhớ trên mà hội đồng quản trị vớiít chậm trễ hơn họ có thể truy cập vào bộ nhớ on hội đồng khác trong hệ thống. Hệ thốngtrong đó thời gian truy cập bộ nhớ thay đổi đáng kể được gọi chung làbộ nhớ phục access(NUMA) hệ thống, và không có ngoại lệ, họchậm hơn so với hệ thống trong đó bộ nhớ và CPU nằm trên cùng mộtBo mạch chủ.Quản lý mà khung trang được lưu trữ tại đó địa điểm có thể đáng kểảnh hưởng đến hiệu suất hệ thống NUMA. Nếu chúng tôi xử lý bộ nhớ như đồng phục trong đómột hệ thống, CPU có thể chờ đợi lâu hơn một cách đáng kể cho bộ nhớ truy cập hơn nếu chúng taSửa đổi bộ nhớ phân bổ giải thuật đưa NUMA vào tài khoản. Tương tự nhưnhững thay đổi phải được thực hiện để hệ thống lập kế hoạch. Mục tiêu của những thay đổi này làđể có khung hình bộ nhớ được cấp phát "càng gần càng tốt" với CPU màtiến trình đang chạy. Định nghĩa của "đóng" là "với độ trễ tối thiểu"mà thường có nghĩa là trên cùng một hệ thống bảng như CPU.Những thay đổi thuật toán gồm có theo dõi scheduler CPU cuốimà trên đó mỗi quá trình chạy. Nếu trình lập lịch biểu cố gắng để lịch trình mỗi quá trình lênCPU trước đó của nó, và các hệ thống quản lý bộ nhớ cố gắng để phân bổ các khungĐối với quá trình gần CPU mà trên đó nó được dự kiến, sau đó được cải thiện nhấttruy cập bộ nhớ cache và thời gian truy cập giảm bộ nhớ sẽ cho kết quả.Những hình ảnh là phức tạp hơn khi chủ đề được thêm vào. Ví dụ, mộtvới nhiều chủ đề chạy quá trình có thể kết thúc với những chủ đề theo lịch trìnhtrên nhiều hệ thống khác nhau. Làm thế nào là bộ nhớ được cấp phát trong nàytrường hợp không? Solaris giải quyết vấn đề bằng cách tạo ra lgroups (đối với "độ trễ nhóm") tronghạt nhân. Lgroup mỗi tập hợp lại với nhau gần CPU và bộ nhớ. Trong thực tế, cólà một hệ thống phân cấp của lgroups dựa trên số lượng các độ trễ giữa các nhóm.Solaris cố gắng để lịch trình chủ đề của một quá trình và cấp phát bộ nhớ tất cả của mộtxử lý trong một lgroup. Nếu đó là không thể, nó chọn gần đó lgroups cho cácphần còn lại của các nguồn tài nguyên cần thiết. Điều này thực hành giảm thiểu tổng thể bộ nhớ độ trễvà CPU tối đa bộ nhớ cache đạt tỷ lệ.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Như vậy đến nay trong phạm vi của chúng ta về bộ nhớ ảo, chúng ta đã giả định rằng tất cả các chính
bộ nhớ được tạo ra bằng nhau, hoặc ít nhất là nó được truy cập như nhau. Trên nhiều
hệ thống máy tính, đó không phải là trường hợp. Thông thường, trong các hệ thống với nhiều CPU
(Mục 1.3.2), một CPU nhất định có thể truy cập vào một số phần của bộ nhớ chính nhanh
hơn nó có thể truy cập vào những người khác. Những sự khác biệt hiệu suất là do cách
CPU và bộ nhớ được kết nối với nhau trong hệ thống. Thông thường, một hệ thống như vậy
được tạo thành từ nhiều bảng hệ thống, từng có nhiều CPU và một số
bộ nhớ. Ban hệ thống được kết nối với nhau theo những cách khác nhau, từ
xe buýt hệ thống để kết nối mạng tốc độ cao như InfiniBand. Như bạn có thể
mong đợi, các CPU trên một bảng cụ thể có thể truy cập vào bộ nhớ trên bo mạch với
độ trễ ít hơn họ có thể truy cập vào bộ nhớ trên các bảng khác trong hệ thống. Hệ thống
, trong đó thời gian truy cập bộ nhớ thay đổi đáng kể được gọi chung là
hệ thống không truy cập bộ nhớ (NUMA), và không có ngoại lệ, họ
là chậm hơn so với các hệ thống trong đó bộ nhớ và CPU được đặt trên cùng một
bo mạch chủ.
Giám mà khung trang được lưu trữ tại những vị trí có thể đáng kể
ảnh hưởng đến hiệu suất trong hệ thống NUMA. Nếu chúng tôi xử lý bộ nhớ như thống nhất trong đó
một hệ thống, CPU có thể chờ đợi lâu hơn đáng kể cho việc truy cập bộ nhớ hơn nếu chúng ta
sửa đổi các thuật toán cấp phát bộ nhớ để có Numa vào tài khoản. Tương tự như
thay đổi phải được thực hiện cho các hệ thống lập kế hoạch. Mục đích của những thay đổi này là
để có khung hình cấp phát bộ nhớ "càng gần càng tốt" cho CPU mà
tiến trình đang chạy. Định nghĩa về "đóng" là "với độ trễ tối thiểu",
trong đó thường có nghĩa là trên bảng hệ thống như CPU.
Những thay đổi thuật toán bao gồm việc lên lịch theo dõi CPU cuối cùng
mà mỗi quá trình chạy. Nếu lịch trình cố gắng để sắp xếp mỗi quá trình lên
CPU trước đây của nó, và các hệ thống quản lý bộ nhớ cố gắng bố trí khung
cho quá trình gần với CPU mà nó đang được lên kế hoạch, sau đó cải tiến
hits bộ nhớ cache và giảm thời gian truy cập bộ nhớ sẽ cho kết quả.
Các hình ảnh phức tạp hơn một lần đề được thêm vào. Ví dụ, một
quá trình với nhiều chủ đề hoạt động có thể kết thúc với những chủ đề dự kiến
trên nhiều bảng hệ thống khác nhau. Làm thế nào là bộ nhớ được phân bổ trong này
trường hợp? Solaris giải quyết vấn đề bằng cách tạo ra lgroups (cho "nhóm độ trễ") trong
hạt nhân. Mỗi lgroup tập hợp lại với nhau CPU gần và trí nhớ. Trong thực tế, có
một hệ thống phân cấp của lgroups dựa vào lượng thời gian trễ giữa các nhóm.
Solaris cố gắng để sắp xếp tất cả các chủ đề của một quá trình và phân bổ tất cả bộ nhớ của một
quá trình trong vòng một lgroup. Nếu điều đó là không thể, nó chọn lgroups gần đó cho
phần còn lại của các nguồn lực cần thiết. Điều này thực tế giảm thiểu độ trễ bộ nhớ tổng thể
và tối đa hóa CPU giá cache hit.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: