Intelligent Read-Ahead The cache manager uses the principle of spatial dịch - Intelligent Read-Ahead The cache manager uses the principle of spatial Việt làm thế nào để nói

Intelligent Read-Ahead The cache ma

Intelligent Read-Ahead The cache manager uses the principle of spatial locality to perform intelligent read-ahead by predict- ing what data the calling process is likely to read next based on the data that it is reading currently. Because the system cache is based on virtual addresses, which are contiguous for a particular file, it doesn’t matter whether they’re juxtaposed in physical memory. File read-ahead for logical block cach- ing is more complex and requires tight cooperation between file system drivers and the block cache because that cache system is based on the relative positions of the accessed data on the disk, and, of course, files aren’t necessarily stored contiguously on disk. You can examine read-ahead activity by using the Cache: Read Aheads/sec performance counter or the CcReadAheadIos system variable. Reading the next block of a file that is being accessed sequentially provides an obvious perfor- mance improvement, with the disadvantage that it will cause head seeks. To extend read-ahead ben- efits to cases of strided data accesses (both forward and backward through a file), the cache manager maintains a history of the last two read requests in the private cache map for the file handle being accessed, a method known as asynchronous read-ahead with history. If a pattern can be determined from the caller’s apparently random reads, the cache manager extrapolates it. For example, if the caller reads page 4000 and then page 3000, the cache manager assumes that the next page the caller will require is page 2000 and prereads it.

Note Although a caller must issue a minimum of three read operations to establish a pre- dictable sequence, only two are stored in the private cache map.

To make read-ahead even more efficient, the Win32 CreateFile function provides a flag indicating forward sequential file access: FILE_FLAG_SEQUENTIAL_SCAN. If this flag is set, the cache manager doesn’t keep a read history for the caller for prediction but instead performs sequential read-ahead. However, as the file is read into the cache’s working set, the cache manager unmaps views of the file that are no longer active and, if they are unmodified, directs the memory manager to place the pages belonging to the unmapped views at the front of the standby list so that they will be quickly reused. It also reads ahead two times as much data (2 MB instead of 1 MB, for example). As the caller continues reading, the cache manager prereads additional blocks of data, always staying about one read (of the size of the current read) ahead of the caller. The cache manager’s read-ahead is asynchronous because it is performed in a thread separate from the caller’s thread and proceeds concurrently with the caller’s execution. When called to retrieve cached data, the cache manager first accesses the requested virtual page to satisfy the request and then queues an additional I/O request to retrieve additional data to a system worker thread. The worker thread then executes in the background, reading additional data in anticipation of the caller’s next read request. The preread pages are faulted into memory while the program continues execut- ing so that when the caller requests the data it’s already in memory. For applications that have no predictable read pattern, the FILE_FLAG_RANDOM_ACCESS flag can be specified when the CreateFile function is called. This flag instructs the cache manager not to
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Thông minh đọc-trước người quản lý bộ nhớ cache sử dụng nguyên lý của không gian địa phương để thực hiện thông minh đọc-trước bằng cách dự đoán-ing dữ liệu quá trình gọi là khả năng đọc tiếp theo dựa trên các dữ liệu mà nó đọc hiện nay. Bởi vì bộ nhớ cache của hệ thống dựa trên địa chỉ ảo, đó là liên tục cho một tập tin cụ thể, nó không quan trọng cho dù họ đang juxtaposed trong bộ nhớ vật lý. Tập tin đọc-phía trước cho hợp lý khối cách-ing là phức tạp hơn và đòi hỏi sự hợp tác chặt chẽ giữa trình điều khiển hệ thống tập tin và bộ nhớ cache khối bởi vì hệ thống bộ nhớ cache dựa trên các vị trí tương đối của các dữ liệu truy cập trên đĩa, và, tất nhiên, tập tin không nhất thiết phải lưu trữ tiếp trên đĩa. Bạn có thể kiểm tra trước đọc hoạt động bằng cách sử dụng bộ nhớ Cache: đọc Aheads/giây hiệu suất truy cập hoặc biến hệ thống CcReadAheadIos. Đọc khối tiếp theo của một tập tin đang được truy cập tuần tự cung cấp một sự cải tiến rõ ràng perfor-mance, với những bất lợi nó sẽ gây ra đầu tìm. Mở rộng phía trước đọc ben-efits để các trường hợp của truy cập dữ liệu strided (cả hai phía trước và lạc hậu thông qua một tập tin), trình quản lý bộ nhớ cache duy trì một lịch sử của cuối hai yêu cầu đọc bản đồ bộ nhớ cache riêng cho xử lý tập tin được truy cập, một phương pháp được gọi là không đồng bộ đọc-phía trước với lịch sử. Nếu một mô hình có thể được xác định của người gọi rõ ràng ngẫu nhiên viết, quản lý bộ nhớ cache extrapolates nó. Ví dụ, nếu người gọi lần đọc trang 4000 và sau đó trang 3000, người quản lý bộ nhớ cache giả định rằng trang tiếp theo mà người gọi sẽ yêu cầu trang năm 2000 và prereads nó.Lưu ý mặc dù người gọi phải vấn đề tối thiểu là ba hoạt động tìm hiểu để thiết lập một chuỗi dictable trước khi, chỉ có hai được lưu trữ trong bản đồ bộ nhớ cache riêng.Để làm cho đọc-trước hiệu quả hơn, Win32 CreateFile chức năng cung cấp một lá cờ cho thấy phía trước tuần tự file truy cập: FILE_FLAG_SEQUENTIAL_SCAN. Nếu lá cờ này được thiết lập, quản lý bộ nhớ cache không giữ một lịch sử đọc cho người gọi đối với dự báo nhưng thay vì thực hiện đọc tuần tự-phía trước. Tuy nhiên, như các tập tin đọc vào bộ nhớ cache tập làm việc, người quản lý bộ nhớ cache unmaps quan điểm của các tập tin đang không hoạt động và, nếu bọn chúng chưa sửa đổi, chỉ đạo quản lý bộ nhớ để đặt các trang thuộc về quan điểm đệm ở phía trước của danh sách chờ để họ sẽ được nhanh chóng tái sử dụng. Nó cũng đọc trước hai lần như nhiều dữ liệu (2 MB thay vì 1 MB, ví dụ). Khi người gọi tiếp tục đọc, người quản lý bộ nhớ cache prereads bổ sung khối dữ liệu, luôn luôn duy trì khoảng một đọc (của kích thước hiện tại đọc) phía trước của người gọi. Quản lý bộ nhớ cache đọc-phía trước là không đồng bộ bởi vì nó được thực hiện trong một thread riêng biệt từ chủ đề của người gọi và tiến hành đồng thời với thực hiện của người gọi. Khi được gọi là để tải về lưu trữ dữ liệu, quản lý bộ nhớ cache đầu tiên truy cập ảo trang được yêu cầu để đáp ứng các yêu cầu và sau đó hàng đợi một yêu cầu I/O bổ sung để lấy các dữ liệu bổ sung một hệ thống công nhân chủ đề. Các chủ đề công nhân sau đó thực hiện trong nền, đọc các dữ liệu bổ sung với dự đoán của yêu cầu đọc tiếp theo của người gọi. Các trang preread đang faulted vào bộ nhớ trong khi chương trình vẫn tiếp tục execut-ing do đó khi người gọi yêu cầu dữ liệu đó là đã trong bộ nhớ. Cho các ứng dụng có không có mô hình đọc dự đoán được, cờ FILE_FLAG_RANDOM_ACCESS có thể được xác định khi các chức năng CreateFile được gọi là. Lá cờ này hướng dẫn quản lý bộ nhớ cache không
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Thông minh Read-Ahead Người quản lý bộ nhớ cache sử dụng các nguyên tắc của địa phương không gian để thực hiện thông minh đọc trước bởi predict- ing những dữ liệu quá trình gọi là có khả năng đọc tiếp theo dựa trên các dữ liệu mà nó được đọc hiện nay. Bởi vì bộ nhớ cache hệ thống được dựa trên các địa chỉ ảo, đó là tiếp giáp với một tập tin cụ thể, nó không quan trọng cho dù họ đang đặt cạnh nhau trong bộ nhớ vật lý. Tập đọc trước cho cach- khối logic ing là phức tạp hơn và đòi hỏi sự hợp tác chặt chẽ giữa các trình điều khiển hệ thống tập tin và bộ nhớ cache block vì rằng hệ thống bộ nhớ cache được dựa trên các vị trí tương đối của các dữ liệu truy cập trên đĩa, và, tất nhiên, các file aren 't nhất thiết phải được lưu trữ liên tục kế nhau trên đĩa. Bạn có thể kiểm tra hoạt động đọc trước bằng cách sử dụng Cache: Đọc Aheads / giây đếm hiệu suất hoặc biến hệ thống CcReadAheadIos. Đọc các khối tiếp theo của một tập tin đang được truy cập liên tục cung cấp một sự cải tiến mance quả thực hiện rõ ràng, với những bất lợi mà nó sẽ gây ra đầu tìm kiếm. Để mở rộng đọc trước efits ích với các trường hợp strided truy cập dữ liệu (cả phía trước và phía sau thông qua một tập tin), người quản lý bộ nhớ cache duy trì một lịch sử của hai yêu cầu đọc cuối cùng trong bản đồ bộ nhớ cache riêng cho các tập tin xử lý được truy cập, một phương pháp được gọi là không đồng bộ đọc trước với lịch sử. Nếu một mô hình có thể được xác định từ những năm dường như ngẫu nhiên lần đọc gọi, người quản lý bộ nhớ cache ngoại suy nó. Ví dụ, nếu người gọi lần đọc trang 4000 và sau đó trang 3000, người quản lý bộ nhớ cache giả định rằng các trang tiếp theo sẽ yêu cầu người gọi là trang năm 2000 và prereads nó. Lưu ý Mặc dù một người gọi phải ra tối thiểu là ba hoạt động đọc để thiết lập một tiền . chuỗi dictable, chỉ có hai được lưu trữ trong bản đồ bộ nhớ cache riêng Để làm cho đọc trước thậm chí còn hiệu quả hơn, chức năng Win32 CreateFile cung cấp một lá cờ chỉ truy cập tập tin phía trước tuần tự: FILE_FLAG_SEQUENTIAL_SCAN. Nếu cờ này được thiết lập, quản lý bộ nhớ cache không giữ một lịch sử đọc cho người gọi để dự đoán mà thay vào đó thực hiện tuần tự đọc trước. Tuy nhiên, như các tập tin được đọc vào thiết lập làm việc của bộ nhớ cache, quan điểm của người quản lý bộ nhớ cache unmaps của tập tin mà không còn hoạt động, và nếu họ chưa sửa đổi, chỉ đạo quản lý bộ nhớ để đặt các trang thuộc quan điểm unmapped ở phía trước danh sách chờ để họ sẽ nhanh chóng tái sử dụng. Nó cũng đọc trước hai lần như nhiều dữ liệu (2 MB thay vì 1 MB, ví dụ). Khi người gọi tiếp tục đọc, khối prereads quản lý thêm bộ nhớ cache dữ liệu, luôn luôn ở khoảng một đọc (kích thước của các chi hiện hành) trước của người gọi. Người quản lý bộ nhớ cache của đọc trước là không đồng bộ bởi vì nó được thực hiện trong một chủ đề riêng biệt từ chủ đề của người gọi và tiến hành đồng thời với việc thực hiện của người gọi. Khi được gọi để lấy dữ liệu được lưu trữ, quản lý bộ nhớ cache đầu tiên truy cập trang ảo yêu cầu để đáp ứng các yêu cầu và sau đó hàng đợi một yêu cầu I / O thêm để lấy dữ liệu bổ sung cho một sợi nhân viên hệ thống. Sau đó các sợi nhân thực hiện ở chế độ nền, đọc dữ liệu bổ sung trong dự đoán của các yêu cầu đọc tiếp theo của người gọi. Các trang preread được đổ lỗi vào bộ nhớ trong khi chương trình vẫn tiếp tục ing execut- để khi người gọi yêu cầu các dữ liệu mà nó đã có trong bộ nhớ. Đối với các ứng dụng mà không có mô hình đọc dự đoán, cờ FILE_FLAG_RANDOM_ACCESS có thể được xác định khi hàm CreateFile được gọi. Lá cờ này chỉ thị cho người quản lý bộ nhớ cache không



đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: