Chúng tôi bắt đầu bằng cách nhìn vào thực hiện xử lý tổng thể cho các điểm chuẩn trên
hệ thống bốn bộ xử lý; như thảo luận ở trang 367, các điểm chuẩn bao gồm đáng kể thời gian I / O, được bỏ qua trong các phép đo thời gian xử lý. Chúng tôi nhóm
sáu truy vấn DSS là một điểm chuẩn duy nhất, báo cáo các hành vi trung bình. Các
chỉ số CPI có hiệu quả rất khác nhau đối với các tiêu chuẩn, từ một chỉ số CPI là 1,3 cho việc tìm kiếm Web AltaVista, một chỉ số CPI trung bình 1.6 cho khối lượng công việc DSS, 7.0 cho các
khối lượng công việc OLTP. Hình 5.11 cho thấy cách thực hiện thời gian phân hủy thành các
hướng dẫn thực hiện, thời gian bộ nhớ cache và bộ nhớ hệ thống truy cập, và các quầy hàng khác
(mà chủ yếu là các quầy hàng tài nguyên đường ống mà còn bao gồm dịch lookaside
đệm (TLB) và các quầy hàng chi nhánh mispredict). Mặc dù hiệu suất của DSS
và AltaVista khối lượng công việc là hợp lý, hiệu quả hoạt động của khối lượng công việc OLTP là
rất kém, do một hiệu suất kém của hệ thống phân cấp bộ nhớ.
Kể từ khi khối lượng công việc OLTP đòi hỏi nhiều nhất từ hệ thống bộ nhớ với
số lượng lớn các môn L3 đắt , chúng tôi tập trung vào việc kiểm tra tác động của L3
cache size, số lượng bộ xử lý, và kích thước khối trên chuẩn OLTP. Hình 5.12
cho thấy ảnh hưởng của việc tăng kích thước bộ nhớ cache, sử dụng hai cách thiết lập bộ nhớ đệm kết hợp, làm giảm số lượng lớn các môn xung đột. Thời gian thực hiện được cải thiện như bộ nhớ cache L3 phát triển do sự giảm trong vòng cấm địa L3. Đáng ngạc nhiên,
gần như tất cả những gì thu được xảy ra trong đi 1-2 MB, với ít tăng thêm
hơn nữa, mặc dù thực tế rằng cache nhớ vẫn là một nguyên nhân của sự mất mát hiệu suất đáng kể với 2 MB và 4 MB cache. Câu hỏi đặt ra là, Tại sao?
Để hiểu rõ hơn câu trả lời cho câu hỏi này, chúng ta cần phải xác định những
yếu tố góp phần vào tỷ lệ bỏ lỡ L3 và làm thế nào họ thay đổi như bộ nhớ cache L3
phát triển. Hình 5.13 cho thấy các dữ liệu, hiển thị số lượng truy cập bộ nhớ
chu kỳ đóng góp theo hướng dẫn từ năm nguồn. Hai nguồn lớn nhất của
L3 chu kỳ truy cập bộ nhớ với một 1 MB L3 là hướng dẫn và khả năng / xung đột
bỏ lỡ. Với một L3 lớn hơn, hai nguồn thu nhỏ được đóng góp nhỏ.
Thật không may, sự bắt buộc, chia sẻ sai, và nhớ chia sẻ đúng là không bị ảnh hưởng bởi một L3 lớn hơn. Như vậy, vào lúc 4 MB và 8 MB, sự chia sẻ miss đúng tạo ra các phần chi phối của các môn; thiếu sự thay đổi trong việc chia sẻ thực sự
bỏ lỡ dẫn đến việc cắt giảm hạn chế về tỷ lệ bỏ lỡ tổng thể khi tăng
kích thước bộ nhớ cache L3 quá 2 MB.
Tăng kích thước bộ nhớ cache giúp loại bỏ hầu hết các miss bộ xử lý đơn trong khi
bỏ lỡ đa nguyên. Làm thế nào để tăng bộ xử lý
số ảnh hưởng khác nhau của môn? Hình 5.14 cho thấy các dữ liệu giả định một
cấu hình cơ bản với bộ nhớ cache L3 kết hợp 2 MB, hai cách thiết lập. Như chúng ta có thể
mong đợi, sự gia tăng trong tỷ lệ chia sẻ nhớ đúng, mà không được bù lại bằng
bất kỳ sự giảm xuống trong vòng cấm địa bộ xử lý đơn, dẫn đến sự gia tăng tổng thể trong các chu kỳ truy cập bộ nhớ theo hướng dẫn.
Các câu hỏi cuối cùng chúng tôi xem xét là liệu tăng khối kích thước mà
nên giảm sự hướng dẫn và tốc độ miss lạnh và, trong giới hạn, cũng làm giảm
tỷ lệ bỏ lỡ khả năng / xung đột và có thể chia sẻ bỏ lỡ đúng tỷ lệ, rất có ích
cho công việc này. Hình 5.15 cho thấy số lượng các môn trên 1000 hướng dẫn
như kích thước khối được tăng từ 32 đến 256 byte. Tăng kích thước khối từ
32 đến 256 byte ảnh hưởng đến bốn thành phần tỷ lệ bỏ lỡ:
■ Tỷ lệ bỏ lỡ chia sẻ thực sự giảm xuống hơn hệ số 2, cho thấy
một số địa phương trong các mô hình chia sẻ sự thật.
■ Tỷ lệ bỏ lỡ bắt buộc giảm đáng kể, như chúng tôi mong đợi.
■ các cuộc xung đột / suất lỡ có mức giảm nhỏ (một yếu tố là 1,26 so
với một nhân tố của 8 tăng kích thước khối), chỉ ra rằng các địa phương không gian là không
cao trong vòng cấm địa bộ xử lý đơn xảy ra với L3 cache lớn hơn 2 MB.
■ tỷ lệ bỏ lỡ chia sai, mặc dù nhỏ trong điều kiện tuyệt đối, gần như tăng gấp đôi.
việc thiếu một ảnh hưởng đáng kể về tỷ lệ hướng dẫn bỏ lỡ là đáng ngạc nhiên. Nếu
có một bộ nhớ cache hướng dẫn chỉ với hành vi này, chúng tôi sẽ kết luận
rằng các địa phương không gian là rất nghèo. Trong trường hợp của một bộ nhớ cache L2 hỗn hợp, khác
hiệu ứng như xung đột dẫn dữ liệu cũng có thể đóng góp vào sự cao
hướng dẫn tỷ lệ bộ nhớ cache bỏ lỡ cho các khối lớn hơn. Các nghiên cứu khác đã ghi nhận
các địa phương không gian thấp trong dòng hướng dẫn của cơ sở dữ liệu và OLTP lớn
khối lượng công việc, trong đó có rất nhiều các khối cơ bản ngắn và mã số đặc biệt mục đích
trình tự. Dựa trên các dữ liệu, hình phạt bỏ lỡ cho một kích thước khối lớn hơn L3 để
thực hiện cũng như 32-byte kích thước khối L3 có thể được thể hiện như một số nhân
trên 32-byte phạt kích thước khối:
Với SDRAMs DDR hiện đại mà làm chặn truy cập nhanh , những con số này dường như
đạt được, đặc biệt là ở kích thước khối 128 byte. Tất nhiên, chúng ta cũng phải lo lắng
về những ảnh hưởng của lưu lượng tăng lên đến bộ nhớ và có thể cạnh tranh cho
các bộ nhớ với các lõi khác. Hiệu lực sau này có thể dễ dàng n
đang được dịch, vui lòng đợi..
