• Số lượng bộ nhớ cache được chia sẻCon số 18.8 cho thấy bốn tổ chức chung cho hệ thống đa lõi. Con số 18.8A là một tổ chức tìm thấy trong một số chip máy tính đa lõi trước đó và vẫn được nhìn thấy trong chiên nhúng. Trong tổ chức này, bộ nhớ cache chỉ trên chip là L1 bộ nhớ cache, với mỗi lõi có bộ nhớ cache L1 chuyên dụng riêng của mình. Hầu như không thay đổi, L1 bộ nhớ cache được chia thành các hướng dẫn và dữ liệu lưu trữ. Một ví dụ về tổ chức này là ARM11 MPCore.Tổ chức của con số 18.8b cũng là một trong đó có là không có bộ nhớ cache trên chip chia sẻ. Trong đó, có sẵn đủ lá trên chip cho phép cho L2 cache. Một ví dụ về tổ chức này là AMD Opteron. Hình vẽ 18.8c Hiển thị một tương tự phân bổ không gian chip bộ nhớ, nhưng với việc sử dụng một bộ nhớ cache L2 được chia sẻ. Những thông tin Core Duo đã tổ chức này. Cuối cùng, như số lượng bộ nhớ cache bộ nhớ sẵn dùng trên chip tiếp tục phát triển, hiệu suất cân nhắc dictate từ sự chia tách một riêng biệt, được chia sẻ L3 cache, với chuyên dụng L1 và L2 lưu trữ cho mỗi bộ xử lý lõi. Intel Core i7 là một ví dụ về tổ chức này.Sử dụng một bộ nhớ cache L2 được chia sẻ trên chip có nhiều lợi thế hơn độc quyền sự phụ thuộc vào chuyên dụng lưu trữ: 1. xây dựng các can thiệp có thể giảm tổng thể Hoa hậu tỷ lệ. Có nghĩa là, nếu một thread trên một lõi truy cập vị trí bộ nhớ chính, điều này mang đến cho các khung chứa địa điểm tham chiếu vào bộ nhớ cache được chia sẻ. Nếu một thread trên một lõi sớm sau đó truy cập bộ nhớ cùng một khối, trí nhớ sẽ đã có sẵn trong bộ nhớ cache trên chip được chia sẻ. 2. một lợi thế có liên quan là rằng dữ liệu được chia sẻ bởi nhiều lõi không được nhân rộng tại mức độ chia sẻ bộ nhớ cache. 3. với các thuật toán thay thế thích hợp khung, số lượng chia sẻ bộ nhớ cache allo-cated để mỗi lõi là năng động, vì vậy mà chủ đề có một ít địa phương có thể sử dụng bộ nhớ cache nhiều.
đang được dịch, vui lòng đợi..