THE GREENING OF THE DATA CENTERWhat’s too hot to handle? It might very dịch - THE GREENING OF THE DATA CENTERWhat’s too hot to handle? It might very Việt làm thế nào để nói

THE GREENING OF THE DATA CENTERWhat

THE GREENING OF THE DATA CENTER
What’s too hot to handle? It might very well be your company’s data center, which can easily consume more than 100 times more power than a standard office building. Data-hungry tasks such as video on demand, maintaining Web sites, or analyzing large pools of transactions or social media data require more and more power-hungry machines. Power and cooling costs for data centers have skyrocketed, with cooling a server requiring roughly the same number of kilowatts of energy as running one. All this additional power consumption has a negative impact on the environment as well as corporate operating costs. Companies are now looking to green computing for solutions. The standard for measuring data center energy efficiency is power usage effectiveness (PUE). This metric is a ratio of the total annual power consumed by a data center divided by how much is used annually by IT equipment. The lower the ratio, the better, with a PUE of 1.0 representing a desirable target. The PUE of traditional data centers has hovered around 2.0. That means the data center is using twice the amount of electricity that’s actually needed to do the computing. (The extra power is consumed by lighting, cooling, and other systems.) PUE is influenced by many factors, including hardware efficiency, data center size, the types of servers and their uses, the proficiency of monitoring software, building architecture, and the climate outside the facility. New data center designs with PUEs of 1.5 or better are emerging Virtualization is a highly effective tool for costeffective green computing because it reduces the number of servers and storage resources in the firm’s IT infrastructure. About five years ago, Acorda, a $210 million-per-year maker of drugs to treat nervous disorders such as multiple sclerosis, found it needed more servers and was outgrowing its data center. The company invested $100,000 in virtual servers running on technology from VMware. Using virtualization, Acorda avoided spending an additional $1.5 million on more physical servers and increasing energy consumption. Moreover, when the company moved to a new building in 2012, it was able to significantly shrink the size of its data center, further lowering cooling costs. Acorda took additional steps to boost energy efficiency at the new facility. The company installed motion sensors that shut off lights after five minutes if no movement is detected, and it invested in a more intelligent cooling system that automatically changes settings as conditions change. Current plans include replacing all of Acorda’s host servers and taking advantage of a VMware feature that moves virtual servers from one cluster to another, thereby reducing the number of clusters that require power at any given time. Acorda is also preparing to test virtualized desktops, which will greatly reduce the power required to run workstations and laptops. Other tools and techniques are also available to make data centers more energy-efficient. Google and Microsoft have built data centers that take advantage of hydroelectric power. In April 2011 Facebook publicly posted the specifications for the design of its data centers, including motherboards, power supply, server chassis, server rack, and battery cabinets, as well as data center electrical and mechanical construction specifications. Facebook hardware engineers re-thought the electric design, power distribution, and thermal design of its servers to optimize energy efficiency, reducing power usage by 13 percent. The power supply, which converts alternating current into direct current consumed by the motherboard, operates at 94.5 percent efficiency. Instead of using air conditioning or air ducts, the servers are cooled by evaporative cooling and misting machines, which flow air through grill-covered walls. The server racks are taller to provide for bigger heat sinks, and the data center’s large fans can move air through the servers more efficiently. Facebook’s engineers modified the programming in the servers to work with these larger fans and reduce their reliance on small, individual fans that consume more power. This data center design, which has a 1.07 PUE rating, was implemented at Facebook’s Prineville, Oregon data center. All of these changes have reduced Facebook’s energy consumption per unit of computing power by 38 percent and operating costs by nearly 25 percent. The Prineville data center reports that its PUE is 1.07, one of the lowest. By using ambient air cooling techniques and running warmer than average, Google’s newest data centers deliver a PUE rating of 1.16. Yahoo’s new Lockport, N.Y., data center has a PUE of 1.08. Lockport’s cool climate, prevailing winds, and hydropower help cool Yahoo’s 120 foot by 60 foot server buildings. FedEx located its energy-efficient Colorado
data center at an elevation of 6,000 feet so that the building can be cooled using outside air instead of internal air conditioning. In addi
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
XANH CỦA TRUNG TÂM DỮ LIỆUWhat’s too hot to handle? It might very well be your company’s data center, which can easily consume more than 100 times more power than a standard office building. Data-hungry tasks such as video on demand, maintaining Web sites, or analyzing large pools of transactions or social media data require more and more power-hungry machines. Power and cooling costs for data centers have skyrocketed, with cooling a server requiring roughly the same number of kilowatts of energy as running one. All this additional power consumption has a negative impact on the environment as well as corporate operating costs. Companies are now looking to green computing for solutions. The standard for measuring data center energy efficiency is power usage effectiveness (PUE). This metric is a ratio of the total annual power consumed by a data center divided by how much is used annually by IT equipment. The lower the ratio, the better, with a PUE of 1.0 representing a desirable target. The PUE of traditional data centers has hovered around 2.0. That means the data center is using twice the amount of electricity that’s actually needed to do the computing. (The extra power is consumed by lighting, cooling, and other systems.) PUE is influenced by many factors, including hardware efficiency, data center size, the types of servers and their uses, the proficiency of monitoring software, building architecture, and the climate outside the facility. New data center designs with PUEs of 1.5 or better are emerging Virtualization is a highly effective tool for costeffective green computing because it reduces the number of servers and storage resources in the firm’s IT infrastructure. About five years ago, Acorda, a $210 million-per-year maker of drugs to treat nervous disorders such as multiple sclerosis, found it needed more servers and was outgrowing its data center. The company invested $100,000 in virtual servers running on technology from VMware. Using virtualization, Acorda avoided spending an additional $1.5 million on more physical servers and increasing energy consumption. Moreover, when the company moved to a new building in 2012, it was able to significantly shrink the size of its data center, further lowering cooling costs. Acorda took additional steps to boost energy efficiency at the new facility. The company installed motion sensors that shut off lights after five minutes if no movement is detected, and it invested in a more intelligent cooling system that automatically changes settings as conditions change. Current plans include replacing all of Acorda’s host servers and taking advantage of a VMware feature that moves virtual servers from one cluster to another, thereby reducing the number of clusters that require power at any given time. Acorda is also preparing to test virtualized desktops, which will greatly reduce the power required to run workstations and laptops. Other tools and techniques are also available to make data centers more energy-efficient. Google and Microsoft have built data centers that take advantage of hydroelectric power. In April 2011 Facebook publicly posted the specifications for the design of its data centers, including motherboards, power supply, server chassis, server rack, and battery cabinets, as well as data center electrical and mechanical construction specifications. Facebook hardware engineers re-thought the electric design, power distribution, and thermal design of its servers to optimize energy efficiency, reducing power usage by 13 percent. The power supply, which converts alternating current into direct current consumed by the motherboard, operates at 94.5 percent efficiency. Instead of using air conditioning or air ducts, the servers are cooled by evaporative cooling and misting machines, which flow air through grill-covered walls. The server racks are taller to provide for bigger heat sinks, and the data center’s large fans can move air through the servers more efficiently. Facebook’s engineers modified the programming in the servers to work with these larger fans and reduce their reliance on small, individual fans that consume more power. This data center design, which has a 1.07 PUE rating, was implemented at Facebook’s Prineville, Oregon data center. All of these changes have reduced Facebook’s energy consumption per unit of computing power by 38 percent and operating costs by nearly 25 percent. The Prineville data center reports that its PUE is 1.07, one of the lowest. By using ambient air cooling techniques and running warmer than average, Google’s newest data centers deliver a PUE rating of 1.16. Yahoo’s new Lockport, N.Y., data center has a PUE of 1.08. Lockport’s cool climate, prevailing winds, and hydropower help cool Yahoo’s 120 foot by 60 foot server buildings. FedEx located its energy-efficient Colorado dữ liệu trung tâm ở độ cao 6.000 feet, do đó việc xây dựng có thể được làm mát bằng cách sử dụng không khí bên ngoài thay vì bên trong máy lạnh. Trong g
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Phủ xanh DỮ LIỆU CENTER
gì quá nóng để xử lý? Nó rất tốt có thể là công ty của bạn trung tâm dữ liệu, có thể dễ dàng tiêu thụ nhiều năng lượng hơn hơn 100 lần so với một tòa nhà văn phòng tiêu chuẩn. Nhiệm vụ Data-đói như video theo yêu cầu, duy trì trang web, hoặc phân tích hồ lớn các giao dịch hoặc các dữ liệu truyền thông xã hội đòi hỏi máy điện-đói hơn và nhiều hơn nữa. Điện và làm mát chi phí cho các trung tâm dữ liệu đã tăng vọt, với làm mát máy chủ đòi hỏi khoảng cùng một số kilowatt năng lượng như chạy một. Tất cả tiêu thụ năng lượng bổ sung này có một tác động tiêu cực đến môi trường cũng như chi phí vận hành của công ty. Các công ty đang tìm cách để máy tính xanh cho các giải pháp. Các tiêu chuẩn để đo lường hiệu quả năng lượng trung tâm dữ liệu hiệu quả sử dụng điện năng (PUE). Số liệu này là tỷ lệ của tổng công suất hàng năm tiêu thụ bởi một trung tâm dữ liệu chia cho bao nhiêu là sử dụng hàng năm của thiết bị CNTT. Các tỷ lệ thấp hơn, tốt hơn, với một PUE 1,0 đại diện cho một mục tiêu mong muốn. Các PUE của các trung tâm dữ liệu truyền thống đã dao động quanh mức 2,0. Điều đó có nghĩa là các trung tâm dữ liệu đang sử dụng gấp đôi lượng điện mà thực sự cần thiết để thực hiện tính toán. (Sức mạnh thêm được tiêu thụ bởi ánh sáng, làm mát, và các hệ thống khác.) PUE bị ảnh hưởng bởi nhiều yếu tố, bao gồm hiệu quả phần cứng, kích thước trung tâm dữ liệu, các loại máy chủ và sử dụng của họ, trình độ của phần mềm giám sát, xây dựng kiến trúc, và các khí hậu bên ngoài cơ sở. Trung tâm dữ liệu thiết kế mới với Pues 1,5 hoặc tốt hơn đang xuất hiện ảo hóa là một công cụ hiệu quả cao cho máy tính xanh costeffective vì nó làm giảm số lượng máy chủ và tài nguyên lưu trữ trong cơ sở hạ tầng CNTT của công ty. Khoảng năm năm trước đây, Acorda, một hãng sản xuất mỗi triệu năm $ 210 của các loại thuốc để điều trị rối loạn thần kinh như bệnh đa xơ cứng, thấy nó cần nhiều máy chủ và đã được phát triển nhanh chóng trung tâm dữ liệu của nó. Công ty có vốn đầu tư 100.000 $ trong các máy chủ ảo chạy trên công nghệ từ VMware. Sử dụng công nghệ ảo hóa, Acorda tránh chi tiêu thêm $ 1.5 triệu vào nhiều máy chủ vật lý và tăng mức tiêu thụ năng lượng. Hơn nữa, khi công ty chuyển đến một tòa nhà mới vào năm 2012, nó đã có thể thu nhỏ đáng kể kích thước của trung tâm dữ liệu của nó, làm giảm hơn nữa chi phí làm mát. Acorda mất bước bổ sung để tăng hiệu quả năng lượng tại các cơ sở mới. Công ty đã lắp đặt bộ cảm biến chuyển động tắt đèn sau năm phút nếu không có phong trào được phát hiện, và nó đã đầu tư một hệ thống làm mát thông minh hơn để tự động thay đổi các thiết lập như điều kiện thay đổi. Kế hoạch hiện nay bao gồm thay thế tất cả các máy chủ Acorda và tận dụng lợi thế của tính năng VMware mà di chuyển các máy chủ ảo từ một cluster khác, do đó làm giảm số lượng các cụm đó đòi hỏi sức mạnh tại bất kỳ thời điểm nào. Acorda cũng đang chuẩn bị để kiểm tra máy tính để bàn ảo hóa, mà sẽ làm giảm đáng kể sức mạnh cần thiết để chạy các máy trạm và máy tính xách tay. Các công cụ và kỹ thuật khác cũng có sẵn để làm cho các trung tâm dữ liệu tiết kiệm năng lượng. Google và Microsoft đã xây dựng trung tâm dữ liệu tận dụng lợi thế của thủy điện. Trong tháng 4 năm 2011 Facebook niêm yết công khai các thông số kỹ thuật cho các thiết kế của các trung tâm dữ liệu của nó, bao gồm bo mạch chủ, cung cấp điện, khung máy chủ, máy chủ rack, và tủ pin, cũng như trung tâm dữ liệu chi tiết kỹ thuật xây lắp điện và cơ khí. Kỹ sư phần cứng Facebook lại nghĩ việc thiết kế điện, phân phối điện, thiết kế tản nhiệt của máy chủ của nó để tối ưu hóa hiệu quả năng lượng, giảm sử dụng năng lượng bằng 13 phần trăm. Việc cung cấp điện, chuyển đổi điện xoay chiều thành dòng trực tiếp tiêu thụ bởi các bo mạch chủ, hoạt động với hiệu suất 94,5 phần trăm. Thay vì sử dụng máy điều hòa không khí hoặc không khí ống dẫn, các máy chủ được làm lạnh bởi làm mát và phun sương Máy bay hơi, chảy không khí qua các bức tường nướng phủ. Các máy chủ rack có chiều cao để cung cấp cho bộ tản nhiệt lớn hơn, và người hâm mộ lớn của trung tâm dữ liệu có thể di chuyển không khí thông qua các máy chủ hiệu quả hơn. Kỹ sư của Facebook sửa đổi chương trình trong máy chủ để làm việc với những người hâm mộ lớn hơn và giảm sự phụ thuộc của họ vào nhỏ, quạt cá nhân có thể tiêu thụ nhiều năng lượng hơn. Điều này thiết kế trung tâm dữ liệu, trong đó có một giá 1,07 PUE, được thực hiện tại trung tâm dữ liệu Prineville, Oregon của Facebook. Tất cả những thay đổi này đã làm giảm tiêu thụ năng lượng của Facebook trên một đơn vị công suất máy tính bằng 38 phần trăm và chi phí vận hành gần 25 phần trăm. Các trung tâm dữ liệu Prineville báo cáo rằng PUE của nó là 1,07, một trong những mức thấp nhất. Bằng cách sử dụng kỹ thuật làm mát không khí xung quanh và chạy nóng hơn trung bình, trung tâm dữ liệu mới nhất của Google cung cấp một đánh giá PUE 1,16. Mới Lockport, NY, trung tâm dữ liệu của Yahoo có một PUE 1,08. Khí hậu Lockport mát mẻ, gió, và giúp đỡ thủy điện lạnh 120 chân của Yahoo bởi các tòa nhà máy chủ 60 chân. FedEx nằm Colorado năng lượng hiệu quả của nó
trung tâm dữ liệu ở độ cao 6.000 feet để các tòa nhà có thể được làm mát bằng không khí bên ngoài thay vì điều hòa không khí bên trong. trong Addï
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: