Hadoop provides many interfaces to its filesystems, and it generally u dịch - Hadoop provides many interfaces to its filesystems, and it generally u Việt làm thế nào để nói

Hadoop provides many interfaces to

Hadoop provides many interfaces to its filesystems, and it generally uses the URI scheme
to pick the correct filesystem instance to communicate with. For example, the filesystem
shell that we met in the previous section operates with all Hadoop filesystems. To list
the files in the root directory of the local filesystem, type:
% hadoop fs -ls file:///
Although it is possible (and sometimes very convenient) to run MapReduce programs
that access any of these filesystems, when you are processing large volumes of data you
should choose a distributed filesystem that has the data locality optimization, notably
HDFS (see “Scaling Out” on page 30).
Interfaces
Hadoop is written in Java, so most Hadoop filesystem interactions are mediated through
the Java API. The filesystem shell, for example, is a Java application that uses the Java
FileSystem class to provide filesystem operations. The other filesystem interfaces are
discussed briefly in this section. These interfaces are most commonly used with HDFS,
since the other filesystems in Hadoop typically have existing tools to access the under‐
lying filesystem (FTP clients for FTP, S3 tools for S3, etc.), but many of them will work
with any Hadoop filesystem.
HTTP
By exposing its filesystem interface as a Java API, Hadoop makes it awkward for nonJava
applications to access HDFS. The HTTP REST API exposed by the WebHDFS
protocol makes it easier for other languages to interact with HDFS. Note that the HTTP
interface is slower than the native Java client, so should be avoided for very large data
transfers if possible.
There are two ways of accessing HDFS over HTTP: directly, where the HDFS daemons
serve HTTP requests to clients; and via a proxy (or proxies), which accesses HDFS on
the client’s behalf using the usual DistributedFileSystem API. The two ways are il‐
lustrated in Figure 3-1. Both use the WebHDFS protocol.
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Hadoop cung cấp nhiều giao diện cho hệ thống tập tin của nó, và nó thường sử dụng các đề án URIđể chọn trường hợp hệ thống tập tin chính xác để giao tiếp với. Ví dụ, Hệ thống tập tinvỏ mà chúng tôi đã gặp trong các phần trước đó hoạt động với tất cả các hệ thống tập tin Hadoop. Vào danh sáchcác tập tin trong thư mục gốc của hệ thống tập tin địa phương, gõ:% hadoop fs -ls file:///Mặc dù nó có thể (và đôi khi rất thuận tiện) để chạy chương trình MapReducetruy cập vào bất kỳ của các hệ thống tập tin, khi bạn đang xử lý một lượng lớn dữ liệu của bạnnên chọn một hệ thống tập tin đã tối ưu hóa dữ liệu địa phương, đặc biệt phân phốiHDFS (xem "Rộng ra" trên trang 30).Giao diệnHadoop được viết bằng Java, do đó, hầu hết Hadoop hệ thống tập tin tương tác trung gian thông quaJava API. Shell hệ thống tập tin, ví dụ, là một ứng dụng Java sử dụng JavaHệ thống tập tin lớp để cung cấp các hoạt động của hệ thống tập tin. Giao diện của hệ thống tập tin khácthảo luận ngắn gọn trong phần này. Các giao diện phổ biến nhất được sử dụng với HDFS,kể từ khi các hệ thống tập tin khác trong Hadoop thường có các công cụ hiện có để truy cập vào under‐nằm hệ thống tập tin (FTP khách hàng cho FTP, S3 công cụ cho S3, vv), nhưng nhiều người trong số họ sẽ làm việcvới bất kỳ hệ thống tập tin Hadoop.HTTPBằng cách phơi bày giao diện hệ thống tập tin của nó như là một Java API, Hadoop làm cho nó khó khăn cho nonJavaứng dụng để truy cập vào HDFS. API REST HTTP tiếp xúc bởi các WebHDFSProtocol làm cho nó dễ dàng hơn cho các ngôn ngữ khác để tương tác với HDFS. Lưu ý rằng HTTPgiao diện là chậm hơn so với các khách hàng Java bản xứ, vì vậy nên tránh cho các dữ liệu rất lớnchuyển khoản nếu có thể.Có hai cách để truy cập vào HDFS qua HTTP: trực tiếp, nơi mà với HDFSphục vụ các yêu cầu HTTP cho khách hàng; và thông qua một proxy (hoặc proxy), mà truy cập HDFS trênthay mặt cho các khách hàng bằng cách sử dụng API DistributedFileSystem bình thường. Hai cách có il‐lustrated trong con số 3-1. Cả hai đều sử dụng giao thức WebHDFS.
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Hadoop cung cấp nhiều giao diện cho hệ thống tập tin của nó, và nó thường sử dụng các URI scheme
để chọn các ví dụ hệ thống tập tin chính xác để giao tiếp với. Ví dụ, hệ thống tập tin
bao mà chúng tôi gặp nhau trong phần trước hoạt động với tất cả các hệ thống tập tin Hadoop. Để liệt kê
các tập tin trong thư mục gốc của hệ thống tập tin địa phương, loại:
fs% hadoop -ls file: ///
Mặc dù nó có thể (và đôi khi rất thuận tiện) để chạy các chương trình MapReduce
truy cập vào bất kỳ các hệ thống tập tin, khi bạn chế biến khối lượng lớn dữ liệu, bạn
nên chọn một hệ thống tập tin phân phối mà có tối ưu hóa dữ liệu địa phương, đặc biệt là
HDFS (xem "Scaling Out" trên trang 30).
Giao diện
Hadoop được viết bằng Java, vì vậy hầu hết các tương tác Hadoop hệ thống tập tin được trung gian qua
các API Java. Vỏ hệ thống tập tin, ví dụ, là một ứng dụng Java sử dụng Java
lớp FileSystem để cung cấp cho hoạt động hệ thống tập tin. Các giao diện hệ thống tập tin khác được
thảo luận ngắn gọn trong phần này. Các giao diện này thường được sử dụng với HDFS,
kể từ khi hệ thống tập tin khác trong Hadoop thường có các công cụ hiện có để truy cập vào các hiểu biết
hệ thống tập tin nằm (FTP client FTP, công cụ S3 cho S3, vv), nhưng nhiều người trong số họ sẽ làm việc
với bất kỳ Hadoop hệ thống tập tin.
HTTP
bởi lộ giao diện hệ thống tập tin của nó như là một API Java, Hadoop làm cho nó khó xử cho nonJava
ứng dụng để truy cập vào HDFS. Các API HTTP REST của tiếp xúc do WebHDFS
giao thức làm cho nó dễ dàng hơn cho các ngôn ngữ khác để tương tác với HDFS. Lưu ý rằng các HTTP
giao diện là chậm hơn so với các khách hàng Java bản địa, vì vậy nên tránh cho dữ liệu rất lớn
chuyển nếu có thể.
Có hai cách tiếp cận HDFS qua HTTP: trực tiếp, nơi mà các daemon HDFS
phục vụ các yêu cầu HTTP cho khách hàng; và thông qua một proxy (hoặc proxy), mà truy cập HDFS trên
thay mặt cho khách hàng sử dụng các API DistributedFileSystem bình thường. Hai cách được il-
lustrated trong hình 3-1. Cả hai đều sử dụng giao thức WebHDFS.
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: