Hadoop cung cấp nhiều giao diện cho hệ thống tập tin của nó, và nó thường sử dụng các đề án URIđể chọn trường hợp hệ thống tập tin chính xác để giao tiếp với. Ví dụ, Hệ thống tập tinvỏ mà chúng tôi đã gặp trong các phần trước đó hoạt động với tất cả các hệ thống tập tin Hadoop. Vào danh sáchcác tập tin trong thư mục gốc của hệ thống tập tin địa phương, gõ:% hadoop fs -ls file:///Mặc dù nó có thể (và đôi khi rất thuận tiện) để chạy chương trình MapReducetruy cập vào bất kỳ của các hệ thống tập tin, khi bạn đang xử lý một lượng lớn dữ liệu của bạnnên chọn một hệ thống tập tin đã tối ưu hóa dữ liệu địa phương, đặc biệt phân phốiHDFS (xem "Rộng ra" trên trang 30).Giao diệnHadoop được viết bằng Java, do đó, hầu hết Hadoop hệ thống tập tin tương tác trung gian thông quaJava API. Shell hệ thống tập tin, ví dụ, là một ứng dụng Java sử dụng JavaHệ thống tập tin lớp để cung cấp các hoạt động của hệ thống tập tin. Giao diện của hệ thống tập tin khácthảo luận ngắn gọn trong phần này. Các giao diện phổ biến nhất được sử dụng với HDFS,kể từ khi các hệ thống tập tin khác trong Hadoop thường có các công cụ hiện có để truy cập vào under‐nằm hệ thống tập tin (FTP khách hàng cho FTP, S3 công cụ cho S3, vv), nhưng nhiều người trong số họ sẽ làm việcvới bất kỳ hệ thống tập tin Hadoop.HTTPBằng cách phơi bày giao diện hệ thống tập tin của nó như là một Java API, Hadoop làm cho nó khó khăn cho nonJavaứng dụng để truy cập vào HDFS. API REST HTTP tiếp xúc bởi các WebHDFSProtocol làm cho nó dễ dàng hơn cho các ngôn ngữ khác để tương tác với HDFS. Lưu ý rằng HTTPgiao diện là chậm hơn so với các khách hàng Java bản xứ, vì vậy nên tránh cho các dữ liệu rất lớnchuyển khoản nếu có thể.Có hai cách để truy cập vào HDFS qua HTTP: trực tiếp, nơi mà với HDFSphục vụ các yêu cầu HTTP cho khách hàng; và thông qua một proxy (hoặc proxy), mà truy cập HDFS trênthay mặt cho các khách hàng bằng cách sử dụng API DistributedFileSystem bình thường. Hai cách có il‐lustrated trong con số 3-1. Cả hai đều sử dụng giao thức WebHDFS.
đang được dịch, vui lòng đợi..