One speaks of:data replication if the same data is stored on multiple  dịch - One speaks of:data replication if the same data is stored on multiple  Việt làm thế nào để nói

One speaks of:data replication if t

One speaks of:

data replication if the same data is stored on multiple storage devices,[1]
computation replication if the same computing task is executed many times.
A computational task is typically replicated in space, i.e. executed on separate devices, or it could be replicated in time, if it is executed repeatedly on a single device. Replication in space or in time is often linked to scheduling algorithms [2]

The access to a replicated entity is typically uniform with access to a single, non-replicated entity. The replication itself should be transparent to an external user. Also, in a failure scenario, a failover of replicas is hidden as much as possible. The latter refers to data replication with respect to Quality of Service (QoS) aspects.[3]

Computer scientists talk about active and passive replication in systems that replicate data or services:

active replication is performed by processing the same request at every replica.
passive replication involves processing each single request on a single replica and then transferring its resultant state to the other replicas.
If at any time one master replica is designated to process all the requests, then we are talking about the primary-backup scheme (master-slave scheme) predominant in high-availability clusters. On the other side, if any replica processes a request and then distributes a new state, then this is a multi-primary scheme (called multi-master in the database field). In the multi-primary scheme, some form of distributed concurrency control must be used, such as distributed lock manager.

Load balancing differs from task replication, since it distributes a load of different (not the same) computations across machines, and allows a single computation to be dropped in case of failure. Load balancing, however, sometimes uses data replication (especially multi-master replication) internally, to distribute its data among machines.

Backup differs from replication in that it saves a copy of data unchanged for a long period of time.[citation needed] Replicas, on the other hand, undergo frequent updates and quickly lose any historical state. Replication is one of the oldest and most important topics in the overall area of distributed systems.

Whether one replicates data or computation, the objective is to have some group of processes that handle incoming events. If we replicate data, these processes are passive and operate only to maintain the stored data, reply to read requests, and apply updates. When we replicate computation, the usual goal is to provide fault-tolerance. For example, a replicated service might be used to control a telephone switch, with the objective of ensuring that even if the primary controller fails, the backup can take over its functions. But the underlying needs are the same in both cases: by ensuring that the replicas see the same events in equivalent orders, they stay in consistent states and hence any replica can respond to queries.

Replication models in distributed systems[edit]
A number of widely cited models exist for data replication, each having its own properties and performance:

Transactional replication. This is the model for replicating transactional data, for example a database or some other form of transactional storage structure. The one-copy serializability model is employed in this case, which defines legal outcomes of a transaction on replicated data in accordance with the overall ACID properties that transactional systems seek to guarantee.
State machine replication. This model assumes that replicated process is a deterministic finite automaton and that atomic broadcast of every event is possible. It is based on a distributed computing problem called distributed consensus and has a great deal in common with the transactional replication model. This is sometimes mistakenly used as synonym of active replication. State machine replication is usually implemented by a replicated log consisting of multiple subsequent rounds of the Paxos algorithm. This was popularized by Google's Chubby system, and is the core behind the open-source Keyspace data store.[4][5]
Virtual synchrony. This computational model is used when a group of processes cooperate to replicate in-memory data or to coordinate actions. The model defines a distributed entity called a process group. A process can join a group, and is provided with a checkpoint containing the current state of the data replicated by group members. Processes can then send multicasts to the group and will see incoming multicasts in the identical order. Membership changes are handled as a special multicast that delivers a new membership view to the processes in the group.
Database replication[edit]
Database replication can be used on many database management systems, usually with a master/slave relationship between the original and the copies. The master logs the updates, which then ripple through to the slaves. The slave outputs a message stating that it has received the update successfully, thus allowing the sending (and potentially re-sending until successfully applied) of subsequent updates.

Multi-master replication, where updates can be submitted to any database node, and then ripple through to other servers, is often desired, but introduces substantially increased costs and complexity which may make it impractical in some situations. The most common challenge that exists in multi-master replication is transactional conflict prevention or resolution. Most synchronous or eager replication solutions do conflict prevention, while asynchronous solutions have to do conflict resolution. For instance, if a record is changed on two nodes simultaneously, an eager replication system would detect the conflict before confirming the commit and abort one of the transactions. A lazy replication system would allow both transactions to commit and run a conflict resolution during resynchronization. The resolution of such a conflict may be based on a timestamp of the transaction, on the hierarchy of the origin nodes or on much more complex logic, which decides consistently on all nodes.

Database replication becomes difficult when it scales up. Usually, the scale up goes with two dimensions, horizontal and vertical: horizontal scale-up has more data replicas, vertical scale-up has data replicas located further away in distance. Problems raised by horizontal scale-up can be alleviated by a multi-layer multi-view access protocol. Vertical scale-up causes fewer problems in that internet reliability and performance are improving.[6]

When data is replicated between database servers, so that the information remains consistent throughout the database system and users cannot tell or even know which server in the DBMS they are using, the system is said to exhibit replication transparency.

Disk storage replication[edit]

Storage replication
Active (real-time) storage replication is usually implemented by distributing updates of a block device to several physical hard disks. This way, any file system supported by the operating system can be replicated without modification, as the file system code works on a level above the block device driver layer. It is implemented either in hardware (in a disk array controller) or in software (in a device driver).

The most basic method is disk mirroring, typical for locally-connected disks. The storage industry narrows the definitions, so mirroring is a local (short-distance) operation. A replication is extendable across a computer network, so the disks can be located in physically distant locations, and the master-slave database replication model is usually applied. The purpose of replication is to prevent damage from failures or disasters that may occur in one location, or in case such events do occur, improve the ability to recover.[7] For replication, latency is the key factor because it determines either how far apart the sites can be or the type of replication that can be employed.

The main characteristic of such cross-site replication is how write operations are handled:

Synchronous replication - guarantees "zero data loss" by the means of atomic write operation, i.e. write either completes on both sides or not at all. Write is not considered complete until acknowledgement by both local and remote storage. Most applications wait for a write transaction to complete before proceeding with further work, hence overall performance decreases considerably. Inherently, performance drops proportionally to distance, as latency is caused by speed of light. For 10 km distance, the fastest possible roundtrip takes 67 μs, whereas nowadays a whole local cached write completes in about 10-20 μs.
An often-overlooked aspect of synchronous replication is the fact that failure of remote replica, or even just the interconnection, stops by definition any and all writes (freezing the local storage system). This is the behaviour that guarantees zero data loss. However, many commercial systems at such potentially dangerous point do not freeze, but just proceed with local writes, losing the desired zero recovery point objective.
The main difference between synchronous and asynchronous volume replication is that synchronous replication needs to wait for the destination server in any write operation.[8]
Asynchronous replication - write is considered complete as soon as local storage acknowledges it. Remote storage is updated, but probably with a small lag. Performance is greatly increased, but in case of losing a local storage, the remote storage is not guaranteed to have the current copy of data and most recent data may be lost.
Semi-synchronous replication - this usually means[citation needed] that a write is considered complete as soon as local storage acknowledges it and a remote server acknowledges that it has received the write either into memory or to a dedicated log file. The actual remote write is not performed immediately but is performed asynchronously, resul
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Một nói:sao chép dữ liệu nếu cùng một dữ liệu được lưu trữ trên nhiều thiết bị lưu trữ, [1]tính toán nhân rộng nếu nhiệm vụ tính toán tương tự được thực hiện nhiều lần.Một nhiệm vụ tính toán thường được nhân rộng trong không gian, tức là thực hiện trên thiết bị riêng biệt, hoặc nó có thể được nhân rộng trong thời gian, nếu nó được thực hiện nhiều lần trên một thiết bị duy nhất. Bản sao trong không gian hoặc trong thời gian thường được liên kết để lập lịch trình thuật toán [2]Truy cập đến một thực thể sao chép là thường đều có quyền truy cập đến một thực thể duy nhất, không sao chép. Sao chép chính nó nên được minh bạch với người dùng bên ngoài. Ngoài ra, trong một trường hợp thất bại, một chuyển đổi dự phòng của bản sao ẩn càng nhiều càng tốt. Sau này đề cập đến dữ liệu sao nhân bản đối với chất lượng dịch vụ (QoS) khía cạnh.[3]Các nhà khoa học máy tính nói về hoạt động và thụ động nhân rộng trong hệ thống sao chép dữ liệu hay dịch vụ:hoạt động sao chép được thực hiện bằng cách xử lý yêu cầu cùng một lúc mỗi bản sao.thụ động nhân bản liên quan đến việc thực hiện mỗi yêu cầu duy nhất trên một bản sao đơn và sau đó chuyển trạng thái kết quả các bản sao khác.Nếu tại bất kỳ thời gian một bản sao tổng thể được chỉ định để xử lý tất cả các yêu cầu, sau đó chúng tôi đang nói về chương trình sao lưu chính (master-slave đề án) chiếm ưu thế trong cụm cao sẵn có. Trên mặt khác, nếu bất kỳ bản sao xử lý một yêu cầu và sau đó phân phối một nhà nước mới, thì đây là một đề án đa chính (gọi là đa chủ trong lĩnh vực cơ sở dữ liệu). Trong các đề án đa chính, một số hình thức kiểm soát phân phối concurrency phải được sử dụng, chẳng hạn như quản lý phân phối khóa.Cân bằng tải khác với bản sao công việc, kể từ khi nó phân phối một tải trọng của khác nhau (không giống nhau) tính toán trên máy, và cho phép một tính toán duy nhất bị rớt trong trường hợp thất bại. Cân bằng tải, Tuy nhiên, đôi khi sử dụng sự sao chép dữ liệu (đặc biệt là đa chủ nhân rộng) trong nội bộ, để phân phối các dữ liệu giữa các máy.Sao lưu khác từ nhân rộng ở chỗ nó sẽ lưu lại một bản sao của dữ liệu không thay đổi trong một thời gian dài của thời gian.[cần dẫn nguồn] Bản sao, mặt khác, trải qua thường xuyên cập nhật và nhanh chóng mất đi bất kỳ nhà nước lịch sử. Sao chép là một trong những chủ đề lâu đời nhất và quan trọng nhất trong khu vực tổng thể của hệ thống phân phối.Cho dù một sao chép dữ liệu hoặc tính toán, mục tiêu là để có một số nhóm các quá trình xử lý các sự kiện. Nếu chúng tôi sao chép dữ liệu, các quá trình thụ động và hoạt động chỉ để duy trì các dữ liệu được lưu trữ, trả lời để đọc yêu cầu và áp dụng bản Cập Nhật. Khi chúng tôi tái tạo tính toán, mục tiêu thông thường là cung cấp lỗi khoan dung. Ví dụ, một dịch vụ sao chép có thể được sử dụng để kiểm soát một chuyển đổi điện thoại, với mục tiêu của việc đảm bảo rằng ngay cả khi bộ điều khiển chính thất bại, sao lưu có thể đi qua các chức năng. Nhưng các nhu cầu cơ bản là như nhau trong cả hai trường hợp: bằng cách đảm bảo rằng các bản sao nhìn thấy các sự kiện tương tự trong tương đương đơn đặt hàng, họ ở lại tại kỳ phù hợp và do đó bất kỳ bản sao có thể trả lời các truy vấn.Sao chép các mô hình trong hệ thống phân phối [sửa]Một số mô hình được trích dẫn rộng rãi tồn tại cho dữ liệu sao nhân bản, mỗi có tính chất và hiệu suất của riêng mình:Nhân rộng giao dịch. Đây là mô hình cho sao chép dữ liệu giao dịch, ví dụ một cơ sở dữ liệu hoặc một số hình thức khác của cấu trúc lí giao dịch. Các mô hình một bản sao serializability được sử dụng trong trường hợp này, mà xác định các kết quả pháp lý của một giao dịch trên sao chép dữ liệu phù hợp với các thuộc tính axit tổng thể giao dịch hệ thống tìm kiếm để đảm bảo.Nhà nước máy nhân bản. Mô hình này giả định rằng quá trình sao chép là một automaton hữu hạn xác định và đó phát sóng nguyên tử của mỗi sự kiện có thể. Nó được dựa trên một vấn đề tính toán phân phối được gọi là phân phối đồng thuận và có rất nhiều điểm chung với mô hình nhân rộng giao dịch. Điều này đôi khi nhầm lẫn được sử dụng như từ đồng nghĩa của hoạt động sao chép. Nhà nước máy nhân bản thường được thực hiện bởi một đăng sao chép bao gồm nhiều vòng tiếp theo của thuật toán Paxos. Điều này phổ biến rộng rãi bởi hệ thống Chubby của Google, và là cốt lõi đằng sau cửa hàng dữ liệu mã nguồn mở khóa.[4][5]Synchrony ảo. Mô hình tính toán này được sử dụng khi một nhóm các quá trình hợp tác để sao chép dữ liệu trong bộ nhớ hoặc phối hợp hành động. Các mô hình định nghĩa một thực thể phân phối được gọi là một quá trình nhóm. Một quá trình có thể tham gia một nhóm, và được cung cấp với một trạm kiểm soát có tình trạng hiện thời của dữ liệu nhân rộng bởi thành viên của nhóm. Quá trình có thể sau đó gửi multicast đến nhóm và sẽ thấy đến multicast trong bộ giống hệt nhau. Thay đổi thành viên được xử lý như một phát đa hướng đặc biệt cung cấp một cái nhìn thành viên mới cho các quá trình trong nhóm.Cơ sở dữ liệu sao nhân bản [sửa]Cơ sở dữ liệu sao nhân bản có thể được sử dụng trên nhiều cơ sở dữ liệu quản lý hệ thống, thường với một mối quan hệ Thạc sĩ/nô lệ giữa bản gốc và các bản sao. Là bậc thầy sẽ ghi lại các bản Cập Nhật, mà sau đó gợn thông qua để nô lệ. Nô lệ kết quả đầu ra một thông báo nói rằng nó đã nhận được cập nhật thành công, do đó cho phép việc gửi (và có khả năng tái gửi cho đến khi áp dụng thành công) của bản Cập Nhật tiếp theo.Đa chủ nhân rộng, nơi thông tin Cập Nhật có thể được gửi đến bất kỳ nút cơ sở dữ liệu, và sau đó gợn thông qua đến các máy chủ khác, thường là mong muốn, nhưng giới thiệu tăng đáng kể chi phí và sự phức tạp mà có thể làm cho nó không thực tế trong một số trường hợp. Thách thức phổ biến nhất mà tồn tại trong nhiều chủ nhân rộng là công tác phòng chống xung đột giao dịch hoặc độ phân giải. Đặt đồng bộ hoặc mong muốn sao chép giải pháp xung đột công tác phòng chống, trong khi không đồng bộ các giải pháp có xung đột độ phân giải. Ví dụ, nếu một kỷ lục thay đổi trên hai nút cùng một lúc, một mong muốn sao chép hệ thống sẽ phát hiện cuộc xung đột trước khi xác nhận cam kết và hủy bỏ một trong các giao dịch. Một hệ thống lười biếng nhân rộng sẽ cho phép cả hai giao dịch cam và chạy một giải quyết xung đột trong resynchronization. Nghị quyết của một cuộc xung đột có thể được dựa trên một dấu thời gian của giao dịch, Hệ thống phân cấp của các nút nguồn gốc hoặc trên logic phức tạp hơn, quyết định một cách nhất quán trên tất cả các nút.Cơ sở dữ liệu sao nhân bản trở nên khó khăn khi nó quy mô. Thông thường, quy mô lên đi với hai chiều, ngang và dọc: ngang quy mô-up có thêm dữ liệu bản sao, quy mô-up dọc có bản sao dữ liệu nằm tiếp tục đi khoảng cách. Vấn đề nêu ra bởi quy mô-up ngang có thể được giảm nhẹ bởi một giao thức nhiều lớp đa xem truy cập. Quy mô-up dọc gây ra vấn đề ít hơn trong đó internet đáng tin cậy và hiệu suất cải thiện.[6]Khi dữ liệu được nhân rộng giữa các máy chủ cơ sở dữ liệu, do đó, thông tin vẫn nhất quán trong suốt hệ thống cơ sở dữ liệu và người sử dụng không thể nói hoặc thậm chí biết máy chủ trong DBMS họ đang sử dụng, Hệ thống được cho triển lãm nhân rộng minh bạch.Đĩa lưu trữ bản sao [sửa]Lưu trữ bản saoHoạt động (thời gian thực) lí nhân rộng thường được thực hiện bởi phân phối các bản Cập Nhật của một thiết bị chặn để một số đĩa cứng vật lý. Bằng cách này, bất kỳ hệ thống tập tin được hỗ trợ bởi hệ điều hành có thể được nhân rộng mà không sửa đổi, như các tập tin hệ thống mã hoạt động trên một mức độ trên khối thiết bị điều khiển lớp. Nó được thực hiện hoặc trong phần cứng (trong một bộ điều khiển mảng đĩa) hoặc trong phần mềm (trong một trình điều khiển thiết bị).Các phương pháp cơ bản nhất là đĩa ánh xạ, điển hình nhất tại địa phương kết nối đĩa. Ngành công nghiệp lưu trữ thu hẹp các định nghĩa, do đó, phản ánh là một hoạt động địa phương (ngắn khoảng cách). Sao chép một là mở rộng trên một mạng máy tính, do đó, các đĩa có thể được đặt tại các địa điểm xa xôi về thể chất, và các mô hình nhân rộng cơ sở dữ liệu master-slave thường được áp dụng. Mục đích của nhân bản là để ngăn chặn thiệt hại từ thất bại hoặc thiên tai có thể xảy ra tại một địa điểm, hoặc trong trường hợp các sự kiện xảy ra, cải thiện khả năng phục hồi.[7] để nhân rộng, độ trễ là yếu tố quan trọng bởi vì nó sẽ xác định một trong hai cách xa ngoài các trang web có thể hoặc loại nhân bản có thể được sử dụng.Các đặc điểm chính của nhân rộng qua trang web như vậy là cách thức hoạt động ghi được xử lý:Bản sao đồng bộ - đảm bảo "zero mất dữ liệu" bởi các phương tiện của nguyên tử viết hoạt động, tức là viết một trong hai hoàn thành trên cả hai mặt hay không ở tất cả. Ghi không được coi là hoàn thành cho đến khi xác nhận bởi cả hai địa phương và từ xa hành lý. Hầu hết các ứng dụng chờ đợi cho một giao dịch viết hoàn thành trước khi tiếp tục với công việc, do đó hiệu suất tổng thể giảm đáng kể. Vốn, hiệu suất giảm tương ứng với khoảng cách, như độ trễ là do vận tốc ánh sáng. Đối với khoảng cách 10 km, roundtrip có thể nhanh nhất mất 67 μs, trong khi ngày nay bản ghi lưu trữ toàn bộ địa phương hoàn thành trong về 10-20 μs.Một khía cạnh thường bỏ qua của bản sao đồng bộ là một thực tế rằng sai lầm của bản sao từ xa, hoặc thậm chí chỉ cần kết nối, các điểm dừng theo định nghĩa tất cả viết (đóng băng hệ thống lưu trữ cục bộ). Đây là hành vi đó đảm bảo không mất dữ liệu. Tuy nhiên, nhiều hệ thống thương mại tại điểm nguy hiểm tiềm tàng không đóng băng, nhưng chỉ cần tiến hành với địa phương viết, mất đi những mong muốn không mục tiêu điểm phục hồi.Sự khác biệt chính giữa sao chép khối lượng đồng bộ và không đồng bộ là bản sao đồng bộ đó cần phải đợi cho máy chủ đích trong bất kỳ hoạt động viết.[8]Bản sao không đồng bộ - ghi được coi là hoàn thành ngay sau khi lưu trữ cục bộ thừa nhận nó. Lưu trữ từ xa được Cập Nhật, nhưng có lẽ với một độ trễ nhỏ. Hiệu suất tăng lên rất nhiều, nhưng trong trường hợp mất một lưu trữ địa phương, lưu trữ từ xa không được đảm bảo để có bản sao hiện tại của dữ liệu và đặt dữ liệu có thể bị mất.Bản sao đồng bộ bán - điều này thường có nghĩa [cần dẫn nguồn] viết được coi hoàn thành ngay sau khi lưu trữ cục bộ thừa nhận nó và một máy chủ từ xa thừa nhận rằng nó đã nhận được viết vào bộ nhớ hoặc vào một tập tin Nhật ký dành riêng. Viết từ xa thực tế chưa được thực hiện ngay lập tức nhưng được thực hiện không đồng bộ, resul
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
One speaks of:

data replication if the same data is stored on multiple storage devices,[1]
computation replication if the same computing task is executed many times.
A computational task is typically replicated in space, i.e. executed on separate devices, or it could be replicated in time, if it is executed repeatedly on a single device. Replication in space or in time is often linked to scheduling algorithms [2]

The access to a replicated entity is typically uniform with access to a single, non-replicated entity. The replication itself should be transparent to an external user. Also, in a failure scenario, a failover of replicas is hidden as much as possible. The latter refers to data replication with respect to Quality of Service (QoS) aspects.[3]

Computer scientists talk about active and passive replication in systems that replicate data or services:

active replication is performed by processing the same request at every replica.
passive replication involves processing each single request on a single replica and then transferring its resultant state to the other replicas.
If at any time one master replica is designated to process all the requests, then we are talking about the primary-backup scheme (master-slave scheme) predominant in high-availability clusters. On the other side, if any replica processes a request and then distributes a new state, then this is a multi-primary scheme (called multi-master in the database field). In the multi-primary scheme, some form of distributed concurrency control must be used, such as distributed lock manager.

Load balancing differs from task replication, since it distributes a load of different (not the same) computations across machines, and allows a single computation to be dropped in case of failure. Load balancing, however, sometimes uses data replication (especially multi-master replication) internally, to distribute its data among machines.

Backup differs from replication in that it saves a copy of data unchanged for a long period of time.[citation needed] Replicas, on the other hand, undergo frequent updates and quickly lose any historical state. Replication is one of the oldest and most important topics in the overall area of distributed systems.

Whether one replicates data or computation, the objective is to have some group of processes that handle incoming events. If we replicate data, these processes are passive and operate only to maintain the stored data, reply to read requests, and apply updates. When we replicate computation, the usual goal is to provide fault-tolerance. For example, a replicated service might be used to control a telephone switch, with the objective of ensuring that even if the primary controller fails, the backup can take over its functions. But the underlying needs are the same in both cases: by ensuring that the replicas see the same events in equivalent orders, they stay in consistent states and hence any replica can respond to queries.

Replication models in distributed systems[edit]
A number of widely cited models exist for data replication, each having its own properties and performance:

Transactional replication. This is the model for replicating transactional data, for example a database or some other form of transactional storage structure. The one-copy serializability model is employed in this case, which defines legal outcomes of a transaction on replicated data in accordance with the overall ACID properties that transactional systems seek to guarantee.
State machine replication. This model assumes that replicated process is a deterministic finite automaton and that atomic broadcast of every event is possible. It is based on a distributed computing problem called distributed consensus and has a great deal in common with the transactional replication model. This is sometimes mistakenly used as synonym of active replication. State machine replication is usually implemented by a replicated log consisting of multiple subsequent rounds of the Paxos algorithm. This was popularized by Google's Chubby system, and is the core behind the open-source Keyspace data store.[4][5]
Virtual synchrony. This computational model is used when a group of processes cooperate to replicate in-memory data or to coordinate actions. The model defines a distributed entity called a process group. A process can join a group, and is provided with a checkpoint containing the current state of the data replicated by group members. Processes can then send multicasts to the group and will see incoming multicasts in the identical order. Membership changes are handled as a special multicast that delivers a new membership view to the processes in the group.
Database replication[edit]
Database replication can be used on many database management systems, usually with a master/slave relationship between the original and the copies. The master logs the updates, which then ripple through to the slaves. The slave outputs a message stating that it has received the update successfully, thus allowing the sending (and potentially re-sending until successfully applied) of subsequent updates.

Multi-master replication, where updates can be submitted to any database node, and then ripple through to other servers, is often desired, but introduces substantially increased costs and complexity which may make it impractical in some situations. The most common challenge that exists in multi-master replication is transactional conflict prevention or resolution. Most synchronous or eager replication solutions do conflict prevention, while asynchronous solutions have to do conflict resolution. For instance, if a record is changed on two nodes simultaneously, an eager replication system would detect the conflict before confirming the commit and abort one of the transactions. A lazy replication system would allow both transactions to commit and run a conflict resolution during resynchronization. The resolution of such a conflict may be based on a timestamp of the transaction, on the hierarchy of the origin nodes or on much more complex logic, which decides consistently on all nodes.

Database replication becomes difficult when it scales up. Usually, the scale up goes with two dimensions, horizontal and vertical: horizontal scale-up has more data replicas, vertical scale-up has data replicas located further away in distance. Problems raised by horizontal scale-up can be alleviated by a multi-layer multi-view access protocol. Vertical scale-up causes fewer problems in that internet reliability and performance are improving.[6]

When data is replicated between database servers, so that the information remains consistent throughout the database system and users cannot tell or even know which server in the DBMS they are using, the system is said to exhibit replication transparency.

Disk storage replication[edit]

Storage replication
Active (real-time) storage replication is usually implemented by distributing updates of a block device to several physical hard disks. This way, any file system supported by the operating system can be replicated without modification, as the file system code works on a level above the block device driver layer. It is implemented either in hardware (in a disk array controller) or in software (in a device driver).

The most basic method is disk mirroring, typical for locally-connected disks. The storage industry narrows the definitions, so mirroring is a local (short-distance) operation. A replication is extendable across a computer network, so the disks can be located in physically distant locations, and the master-slave database replication model is usually applied. The purpose of replication is to prevent damage from failures or disasters that may occur in one location, or in case such events do occur, improve the ability to recover.[7] For replication, latency is the key factor because it determines either how far apart the sites can be or the type of replication that can be employed.

The main characteristic of such cross-site replication is how write operations are handled:

Synchronous replication - guarantees "zero data loss" by the means of atomic write operation, i.e. write either completes on both sides or not at all. Write is not considered complete until acknowledgement by both local and remote storage. Most applications wait for a write transaction to complete before proceeding with further work, hence overall performance decreases considerably. Inherently, performance drops proportionally to distance, as latency is caused by speed of light. For 10 km distance, the fastest possible roundtrip takes 67 μs, whereas nowadays a whole local cached write completes in about 10-20 μs.
An often-overlooked aspect of synchronous replication is the fact that failure of remote replica, or even just the interconnection, stops by definition any and all writes (freezing the local storage system). This is the behaviour that guarantees zero data loss. However, many commercial systems at such potentially dangerous point do not freeze, but just proceed with local writes, losing the desired zero recovery point objective.
The main difference between synchronous and asynchronous volume replication is that synchronous replication needs to wait for the destination server in any write operation.[8]
Asynchronous replication - write is considered complete as soon as local storage acknowledges it. Remote storage is updated, but probably with a small lag. Performance is greatly increased, but in case of losing a local storage, the remote storage is not guaranteed to have the current copy of data and most recent data may be lost.
Semi-synchronous replication - this usually means[citation needed] that a write is considered complete as soon as local storage acknowledges it and a remote server acknowledges that it has received the write either into memory or to a dedicated log file. The actual remote write is not performed immediately but is performed asynchronously, resul
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2025 I Love Translation. All reserved.

E-mail: