Our own work is closest to Martins and Smith(2009). We also develop an dịch - Our own work is closest to Martins and Smith(2009). We also develop an Việt làm thế nào để nói

Our own work is closest to Martins

Our own work is closest to Martins and Smith(2009). We also develop an ILP-based compression
and summarization model, however, several key differences set our approach apart. Firstly,
content selection is performed at the phrase rather than sentence level. Secondly, the combination of phrase and dependency information into a single data structure is new, and important in allowing us to express grammaticality as constraints across
phrase dependencies, rather than resorting to a lan-guage model. Lastly, our model is more compact,has fewer parameters, and does not require two training procedures. Our approach bears some resemblance to headline generation (Dorr et al.,2003; Banko et al., 2000), although we output several sentences rather than a single one. Headlinegeneration models typically extract individual words from a document to produce a very short summary, whereas we extract phrases and ensure that they are combined into grammatical sentences
through our ILP constraints.Svore et al. (2007) were the first to foreground
the highlight generation task which we adopt as an evaluation testbed for our model. Their approach is however a purely extractive one. Using an algorithm based on neural networks and third-party resources (e.g., news query logs and Wikipedia entries)they rank sentences and select the three highest scoring ones as story highlights. In contrast,we aim to generate rather than extract highlights.
As a first step we focus on deleting extraneous material,but other more sophisticated rewrite operations(e.g., Cohn and Lapata 2009) could be incorporated
into our framework
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Our own work is closest to Martins and Smith(2009). We also develop an ILP-based compressionand summarization model, however, several key differences set our approach apart. Firstly,content selection is performed at the phrase rather than sentence level. Secondly, the combination of phrase and dependency information into a single data structure is new, and important in allowing us to express grammaticality as constraints acrossphrase dependencies, rather than resorting to a lan-guage model. Lastly, our model is more compact,has fewer parameters, and does not require two training procedures. Our approach bears some resemblance to headline generation (Dorr et al.,2003; Banko et al., 2000), although we output several sentences rather than a single one. Headlinegeneration models typically extract individual words from a document to produce a very short summary, whereas we extract phrases and ensure that they are combined into grammatical sentencesthrough our ILP constraints.Svore et al. (2007) were the first to foregroundthe highlight generation task which we adopt as an evaluation testbed for our model. Their approach is however a purely extractive one. Using an algorithm based on neural networks and third-party resources (e.g., news query logs and Wikipedia entries)they rank sentences and select the three highest scoring ones as story highlights. In contrast,we aim to generate rather than extract highlights.As a first step we focus on deleting extraneous material,but other more sophisticated rewrite operations(e.g., Cohn and Lapata 2009) could be incorporated
into our framework
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Công việc của riêng của chúng tôi là gần gũi nhất với Martins và Smith (2009). Chúng tôi cũng phát triển một nén ILP dựa trên
và tổng kết mô hình, tuy nhiên, một số khác biệt quan trọng thiết lập phương pháp tiếp cận của chúng tôi xa nhau. Thứ nhất,
lựa chọn nội dung được thực hiện tại các cụm từ chứ không phải là câu. Thứ hai, sự kết hợp của cụm từ và sự phụ thuộc thông tin vào một cấu trúc dữ liệu duy nhất là mới, và quan trọng trong việc cho phép chúng tôi bày tỏ grammaticality như những hạn chế trên toàn
phụ thuộc cụm từ, chứ không phải dùng đến một mô hình lan-ngôn. Cuối cùng, mô hình của chúng tôi là nhỏ gọn hơn, có các tham số ít, và không đòi hỏi hai quy trình đào tạo. Cách tiếp cận của chúng tôi mang một số điểm tương đồng với hệ tiêu đề (Dorr et al, 2003;.. Banko et al, 2000), mặc dù chúng tôi ra vài câu chứ không phải là duy nhất. Mô hình Headlinegeneration thường trích xuất từ cá nhân từ một tài liệu để sản xuất một bản tóm tắt rất ngắn, trong khi chúng tôi trích cụm từ và đảm bảo rằng chúng được kết hợp vào câu ngữ pháp
thông qua ILP constraints.Svore chúng tôi et al. (2007) là người đầu tiên để làm nổi bật
những nhiệm vụ thế hệ nổi bật mà chúng tôi áp dụng như là một thử nghiệm đánh giá cho mô hình của chúng tôi. Tuy nhiên cách tiếp cận của họ là một trong những đơn thuần khai khoáng. Sử dụng một thuật toán dựa trên các mạng thần kinh và các nguồn lực của bên thứ ba (ví dụ, các bản ghi truy vấn thông tin và Wikipedia mục) họ xếp hạng các câu và chọn ba cái chấm điểm cao nhất là câu chuyện nổi bật. Ngược lại, chúng tôi nhằm mục đích để tạo ra chứ không phải chiết xuất nổi bật.
Như là một bước đầu tiên, chúng tôi tập trung vào việc xóa tài liệu không liên quan, nhưng các thao tác phức tạp hơn viết lại khác (ví dụ, Cohn và Lapata 2009) có thể được đưa
vào khuôn khổ của chúng tôi
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: