Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation Inkorporeer Woord Herordening kennis in Aansig-gebaseerde Neurale Masjien Vertaling የቃላትን አቀማመጥ እውቀት ወደ ተጠያቂው የኔural machine ትርጉም دمج كلمة إعادة ترتيب المعرفة في الترجمة الآلية العصبية القائمة على الانتباه Bilm톛yi Attention-based N칬ral Makina 칂evirm톛sin톛 Yeniden Se칞im Kelimi Включване на знанията за пренареждане на думи в базиран на вниманието неврален машинен превод মনোযোগের ভিত্তিক নিউরাল মেশিন অনুবাদে শব্দ পুনরায় নির্দেশের জ্ঞান অনুবাদ করা হচ্ছে ཆ་འཕྲིན་འབྱོར་བའི་ཐ་སྙད་ཅིག་ལ་རྟོགས་པ་དང་གཞི་རྟེན་ནས་མཐུན་རྐྱེན་གྱི་མ་ལག་གི་སྐད་བསྒྱུར་བཅོས་བ Uključujući riječ Rezerviranje znanja u prijevoz neuroloških strojeva na temelju pažnje Incorporar el Conèixement Ordinant paraules en la traducció de màquines neuronals basada en l'atenció Začlenění znalostí přepracování slov do pozornosti založeného na neurálním strojovém překladu Inddragelse af ordomregning viden i opmærksomhedsbaseret neural maskinoversættelse Einbeziehung von Wissen über die Neuordnung von Wörtern in die aufmerksamkeitsbasierte neuronale maschinelle Übersetzung Ενσωμάτωση της γνώσης αναδιατάστασης λέξεων στη βασισμένη στην προσοχή νευρωνική μηχανική μετάφραση Incorporación del conocimiento de reordenación de palabras en la traducción automática neuronal basada en la atención Sõna ümberkorraldamise teadmiste lisamine tähelepanupõhisesse neuromasintõlkesse جمع کردن کلمهای که تغییر دادن علم به ترجمه ماشین عصبی بر پایه توجه Sanan uudelleenjärjestelytiedon sisällyttäminen huomiopohjaiseen neurokonekäännökseen Intégration des connaissances sur la réorganisation des mots dans la traduction automatique neuronale basée sur l'attention Eolas Athordaithe Focal a Ionchorprú in Aistriúchán Meaisín Néar-Bhunaithe Aird-Bhunaithe @ action הכילה מילים להזמין מידע מחדש לתרגום מכונת עצבית מבוססת על תשומת לב ध्यान-आधारित तंत्रिका मशीन अनुवाद में ज्ञान को पुन: क्रमबद्ध करने वाले शब्द को शामिल करना Uključujući riječ Preporučivanje znanja u prijevoz neuroloških strojeva na temelju pažnje A tudás átrendezése a figyelem alapú idegi fordításba Նյարդային մեքենայի թարգմանություն Menginkorporasi Perkataan Mengurus Pengetahuan ke Translation Mesin Neural Berdasarkan Perhatian Incorporare la conoscenza di riordino delle parole nella traduzione automatica neurale basata sull'attenzione アテンションベースのニューラル・マシン・トランスレーションに単語の並べ替えに関する知識を取り入れる politenessoffpolite"), and when there is a change ("assertive Name Білімдерді назардағы нейрондық машинаның аудармасына қайта реттеу 단어 재배열 지식을 주의에 기초한 신경기계 번역에 융합시키다 Įtraukti žodžių perskirstymo žinias į dėmesiu pagrįstą neurologinį mašinų vertimą Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation Хэрэглэгчийн сэтгэл хөдлөл дээр мэдлэгийг дахин хуваалцах үг Memasukkan Perkataan Mengurus Semula Pengetahuan ke dalam Terjemahan Mesin Neural Berasas Perhatian L-inkorporazzjoni tal-Għarfien dwar l-Ordni mill-ġdid tal-Kliem fit-Traduzzjoni tal-Magni Newrali bbażata fuq l-Attenzjoni Opnemen van kennis van woordherschikking in aandacht-gebaseerde neurale machinevertaling Omsetjing av ordet som rekorderer kjenning til omsetjing av nøyralmaskinen basert på merksomsetjing Włączenie wiedzy o zmianie porządku słów do tłumaczenia maszynowego opartego na uwadze Incorporando o conhecimento de reordenação de palavras na tradução automática neural baseada na atenção Incorporarea cunoștințelor de reordonare a cuvintelor în traducerea automată neurală bazată pe atenție Включение знаний о переупорядочении слов в основанный на внимании нейронный машинный перевод සම්බන්ධ වාර්තාව නැවතිරික්ෂණය කරනවා දැනගන්න පුළුවන් Vključevanje znanja o preurejanju besed v pozornosti temelječe nevronski strojni prevod Tilmaamaha macluumaadka Neural ee ku saleysan Duke përfshirë fjalët që rregullojnë njohuritë në përkthimin e makinës nervore me bazë në vëmendje Ukljuèujuæi reè Rezerviranje znanja na osnovu pažnje neurološkog prevoda mašine Att införliva Word Omordering Kunskap i uppmärksamhetsbaserad Neural Machine Translation Kuongeza Neno Reorder Knowledge katika Tafsiri ya Mashine ya Kiasili yenye msimamo mkali கவனிப்பு அடிப்படையில் உள்ள புதிய இயந்திரம் மொழிபெயர்ப்புக்கு வார்த்தை மறுவரிசைப்படுத்தும் அறிவினை ச Bilgi nähili maslahat edip biljek maşynyň terjimesine ýene-täzeden girdirilýär توجه کے ذریعے علم کو دوبارہ ترجمہ کرنے والی کلمات Name Cấu hình từ ngữ phục hồi tri thức thành Dịch Máy Thần kinh Chú ý 将单词重序整合至于注意之神经机器翻译
Abstract
This paper proposes three distortion models to explicitly incorporate the word reordering knowledge into attention-based Neural Machine Translation (NMT) for further improving translation performance. Our proposed models enable attention mechanism to attend to source words regarding both the semantic requirement and the word reordering penalty. Experiments on Chinese-English translation show that the approaches can improve word alignment quality and achieve significant translation improvements over a basic attention-based NMT by large margins. Compared with previous works on identical corpora, our system achieves the state-of-the-art performance on translation quality.Abstract
Hierdie papier voorstel drie verstrekkingsmodele om die woord herordening van kennis in aandag gebaseerde neurale masjien vertaling (NMT) te inkluit vir verdere verbetering van vertaling. Ons voorgestelde modele aktiveer aandag mekanisme om aan bronkode woorde te bied aangaande beide die semantiese verwagting en die woord herordening van straf. Eksperimente op Sjinese-Engelse vertaling vertoon dat die toegange van woord-belyning kwaliteit kan verbeter en betekende vertaling verbeteringe kan bereik oor 'n basiese aandag-gebaseerde NMT deur groot marge. Vergelyk met vorige werke op identiese korpora, ons stelsel bereik die state-of-the-art prestasie op vertalingskwaliteit.Abstract
ይህ ገጽ ሦስት የጥላቻ ዓይነቶች ለትርጉም ትርጓሜዎችን ለማሻሻል ቃላትን በማስታወቂያ የኔural machine ትርጉም (NMT) በማስተካከል ግልጽን ለመግለጥ ያሳያል፡፡ የተዘጋጀው ሞዴላዎቻችን የዓይነት አካባቢ ቃሎችን የsemantic ፈቃድ እና የቃሎችን መሥዋዕት ማቅረብ ማቅረብ እንዲችሉ ያስችላል፡፡ በቻይና-እንግሊዘኛ ትርጉም ላይ የተፈተና ፈተናዎች የቃላትን ማቀናቀል እና በመጠቀም ትርጓሜ በመጠቀም የNMT በመጠቀም በኩል ትርጉም ማድረግ እንዲችል ያሳያል፡፡ ከቀድሞው ስራ በተደረገ፣ ስርዓታችን በተርጓሚው ጥሩ ላይ የ-የ-የ-art ድጋፍ እንዲያገኝ ነው፡፡Abstract
تقترح هذه الورقة ثلاثة نماذج تشويه لدمج كلمة إعادة ترتيب المعرفة بشكل صريح في الترجمة الآلية العصبية القائمة على الانتباه (NMT) لزيادة تحسين أداء الترجمة. تتيح نماذجنا المقترحة آلية الانتباه لحضور كلمات المصدر فيما يتعلق بكل من المتطلبات الدلالية وكلمة إعادة ترتيب العقوبة. تظهر التجارب على الترجمة الصينية-الإنجليزية أن الأساليب يمكن أن تحسن جودة محاذاة الكلمات وتحقق تحسينات كبيرة في الترجمة على NMT الأساسي القائم على الاهتمام بهوامش كبيرة. مقارنة بالأعمال السابقة في مجموعات متطابقة ، يحقق نظامنا أداءً متطورًا في جودة الترجمة.Abstract
Bu kağıt üç fərqli modeli təklif edir ki, bilgi yenidən dəyişdirmək üçün nöral maşın çevirimi (NMT) ilə daha yaxşılaşdırmaq üçün nöral maşını təhrif etmək üçün sözü açıq-aydın bir yerə daxil etmək üçün. Bizim təbliğ etdiyimiz modellərimiz semantik şartları və sözlərimizi yenidən cəzalandırmaq haqqında mənbə sözlərinə istifadə etmək üçün gözləmə mehanizmisini fəallaşdırır. Çin-İngilizə çevirilməsi barəsindəki təcrübələr sözlərin düzəltməsi kalitetini daha yaxşılaşdıra bilər və böyük qədərlərlə, temel ünvanlı NMT üstündə möhkəm çevirim düzəltmələrini başa çatdıra bilər. Əvvəlki işlərlə eyni korpora ilə qarşılaşdığımız, sistemimiz tərcüm keyfiyyəti haqqında tərcüm göstərilməsi mümkündür.Abstract
Тази статия предлага три модела на изкривяване, които изрично включват знанията за пренареждане на думата в базирания на вниманието неврален машинен превод (НМТ) за по-нататъшно подобряване на ефективността на превода. Нашите предложения модели позволяват механизъм на внимание да се обърне внимание на изходните думи както по отношение на семантичното изискване, така и на думата наказание за пренареждане. Експериментите с китайско-английски превод показват, че подходите могат да подобрят качеството на подравняване на думите и да постигнат значителни подобрения в превода в сравнение с основно внимание базирана НМТ с големи граници. В сравнение с предишни работи върху идентични корпуси, нашата система постига най-съвременните резултати в качеството на превода.Abstract
এই পত্রিকাটি তিনটি বিভ্রান্ত মডেল প্রস্তাব করেছে যাতে স্পষ্ট ভাবে বিভিন্ন ভিত্তিক নিউরাল মেশিন অনুবাদের অনুবাদের উন্নতি করার জন্য জ্ঞা আমাদের প্রস্তাবিত মডেল মনোযোগ প্রদান করতে পারে সোর্সের শব্দগুলোর সাথে যোগাযোগ করতে এবং পুনরায় নির্দেশ দেয়া শব্দে চীনা-ইংরেজি অনুবাদের পরীক্ষা দেখা যাচ্ছে যে এই প্রযুক্তিগুলো শব্দের মান উন্নতি করতে পারে এবং বিশাল মার্গিন দ্বারা মৌলিক মনোযোগের Compared with previous works on identical corpora, our system achieves the state-of-the-art performance on translation quality.Abstract
ཤོག ང་ཚོའི་མིག རྒྱ་ནག་དང་ཨིན་ཇིའི་སྐད་ཡིག་གི་བརྗོད་སྐོར་གྱི་Experience་དུ་བཀྲམ་སྟོན་ན་དང་། approaches་ཚིག་གི་གྲངས་སྒྲིག་ཀྱང་མཐོ་རིམ དེ་ནི་ང་ཚོའི་ལས་ཀ་གཅིག་པ་དང་མཉམ་དུ་མཉམ་དུ་མཉམ་ལས་འགྲེལ་གྱི་གནས་སྟངས་དང་མཐུན་སྒྲིག་ཡོད་པAbstract
Ovaj papir predlaže tri modela iskrivljenja da se pojasno uključuje riječ o reorderiranju znanja u prijevoz neuroloških strojeva (NMT) na pažnju za daljnje poboljšanje učinka prevođenja. Naši predloženi modeli omogućavaju mehanizam pažnje da prisustvuju izvornim riječima u vezi semantičkog zahtjeva i riječi o reordinaciji kazne. Eksperimenti o prevodu kineskog i engleskog jezika pokazuju da pristupi mogu poboljšati kvalitet usklađenja riječi i ostvariti značajne poboljšanje prevoda na osnovnoj pažnji baziranoj na NMT-u na velikim maržama. U usporedbi sa prethodnim radovima o identičnom korporaciji, naš sistem postiže državni izvod umjetnosti na kvaliteti prevođenja.Abstract
Aquest paper propon tres models de distorsió per incorporar explícitament la paraula reorganitzant el coneixement en la traducció neuronal de màquines basada en l'atenció (NMT) per millorar més el rendiment de la traducció. Els nostres models proposats permeten al mecanisme d'atenció atendre a les paraules d'origen en relació tant al requisit semàntic com a la paraula de reordenar la pena. Els experiments de traducció xinesa-anglesa mostran que els enfocaments poden millorar la qualitat de l'alliniament de paraules i aconseguir millores significatives de traducció sobre un NMT basat en atenció bàsica en grans marges. Comparat amb treballs anteriors sobre corpores idèntics, el nostre sistema aconsegueix la qualitat de traducció més avançada.Abstract
Tento článek navrhuje tři modely zkreslení, které explicitně začlení znalostí slova reorganizace do pozornosti založeného na neuronovém strojovém překladu (NMT) pro další zlepšení výkonu překladu. Naše navržené modely umožňují mechanismus pozornosti věnovat se zdrojovým slovům jak sémantickému požadavku, tak slovnímu reřazení penalty. Experimenty s čínsko-anglickým překladem ukazují, že tyto přístupy mohou zlepšit kvalitu zarovnání slov a dosáhnout významných zlepšení překladu oproti základnímu NMT založenému na pozornosti s velkými okraji. Ve srovnání s předchozími pracemi na identických korpusech dosahuje náš systém nejmodernějšího výkonu v oblasti kvality překladu.Abstract
Denne artikel foreslår tre forvrængningsmodeller for eksplicit at indarbejde ordet omorrangering viden i opmærksomhedsbaseret Neural Machine Translation (NMT) for yderligere at forbedre oversættelsesevnen. Vores foreslåede modeller gør det muligt for opmærksomhedsmekanisme at tage sig af kildeord vedrørende både det semantiske krav og ordet omorrangering straf. Eksperimenter med kinesisk-engelsk oversættelse viser, at tilgangene kan forbedre ordjusteringskvaliteten og opnå betydelige oversættelsesforbedringer i forhold til en grundlæggende opmærksomhedsbaseret NMT med store marginer. Sammenlignet med tidligere værker på identiske corpora opnår vores system den nyeste ydeevne på oversættelseskvalitet.Abstract
In diesem Beitrag werden drei Verzerrungsmodelle vorgeschlagen, um das Wort Reordering Knowledge explizit in die aufmerksamkeitsbasierte Neural Machine Translation (NMT) zu integrieren, um die Übersetzungsleistung weiter zu verbessern. Unsere vorgeschlagenen Modelle ermöglichen Aufmerksamkeitsmechanismen, Quellwörter sowohl hinsichtlich der semantischen Anforderung als auch des Wortes Reordering Penalty zu berücksichtigen. Experimente zur Chinesisch-Englischen Übersetzung zeigen, dass die Ansätze die Qualität der Wortausrichtung verbessern und signifikante Übersetzungsverbesserungen gegenüber einer grundlegenden aufmerksamkeitsbasierten NMT mit großen Margen erzielen können. Im Vergleich zu früheren Arbeiten auf identischen Korpora erreicht unser System die State-of-the-Art-Performance bei der Übersetzungsqualität.Abstract
Η παρούσα εργασία προτείνει τρία μοντέλα παραμόρφωσης για να ενσωματώσει ρητά τη γνώση αναδιατάστασης λέξεων στη βασισμένη στην προσοχή Νευρική Μηχανική Μετάφραση (NMT) για περαιτέρω βελτίωση της μεταφραστικής απόδοσης. Τα προτεινόμενα μοντέλα μας επιτρέπουν στον μηχανισμό προσοχής να προσέχει τις λέξεις προέλευσης τόσο όσον αφορά τη σημασιολογική απαίτηση όσο και τη λέξη ποινή αναδιάταξης. Τα πειράματα σχετικά με την κινεζική-αγγλική μετάφραση δείχνουν ότι οι προσεγγίσεις μπορούν να βελτιώσουν την ποιότητα ευθυγράμμισης λέξεων και να επιτύχουν σημαντικές βελτιώσεις μετάφρασης σε σχέση με μια βασική βασισμένη στην προσοχή NMT με μεγάλα περιθώρια. Σε σύγκριση με προηγούμενα έργα σε πανομοιότυπα σώματα, το σύστημά μας επιτυγχάνει την υπερσύγχρονη απόδοση στην ποιότητα της μετάφρασης.Abstract
Este artículo propone tres modelos de distorsión para incorporar explícitamente el conocimiento del reordenamiento de palabras en la traducción automática neuronal (NMT) basada en la atención para mejorar aún más el rendimiento de la traducción. Nuestros modelos propuestos permiten que el mecanismo de atención atienda las palabras fuente tanto con respecto al requisito semántico como a la penalización por reordenación de palabras. Los experimentos sobre la traducción chino-inglés muestran que los enfoques pueden mejorar la calidad de la alineación de palabras y lograr mejoras significativas en la traducción en comparación con un NMT básico basado en la atención por grandes márgenes. En comparación con trabajos anteriores en cuerpos idénticos, nuestro sistema logra un rendimiento de vanguardia en la calidad de la traducción.Abstract
Käesolevas dokumendis pakutakse välja kolm moonutusmudelit, et sõna ümberkorraldamise teadmisi sõnaselgelt lisada tähelepanupõhisesse neuromasintõlkesse (NMT), et tõlketõhusust veelgi parandada. Meie väljapakutud mudelid võimaldavad tähelepanumehhanismil pöörata tähelepanu lähtesõnadele nii semantilise nõude kui ka sõna ümberkorraldamise karistuse osas. Hiina-inglise keele tõlke eksperimendid näitavad, et lähenemisviisid võivad parandada sõnade joondamise kvaliteeti ja saavutada olulisi tõlkepõhiseid parandusi põhilise tähelepanu alusel põhineva NMT-ga. Võrreldes varasemate töödega identsete korpustega saavutab meie süsteem tõlkekvaliteedi osas tipptasemel jõudluse.Abstract
این کاغذ سه مدل تغییرات را پیشنهاد میکند تا کلمه تغییراندازی علم را به ترجمه ماشینهای عصبی (NMT) بر روی توجه بیشتری بهتر ترجمه کند. مدلهای پیشنهاد ما مکانیسم توجه را برای رسیدن به کلمات منبع در مورد نیازهای semantic و کلمات تغییر مجازات توان می دهد. تجربههای ترجمههای چینی و انگلیسی نشان میدهند که دسترسیها میتوانند کیفیت ترجمهی کلمات را بهتر کنند و بهترین ترجمههای مهم بر روی یک NMT بنیادی توجه با مرزهای بزرگ به دست آورد. در مقایسه با کارهای قبلی در شرکت یکسان، سیستم ما به انجام وضعیت هنری در کیفیت ترجمه رسیده است.Abstract
Tässä artikkelissa ehdotetaan kolmea vääristymämallia, joiden avulla sana uudelleenjärjestely voidaan nimenomaisesti sisällyttää huomiopohjaiseen neurokonekäännökseen (NMT) käännöksen suorituskyvyn parantamiseksi. Ehdotetut mallit mahdollistavat huomiomekanismin lähtösanojen huomioimiseksi sekä semanttisen vaatimuksen että sanasanktion uudelleenjärjestelyn osalta. Kiinan ja englannin käännöskokeissa tehdyt kokeet osoittavat, että lähestymistavat voivat parantaa sanalinjauksen laatua ja saavuttaa merkittäviä käännöksiä perusasiaan perustuvassa NMT:ssä suurilla marginaaleilla. Verrattuna aikaisempiin identtisten korpusten teoksiin järjestelmämme saavuttaa huipputason käännöslaadun suhteen.Abstract
Cet article propose trois modèles de distorsion pour intégrer explicitement la connaissance de la réorganisation des mots dans la traduction automatique neuronale (NMT) basée sur l'attention afin d'améliorer encore les performances de traduction. Nos modèles proposés permettent au mécanisme d'attention de s'occuper des mots sources concernant à la fois l'exigence sémantique et la pénalité de réorganisation des mots. Les expériences de traduction chinois-anglais montrent que les approches peuvent améliorer la qualité de l'alignement des mots et obtenir des améliorations significatives de la traduction par rapport à un NMT de base basé sur l'attention avec de grandes marges. Par rapport aux travaux précédents sur des corpus identiques, notre système atteint des performances de pointe en matière de qualité de traduction.Abstract
Molann an páipéar seo trí mhúnla saobhadh chun an t-eolas athordaithe focal a ionchorprú go sainráite in Aistriúchán Meaisín Néar-bhunaithe (NMT) chun feidhmíocht aistriúcháin a fheabhsú tuilleadh. Cumasaíonn ár múnlaí molta meicníocht aird chun freastal ar na focail fhoinse maidir leis an riachtanas shéimeantach agus an pionós athordú focal. Léiríonn turgnaimh ar aistriúchán Sínis-Béarla gur féidir leis na cineálacha cur chuige feabhas a chur ar cháilíocht ailíniú focal agus feabhsuithe suntasacha san aistriúchán a bhaint amach thar NMT bunúsach atá bunaithe ar aird le corrlaigh mhóra. I gcomparáid le saothair roimhe seo ar chorpora comhionann, baineann ár gcóras an fheidhmíocht úrscothach amach maidir le cáilíocht aistriúcháin.Abstract
This paper proposes three distortion models to explicitly incorporate the word reordering knowledge into attention-based Neural Machine Translation (NMT) for further improving translation performance. TayiyinMu da aka buƙata, za'a iya amfani da alama masu bincike zuwa ga maganar ƙarami masu hususann da buƙata na semanti da cire re-ordana. Tajararin a kan fassarar-Kiyãki-Ingiriya na nuna cewa hanyarsu kan improve tsarin faɗa da kuma su sami masu muhimmi wa fassarar fassarar da aka bincike na NMT da duk margin babba. @ info: statusAbstract
העבודה הזו מציעה שלושה דוגמנים של עיווי כדי להכניס באופן ברור את המילה שיפוך ידע לתרגום מכונות נוירואליות (NMT) מבוסס על תשומת לב כדי לשפר את ההפעלה של התרגום. הדוגמנים המוצעים שלנו מאפשרים מנגנון תשומת לב להשתתף במילים המקוריות בנוגע גם לדרישות הסמנטיות והמילה לארגן מחדש עונש. ניסויים על התרגום סיני-אנגלי מראים שהגישות יכולות לשפר את איכות התאמת מילים ולהשיג שיפורים משמעותיים בתרגום על NMT בסיסי על ידי שווים גדולים. בהשוואה לעבודות קודמות על גופה זהה, המערכת שלנו משיגה את ההופעה המאודמת באיכות התרגום.Abstract
यह पेपर तीन विरूपण मॉडल का प्रस्ताव करता है ताकि अनुवाद प्रदर्शन में और सुधार के लिए ध्यान-आधारित न्यूरल मशीन ट्रांसलेशन (एनएमटी) में ज्ञान को फिर से व्यवस्थित करने वाले शब्द को स्पष्ट रूप से शामिल किया जा सके। हमारे प्रस्तावित मॉडल ध्यान तंत्र को शब्दार्थ आवश्यकता और शब्द पुनर्क्रमण दंड दोनों के बारे में स्रोत शब्दों में भाग लेने में सक्षम बनाते हैं। चीनी-अंग्रेजी अनुवाद पर प्रयोगों से पता चलता है कि दृष्टिकोण शब्द संरेखण गुणवत्ता में सुधार कर सकते हैं और बड़े मार्जिन से बुनियादी ध्यान-आधारित एनएमटी पर महत्वपूर्ण अनुवाद सुधार प्राप्त कर सकते हैं। समान कॉर्पोरेट पर पिछले कार्यों की तुलना में, हमारी प्रणाली अनुवाद की गुणवत्ता पर अत्याधुनिक प्रदर्शन प्राप्त करती है।Abstract
Ovaj papir predlaže tri modela iskrivljenja da se pojasno uključuje riječ o reorderiranju znanja u prijevoz neuroloških strojeva (NMT) na pažnju za daljnje poboljšanje učinka prevođenja. Naši predloženi modeli omogućavaju mehanizam pažnje da prisustvuju izvornim riječima u vezi semantičkog zahtjeva i riječi o reorderingu kazne. Eksperimenti o prevodu kineskog i engleskog jezika pokazuju da pristupi mogu poboljšati kvalitet poravnanja riječi i ostvariti značajne poboljšanje prevoda na osnovnoj pažnji baziranoj na NMT-u na velikim marginama. U usporedbi s prethodnim radovima o identičnoj korpori, naš sustav postiže državno-umjetnički učinkoviti o kvaliteti prevoda.Abstract
A tanulmány három torzítási modellt javasol, amelyek kifejezetten beépítik a tudás átrendezése szót a figyelem-alapú Neural Machine Translation (NMT) számára a fordítási teljesítmény további javítása érdekében. Javasolt modelleink lehetővé teszik a figyelem mechanizmusát a forrásszavak figyelembevételére mind a szemantikai követelmény, mind a szó átrendezési büntetése tekintetében. A kínai-angol fordítással kapcsolatos kísérletek azt mutatják, hogy a megközelítések nagy margókkal javíthatják a szóigazítás minőségét és jelentős fordítási javulást érhetnek el egy alapvető figyelem-alapú NMT-vel szemben. Az azonos kormányokon végzett korábbi munkákkal összehasonlítva rendszerünk a fordítási minőség legkorszerűbb teljesítményét éri el.Abstract
Այս թղթին առաջարկում է երեք շեղումների մոդել, որպեսզի բառը, որը վերադասավորում է գիտելիքը ուշադրության վրա հիմնված նյարդային մեքենայի թարգմանման (NMT) բառը, առավել բարելավելու համար: Մեր առաջարկված մոդելները հնարավորություն են տալիս ուշադրության մեխանիզմի օգնությամբ զբաղվել սեմանտիկ պահանջների և պատիժի վերադասավորման մասին: Չինաստանի-անգլերենի թարգմանման փորձարկումները ցույց են տալիս, որ մոտեցումները կարող են բարելավել բառերի համապատասխանման որակը և հասնել նշանակալի բարելավումներին թարգմանման հիմնական ուշադրության հիմնական NMT-ի միջոցով մե Համեմատելով նախորդ աշխատանքների հետ, մեր համակարգը հասնում է թարգմանության որակի ամենաբարձր ներկայացումներին:Abstract
Kertas ini mengusulkan tiga model distorsi untuk secara eksplicit memasukkan kata reorganisasi pengetahuan ke dalam perhatian-berdasarkan Translation Neural Machine (NMT) untuk meningkatkan prestasi terjemahan lebih lanjut. Model kami yang diusulkan memungkinkan mekanisme perhatian untuk menghadiri kata-kata sumber mengenai both semantic requirement and the word reordering penalty. Eksperimen pada terjemahan bahasa Cina-Inggris menunjukkan bahwa pendekatan dapat meningkatkan kualitas penyesuaian kata dan mencapai peningkatan terjemahan yang signifikan melalui NMT berdasarkan perhatian dasar dengan margin besar. dibandingkan dengan pekerjaan sebelumnya pada korpra yang sama, sistem kita mencapai prestasi terbaik pada kualitas terjemahan.Abstract
Questo articolo propone tre modelli di distorsione per incorporare esplicitamente la parola reorder knowledge nella Neural Machine Translation (NMT) basata sull'attenzione per migliorare ulteriormente le prestazioni di traduzione. I nostri modelli proposti consentono un meccanismo di attenzione per prestare attenzione alle parole di origine riguardanti sia il requisito semantico che la sanzione di riordino della parola. Esperimenti sulla traduzione cinese-inglese mostrano che gli approcci possono migliorare la qualità dell'allineamento delle parole e ottenere significativi miglioramenti della traduzione rispetto a un NMT basato sull'attenzione di base con ampi margini. Rispetto ai lavori precedenti su corpi identici, il nostro sistema raggiunge le prestazioni all'avanguardia in termini di qualità della traduzione.Abstract
本論文では、翻訳パフォーマンスをさらに向上させるために、注意に基づくニューラル・マシン・トランスレーション( NMT )に単語の並べ替え知識を明示的に組み込むための3つの歪みモデルを提案した。私たちの提案されたモデルは、セマンティック要件と単語の並べ替えペナルティの両方に関して、ソースワードに注意を払うメカニズムを可能にします。中国語と英語の翻訳に関する実験では、これらのアプローチがワードアライメントの品質を向上させ、基本的な注意に基づくNMTよりも大きなマージンで大幅な翻訳改善を達成できることが示されています。当社のシステムは、同一コーポラに関する以前の作業と比較して、翻訳品質の最先端のパフォーマンスを実現しています。Abstract
Awak iki supoyo sistem tanggal karo model sing dibutungan kanggo ingkang ngerasai pawaran ingkang mulasai ingkang sampeyan ingkang sampeyan ingkang butek nggambar kelas telu maneh (NMT). Awak dhéwé sistem sing beraksi perbudhakan kanggo dianggap pawaran kelas kuwi tindakan semantar lan kelas kuwi wis nguasai winih. Isopo sing berarti kanggo tarjamahan Pinita-Inggris menehi wong kuwi nggawe barang nggawe barang nggawe barang nggawe gerapakan kuwi nggawe geraraning bantuan kanggo nyebute nggawe barang sampek kang NMT sing sampek akeh bantuan. Sampeyan karo coro sing dumadhi nganggo coro-dumadhi, sistem kita iso nggawe barang kelas-karo perusahaan kanggo kaliwat itoleh.Abstract
ამ დოკუმენტი სამი მოდელს გახსნა, რომ სიტყვის გახსნა განსხვავება ცნობილებების განსხვავებას ახალგაზრდებული ნეიროლური მაქინის განსხვავებას (NMT) სხვადასხვა განსხვავება. ჩვენი მოდელები მოხმარებული მოდელების შესაძლებელია მოხმარების მექანიზმის შესახებ გამოყენების სიტყვების შესახებ და სიტყვების შესახებ შესახებ. ჩინეთიურ ანგლისური განსაგულისხმების გამოცდილებები აჩვენებენ, რომ მიღებები შეუძლიათ სიტყვების განსაგულისხმების კანოლიტურება და გავაკეთოთ მნიშვნელოვანი განსაგულისხმებ შემდგომარებული წინა სამუშაო იდენტიკალური კორპორაზე, ჩვენი სისტემა მიიღება სამუშაო სამუშაო სამუშაო სამუშაო სამუშაოAbstract
Бұл қағаз білімді қайта түрлендіру үшін үш бөлшектеу үлгісін таңдайды. Бұл сөзді білімді қайта түрлендіру тізіміне қайта түрлендіру тізіміне (NMT) негіздеген нейралық Біздің келтірілген үлгілеріміз семантикалық қажет пен сөздерді қайта реттеу үшін көзінің сөздеріне қатынау механизмін мүмкіндік береді. Қытай- ағылшын аудармасының тәжірибелері сөздердің түрлендіру сапасын жақсартып, негізгі назардағы NMT негізгі түрлендіру арқылы үлкен шектері арқылы үлкен аудармасын Бір-бір корпора жұмысының алдыңғы жұмысын салыстырып, жүйеміз аудармалардың сапасының күй- жайындағы жұмысын жеткізеді.Abstract
번역 성능을 한층 높이기 위해 본고는 세 가지 오류 모델을 제시하고 단어 재배열 지식을 주의를 바탕으로 하는 신경기계번역(NMT)에 명확하게 포함시켰다.우리가 제시한 모델은 주의 메커니즘으로 하여금 원어의 의미 수요와 단어의 재정렬 징벌에 주목할 수 있게 한다.한영 번역에 대한 실험은 주의를 바탕으로 하는 기본 NMT에 비해 이러한 방법은 단어의 정렬 품질을 크게 향상시키고 현저한 번역 개선을 실현할 수 있음을 나타냈다.이전에 같은 어료 라이브러리에서 일했던 것과 비교하면 우리의 시스템은 번역의 질에 있어서 가장 선진적인 수준에 이르렀다.Abstract
Šiame dokumente siūlomi trys iškraipymo modeliai, kuriais aiškiai įtraukiamas žodis žinių pertvarkymas į dėmesiu pagrįstą neurologinį mašinų vertimą (NMT), siekiant toliau gerinti vertimo rezultatus. Mūsų pasiūlyti modeliai leidžia dėmesio mechanizmui atsižvelgti į pradinius žodžius, susijusius su semantiniu reikalavimu ir žodžiu sankcijos pertvarkymu. Kinijos ir anglų vertimo eksperimentai rodo, kad metodai gali pagerinti žodžių suderinimo kokybę ir pasiekti reikšmingų vertimo patobulinimų, palyginti su pagrindiniu dėmesiu grindžiamu NMT dideliais maržais. Palyginti su ankstesniais darbais, susijusiais su identiška korpora, mūsų sistema pasiekia pažangiausius vertimo kokybės rezultatus.Abstract
Овој документ предложува три модели на distorsion за експлицитно вклучување на зборот реорганизирање на знаењето во внимание-базирана Неурална машинска транслекција (НМТ) за понатамошно подобрување на преведувањето. Нашите предложени модели овозможуваат механизам на внимание да присуствува на изворните зборови во врска со семантичните барања и зборот реорганизирање на казната. Експериментите на кинеско-англискиот превод покажуваат дека пристапите можат да го подобрат квалитетот на појачување на зборовите и да постигнат значителни подобрувања на преводот во однос на основното внимание базирано на НМТ со големи Во споредба со претходните дела за идентична корпора, нашиот систем постигнува најдобра изведба во квалитетот на превод.Abstract
ഈ പത്രത്തില് മൂന്നു ദുര്മാര്ഗങ്ങളുടെ മാതൃകങ്ങള് വ്യക്തമായി വാക്കുകളില് ഉള്പെടുത്തുന്നതിനായി ശ്രദ്ധിക്കുന്ന നെയുറല് മെഷീന് പരി നമ്മുടെ പ്രൊദ്ദേശിക്കപ്പെട്ട മോഡലുകള് ശ്രദ്ധിക്കുന്നത് സെമാന്റിക് ആവശ്യത്തെക്കുറിച്ചും വാക്ക് വീണ്ടും ശ ചൈനീസ്- ഇംഗ്ലീഷ് പരിശോധന പരീക്ഷണങ്ങള് കാണിക്കുന്നുണ്ടെങ്കില് വാക്കുകള് മാന്യമാക്കുന്നതിനുള്ള പരീക്ഷണങ്ങള് വലിയ മാര്ഗിനുകള മുമ്പുള്ള പ്രവര്ത്തനങ്ങളോടൊപ്പം ഒരേപോലെ കോര്പ്പോരയില് നിന്നും തുല്യമായിട്ടുണ്ട്, ഞങ്ങളുടെ സിസ്റ്റത്തില്Abstract
Энэ цаас нь анхаарлын төвөгтэй мэдлэгийг дахин сайжруулахын тулд дахин сайжруулахын тулд 3 давхар загварын загварыг санал болгож байна. Бидний санал өгсөн загварууд нь анхаарал төвлөрүүлэх механизм нь семантийн шаардлага болон шаардлагатай үг хоёулаа эх үүсвэртэй үг рүү орох боломжтой. Хятад-Англи хэлний орчуулалтын туршилтын туршилт нь хэлний хэмжээсүүдийг сайжруулж, үндсэн анхаарлын төвөгтэй NMT дээр их хэмжээсүүдийг ашиглаж чадна. Өмнөх үйл ажиллагаатай адилхан корпора дээр харьцуулахад бидний систем орчуулах чадварын тухай урлагийн үйл ажиллагааг гаргадаг.Abstract
This paper proposes three distortion models to explicitly incorporate the word reordering knowledge into attention-based Neural Machine Translation (NMT) for further improving translation performance. Model kami yang diusulkan memungkinkan mekanisme perhatian untuk menghadiri perkataan sumber mengenai keperluan semantik dan perkataan mengulangi hukuman. Eksperimen pada terjemahan Bahasa Cina-Inggeris menunjukkan bahawa pendekatan boleh meningkatkan kualiti penyesuaian perkataan dan mencapai peningkatan terjemahan yang signifikan melalui NMT berdasarkan perhatian asas dengan margin besar. Berbanding dengan kerja sebelumnya pada korpra yang sama, sistem kita mencapai prestasi terbaik pada kualiti terjemahan.Abstract
Dan id-dokument jipproponi tliet mudelli ta’ distorsjoni biex jinkorporaw b’mod espliċitu l-kelma li torganizza mill-ġdid l-għarfien fit-Traduzzjoni tal-Magni Newrali (NMT) ibbażata fuq l-attenzjoni biex titjieb aktar il-prestazzjoni tat-traduzzjoni. Il-mudelli proposti tagħna jippermettu li l-mekkaniżmu ta’ attenzjoni jattendi l-kliem oriġinali kemm fir-rigward tar-rekwiżit semantiku kif ukoll fil-każ tar-riorganizzazzjoni tal-penali. L-esperimenti dwar it-traduzzjoni Ċiniż-Ingliż juru li l-approċċi jistgħu jtejbu l-kwalità tal-allinjament tal-kliem u jiksbu titjib sinifikanti fit-traduzzjoni fuq NMT bażiku bbażat fuq l-attenzjoni b’marġini kbar. Meta mqabbel max-xogħlijiet preċedenti dwar korpura identika, is-sistema tagħna tikseb l-aqwa prestazzjoni dwar il-kwalità tat-traduzzjoni.Abstract
Deze paper stelt drie vervormingsmodellen voor om het woord reordening kennis expliciet op te nemen in aandachtsgebonden Neural Machine Translation (NMT) om de vertaalprestaties verder te verbeteren. Onze voorgestelde modellen maken het mogelijk om aandacht te besteden aan bronwoorden met betrekking tot zowel de semantische eis als het woord reordering penalty. Experimenten met Chinees-Engels vertaling tonen aan dat de benaderingen de kwaliteit van woorduitlijning kunnen verbeteren en significante vertaalverbeteringen ten opzichte van een basisaandachtsgebonden NMT met grote marges kunnen bereiken. Vergeleken met eerdere werken op identieke corpora, bereikt ons systeem de state-of-the-art prestaties op het gebied van vertaalkwaliteit.Abstract
Denne papiret foreslår tre forstørringsmodular for å eksplisisk inkludere ordet som rekorderer kunnskapen til merksomsetjing basert på nøyralmaskina- omsetjing (NMT) for å forbetra utviklinga av omsetjing. Våre foreslåde modeller kan aktivere oppmerksmekanismen for å delta på kjeldeord med både semantiske krev og ordet som rekorderer straff. Eksperimentane på kinesisk-engelsk omsetjingar viser at tilnærmingane kan forbetra kvalitet for ordjustering og nå signifikante forbedringar av omsetjingar over ein grunnleggjande oppmerksomsetjingsbasert NMT med store marginar. Sammenlignet med førre arbeid på identiske korpora, oppnår systemet vårt tilstand til kunsten på omsetjingskvalitet.Abstract
W artykule zaproponowano trzy modele zniekształceń, aby wyraźnie włączyć wiedzę o zmianie porządku słowa do tłumaczenia maszynowego opartego na uwadze (NMT) w celu dalszej poprawy wydajności tłumaczenia. Proponowane przez nas modele umożliwiają mechanizmowi uwagi uwzględnienie słów źródłowych dotyczących zarówno wymogu semantycznego, jak i słowa sankcji reorganizacyjnej. Eksperymenty z tłumaczeniem chińsko-angielskim pokazują, że podejścia te mogą poprawić jakość wyrównywania słów i osiągnąć znaczną poprawę tłumaczenia w stosunku do podstawowego NMT opartego na uwadze o duże marginesy. W porównaniu z poprzednimi pracami na identycznych korporach nasz system osiąga najnowocześniejszą wydajność w zakresie jakości tłumaczeń.Abstract
Este artigo propõe três modelos de distorção para incorporar explicitamente o conhecimento de reordenação de palavras na tradução automática neural baseada em atenção (NMT) para melhorar ainda mais o desempenho da tradução. Nossos modelos propostos permitem que o mecanismo de atenção atenda às palavras-fonte tanto no que diz respeito ao requisito semântico quanto à penalidade de reordenação de palavras. Experimentos em tradução chinês-inglês mostram que as abordagens podem melhorar a qualidade do alinhamento de palavras e alcançar melhorias significativas de tradução em relação a um NMT básico baseado em atenção por grandes margens. Comparado com trabalhos anteriores em corpora idênticos, nosso sistema alcança o desempenho de última geração em qualidade de tradução.Abstract
Această lucrare propune trei modele de distorsiune pentru a încorpora explicit cuvântul reordonarea cunoștințelor în traducerea automată neurală bazată pe atenție (NMT) pentru a îmbunătăți în continuare performanța traducerii. Modelele noastre propuse permit mecanismului de atenție pentru a participa la cuvintele sursă atât în ceea ce privește cerința semantică, cât și pedeapsa de reordonare a cuvântului. Experimentele privind traducerea chineză-engleză arată că abordările pot îmbunătăți calitatea alinierii cuvintelor și pot obține îmbunătățiri semnificative de traducere față de un NMT bazat pe atenție, cu margini mari. În comparație cu lucrările anterioare pe corpore identice, sistemul nostru atinge performanțele de ultimă generație în ceea ce privește calitatea traducerii.Abstract
В этой статье предлагаются три модели искажений для явного включения знания о переупорядочении слов в основанный на внимании нейронный машинный перевод (НМП) для дальнейшего улучшения производительности перевода. Наши предлагаемые модели позволяют механизму внимания обращать внимание на исходные слова, касающиеся как семантического требования, так и штрафа за изменение порядка слов. Эксперименты по китайско-английскому переводу показывают, что эти подходы могут улучшить качество выравнивания слов и достичь значительных улучшений перевода по сравнению с базовой НМТ, основанной на внимании, с большими полями. По сравнению с предыдущими работами над идентичными корпусами, наша система достигает самых современных показателей качества перевода.Abstract
මේ පැත්ත තුනක් ප්රශ්නයක් තියෙනවා විශේෂයෙන් වාර්තාව සම්බන්ධ වෙන්න විදිහට පරීක්ෂණය සම්බන්ධ වෙන්න පුළුවන් විදිහ අපේ ප්රශ්නය කරපු මොඩල් අවධානය සක්රිය කරන්න ප්රශ්නය වචන වචන වලට සම්බන්ධ වෙන්න පුළුවන් විදිහට සමහර විද චීනි-ඉංග්රීසි පරීක්ෂණයේ පරීක්ෂණය පෙන්වන්න පුළුවන් විදිහට වචන සම්බන්ධ විශේෂතාවක් වැඩ කරන්න සහ විශේෂ අ අපේ පද්ධතිය අනුවෙන් කොර්පෝරා ගැන පිරිමි වැඩ සමඟ, අපේ පද්ධතිය අවාර්ථ ක්රියාත්මක විශේෂතාවට අවසAbstract
V prispevku so predlagani trije modeli popačenja, ki izrecno vključujejo znanje o preurejanju besed v pozornosti temelječe nevronsko strojno prevajanje (NMT) za nadaljnje izboljšanje učinkovitosti prevajanja. Naši predlagani modeli omogočajo mehanizem pozornosti, da se upošteva izvorne besede tako glede semantične zahteve kot kazni za preurejanje besed. Eksperimenti s kitajsko-angleškim prevajanjem kažejo, da lahko pristopi izboljšajo kakovost usklajevanja besed in dosežejo znatne izboljšave prevajanja v okviru osnovne pozornosti temelječe NMT z velikimi robovi. V primerjavi s prejšnjimi deli na enakih korpusih naš sistem dosega najsodobnejše delovanje na področju kakovosti prevajanja.Abstract
Warqaddaas wuxuu soo jeedaa saddex model oo qalloocan si bayaan ah ugu qora hadalka oo lagu soo dirayo aqoonta oo lagu soo wareejiyo tarjumidda maskinenka neural (NMT) si uu u sii kordhiyo fasaxa turjumaadda. Tusaalooyinkayada la soo jeeday waxay awoodaan in uu soo jeedo meymisyo ku saabsan hadalka asalka ah ee ku saabsan baahida semantiga iyo erayga ciqaabta dib u soo celinta. Experiments on Chinese-English translation show that the approaches can improve word alignment quality and achieve significant translation improvements over a basic attention-based NMT by large margins. Isbarbardhigtii shaqada hore oo ku saabsan shirkadda isku mid ah, nidaamkayagu wuxuu gaadhaa bandhigyada farshaxanka oo ku saabsan takhasuska turjumista.Abstract
Ky dokument propozon tre modele shtrembërimi për të përfshirë shprehësisht fjalën e riorganizimit të njohurive në përkthimin e makinave neuronale të bazuar në vëmendje (NMT) për përmirësim të mëtejshëm të performancës së përkthimit. Our proposed models enable attention mechanism to attend to source words regarding both the semantic requirement and the word reordering penalty. Eksperimentet në përkthimin kinez-anglez tregojnë se qasjet mund të përmirësojnë cilësinë e përshtatjes së fjalëve dhe të arrijnë përmirësime të rëndësishme të përkthimit lidhur me një NMT bazuar në vëmendje me margine të mëdha. Në krahasim me punët e mëparshme mbi korprën identike, sistemi ynë arrin shfaqjen më të lartë në cilësinë e përkthimit.Abstract
Ovaj papir predlaže tri modela iskrivljenja da se pojasno uključuje reč reorderiranja znanja u neurološki prevod (NMT) na pažnju za daljnje poboljšanje provedbe prevoda. Naši predloženi modeli omogućavaju mehanizam pažnje da prisustvuju izvornim rečima u vezi semantičkog zahteva i reči o reordinaciji kazne. Eksperimenti o prevodu kineskog-engleskog jezika pokazuju da pristupi mogu poboljšati kvalitet poravnanja riječi i ostvariti značajne poboljšanje prevoda na osnovnoj pažnji baziranoj na NMT na velikim maržama. U usporedbi sa prethodnim radovima o identičnoj korpori, naš sistem postiže stanje umjetnosti na kvaliteti prevođenja.Abstract
Denna uppsats föreslår tre distorsionsmodeller för att uttryckligen införliva ordet omordning kunskap i uppmärksamhetsbaserad Neural Machine Translation (NMT) för att ytterligare förbättra översättningens prestanda. Våra föreslagna modeller gör det möjligt för uppmärksamhetsmekanismen att ta hand om källord avseende både det semantiska kravet och ordet omordning straff. Experiment på kinesisk-engelsk översättning visar att tillvägagångssättet kan förbättra ordjusteringskvaliteten och uppnå betydande översättningsförbättringar jämfört med en grundläggande uppmärksamhetsbaserad NMT med stora marginaler. Jämfört med tidigare verk på identiska korpora uppnår vårt system den senaste prestandan när det gäller översättningskvalitet.Abstract
Makala hii inapendekeza mifano mitatu ya kuchochea kwa uwazi kuingiza neno linaloamrisha upya maarifa katika Tafsiri ya Mashine ya Neural (NMT) kwa ajili ya kuboresha ufanisi wa tafsiri zaidi. Miundo yetu ya pendekezo inawezesha mfumo wa kusikiliza na maneno yanayohusu mahitaji ya kimapenzi na neno la kuamuru adhabu ya upya. Majaribio kuhusu tafsiri ya Kiingereza yanaonyesha kuwa hatua hizi zinaweza kuboresha kiwango cha uangalizi wa maneno na kupata maboresho muhimu ya tafsiri juu ya NMT yenye msingi wa ufuatiliaji na viwanja vikubwa. Kulinganishwa na kazi zilizopita kwenye kampuni hiyo hiyo, mfumo wetu unafanikiwa kufanya kazi ya sanaa kwa kiwango cha tafsiri.Abstract
இந்த காகிதத்தில் மூன்று குழப்பம் மாதிரிகளை வெளிப்படையாக உள்ளிட வார்த்தையை மீண்டும் கவனத்தில் செலுத்தும் பொறியை மொழிபெயர்ப்பு ம Our proposed models enable attention mechanism to attend to source words regarding both the semantic requirement and the word reordering penalty. Name முந்தைய செயல்களை ஒப்பிட்டு ஒப்பிட்டால், எங்கள் கணினி மொழிபெயர்ப்பு தரம் மூலம் மொழிபெயர்ப்பு செயல்பாட்டின்Abstract
Bu kagyz üç sany gaýtalandyrma nusgasyny üns beren nusgasyny täze bir şekilde üýtgetmek üçin teklip edýär. Biziň teklip eden nusgalarymyz hem semantik gerekli we sözlerimizi täzeden azat etmek üçin mekanizmany etmäge mümkin edýär. Çinçe-Iňlisçe terjime edilen örän barlaglar söz gabdalyklygyny gowlaşdyryp biler we esasy terjime edilen NMT-a örän üns daşarylygyny uly gabdalyklaryň üstine ýeterleşip biler. Birnäçe korpora bilen öňki işlerimize görä, biziň sistemamyz terjime etmegiň howpsuzlygyna mümkin edip bilýär.Abstract
This paper proposes three distortion models to explicitly incorporate the word reordering knowledge into attention-based Neural Machine Translation (NMT) for further improvement of translation performance. ہمارے مقرر کردہ موڈلے موجودات کی توجه کے مکانیزم کو روشن کلمات کی حفاظت کرنے کے لئے اجازت دیتے ہیں جن کے معاملہ میں اور ان کلمات کو دوبارہ سزا دینے کے لئے۔ چینی-انگلیسی ترجمہ کے متعلق تجربے دکھائے جاتے ہیں کہ تقریباً کلمات ترجمہ کے کیفیت کو بہتر کر سکتے ہیں اور ایک بنیادی توجه کے ذریعہ NMT کے ذریعہ بڑے ترجمہ کے ذریعہ اضافہ کرسکتے ہیں. پہلے کے کاموں کے مقابلہ میں ایک ہی کورپورا ہے، ہماری سیسٹم نے ترجمہ کیفیت کے ذریعے ترجمہ کی حالت کا فعالیت پہنچایا ہے.Abstract
Ushbu qogʻoz uchta harakat modellarini yaxshi ko'proq tarjima qilish uchun so'zlarni tahrirlash mumkin. Bizning taʼminlovchi modellarimiz esa semantik talabati va qayta tartib qilish soʻzlari haqida ishlab chiqarish imkoniyatini foydalanadi. Name Oldingi vazifalar bilan birlashtirilgan birinchi vazifalar, bizning tizimmiz tarjima sifatida saqlash holatini bajaradi.Abstract
Tờ giấy này đề xuất ba mô hình sự bóp méo để hiển thị thêm sự sắp xếp kiến thức trong Dịch về máy thần kinh (NMB) để tăng hiệu suất dịch. Các mô hình đề nghị của chúng tôi cho phép cơ chế tập trung để nghe những từ ngữ về các yêu cầu ngữ pháp và từ "phạt thay đổi luật". Thí nghiệm dịch tiếng Trung-Anh cho thấy các phương pháp có thể cải thiện chất lượng sắp xếp từ và đạt tới một cải tiến đáng kể hơn một công ty NMT dựa trên tập trung căn bản với một khoảng cách lớn. So với những tác phẩm khác nhau về Hạ sĩ, hệ thống của chúng ta đạt được hiệu quả tối tân về chất lượng dịch.Abstract
本文举三失真模形,将单词重序明整合至于注意神经机器翻译(NMT)中,以进一步提高译性。 臣等规模注意机宜关语义要单词重序罚单词。 中英译实验明,比于注意之本NMT,可以崇单词齐质,成其显者也。 比之同语料库,统于译质。- Anthology ID:
- P17-1140
- Volume:
- Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)
- Month:
- July
- Year:
- 2017
- Address:
- Vancouver, Canada
- Venue:
- ACL
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 1524–1534
- Language:
- URL:
- https://aclanthology.org/P17-1140
- DOI:
- 10.18653/v1/P17-1140
- Bibkey:
- Cite (ACL):
- Jinchao Zhang, Mingxuan Wang, Qun Liu, and Jie Zhou. 2017. Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1524–1534, Vancouver, Canada. Association for Computational Linguistics.
- Cite (Informal):
- Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation (Zhang et al., ACL 2017)
- Copy Citation:
- PDF:
- https://aclanthology.org/P17-1140.pdf
- Terminologies:
Export citation
@inproceedings{zhang-etal-2017-incorporating, title = "Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation", author = "Zhang, Jinchao and Wang, Mingxuan and Liu, Qun and Zhou, Jie", booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)", month = jul, year = "2017", address = "Vancouver, Canada", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/P17-1140", doi = "10.18653/v1/P17-1140", pages = "1524--1534", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="zhang-etal-2017-incorporating"> <titleInfo> <title>Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation</title> </titleInfo> <name type="personal"> <namePart type="given">Jinchao</namePart> <namePart type="family">Zhang</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Mingxuan</namePart> <namePart type="family">Wang</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Qun</namePart> <namePart type="family">Liu</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Jie</namePart> <namePart type="family">Zhou</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2017-07</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Vancouver, Canada</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">zhang-etal-2017-incorporating</identifier> <identifier type="doi">10.18653/v1/P17-1140</identifier> <location> <url>https://aclanthology.org/P17-1140</url> </location> <part> <date>2017-07</date> <extent unit="page"> <start>1524</start> <end>1534</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation %A Zhang, Jinchao %A Wang, Mingxuan %A Liu, Qun %A Zhou, Jie %S Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) %D 2017 %8 July %I Association for Computational Linguistics %C Vancouver, Canada %F zhang-etal-2017-incorporating %R 10.18653/v1/P17-1140 %U https://aclanthology.org/P17-1140 %U https://doi.org/10.18653/v1/P17-1140 %P 1524-1534
Markdown (Informal)
[Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation](https://aclanthology.org/P17-1140) (Zhang et al., ACL 2017)
- Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation (Zhang et al., ACL 2017)
ACL
- Jinchao Zhang, Mingxuan Wang, Qun Liu, and Jie Zhou. 2017. Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1524–1534, Vancouver, Canada. Association for Computational Linguistics.