Neural Machine Translation with Phrase-Level Universal Visual Representations Name ምርጫዎች هندسة مهايئ التدفق للترجمة الآلية غير الخاضعة للإشراف Mühafizə edilməmiş Makin Çeviri üçün Flow-Adapter Arhitektura Архитектура на адаптер за поток за машинен превод без надзор অনভার্ভার করা মেশিন অনুবাদের জন্য ফুল- অ্যাডাপ্টার আর্কিটেক্টার Flow-Adapter Architecture for Unsupervised Machine Translation Arkitektura Flow-Adapter za neodređenu mašinu prevodu L'arquitectura d'adaptador de flux per traducció de màquines no supervisada Architektura Flow-Adapter pro strojový překlad bez dohledu Flow-Adapter-arkitektur til ukontrolleret maskinoversættelse Flow-Adapter Architektur für die nicht überwachte maschinelle Übersetzung Αρχιτεκτονική προσαρμογέων ροής για μη εποπτευόμενη μηχανική μετάφραση Arquitectura de adaptador de flujo para traducción automática no supervisada Vooluadapteri arhitektuur järelevalveta masintõlke jaoks ساختار آداپتر فلوName Virtaussovittimen arkkitehtuuri valvomattomalle konekäännökselle Architecture Flow-Adapter pour la traduction automatique non supervisée Ailtireacht Sreabh-Adapter d'Aistriúchán Meaisín Gan Maoirseacht KCharselect unicode block name ארכיטקטורת מתאים לזרם לתרגום מכונות ללא שליטה प्रवाह एडाप्टर आर्किटेक्चर असुरक्षित मशीन अनुवाद के लिए Arhitektura Flow-Adapter za neodržavanu prevodu stroja Flow-Adapter architektúra a felügyelet nélküli gépi fordításhoz Comment Arkitektur Flow-Adapter untuk Terjemahan Mesin Tidak Disupervisi Architettura Flow-Adapter per la traduzione automatica non controllata 監督されていない機械翻訳のためのフローアダプターアーキテクチャ Flow-Adjuster architecture kanggo Majin Terjamahan Gak Cocok Name Сақталмаған машина аудармасының жұмыс адаптер архитектурасы 무감독기계 번역의 흐름 어댑터 체계 구조 Flow adapter Architecture for Unsupervised Machine Translation Архитектура на прилагодувачи за ненадгледуван превод на машина നിരീക്ഷിക്കപ്പെടാത്ത മെഷീന് പരിഭാഷപ്പെടുത്തുവാനുള്ള ഫ്ലൂ- ആഡാപ്റ്റര് ആര്ക്ടിച്ചറ് Машины хөгжлийн хөгжлийн Flow-Adapter архитектур Arkitektur Penyesuai-Alih untuk Terjemahan Mesin Tidak Dikawal Arkitettura tal-Adattatur tal-Fluss għat-Traduzzjoni tal-Magni Mhux Sorveljata Flow-Adapter architectuur voor niet-gecontroleerde machinevertaling Name Architektura adaptera przepływu dla tłumaczeń maszynowych nienadzorowanych Arquitetura de adaptador de fluxo para tradução automática não supervisionada Arhitectura adaptorului de flux pentru traducerea automată nesupravegheată Архитектура Flow-Adapter для неконтролируемого машинного перевода Name Arhitektura pretočnih adapterjev za strojno prevajanje brez nadzora Flow-Adapter Architecture for Unsupervised Machine Translation Arkitektura e Adaptimit të Rrjedhjes për Trakthimin e Maquinës së Pambikqyrur Архитура пролетних адаптера за неподржану превод машина Flödesadapterarkitektur för oövervakad maskinöversättning Flow-Adapter Architecture for Unsupervised Machine Translation கண்காணிக்கப்படாத இயந்திரம் மொழிபெயர்ப்பு Mazmunlanmadyk Maşynyň terjimesi üçin Çaltylyk Adapter arhitektura Name Flow-Adapter Architecture for Unsupervised Machine Translation Kiến trúc Hoa/ Thích hợp Máy dịch không giám sát 以无监机器翻译之流适配器架构
Abstract
Multimodal machine translation (MMT) aims to improve neural machine translation (NMT) with additional visual information, but most existing MMT methods require paired input of source sentence and image, which makes them suffer from shortage of sentence-image pairs. In this paper, we propose a phrase-level retrieval-based method for MMT to get visual information for the source input from existing sentence-image data sets so that MMT can break the limitation of paired sentence-image input. Our method performs retrieval at the phrase level and hence learns visual information from pairs of source phrase and grounded region, which can mitigate data sparsity. Furthermore, our method employs the conditional variational auto-encoder to learn visual representations which can filter redundant visual information and only retain visual information related to the phrase. Experiments show that the proposed method significantly outperforms strong baselines on multiple MMT datasets, especially when the textual context is limited.Abstract
In hierdie werk voorstel ons 'n vloei-adapter-arkitektuur vir ononderwerp NMT. Dit verwyder die normalisering van vloede na uitduidelik model van die verspreidings van sentence-level latent verspreidings, wat volgens die aandag mekanisme vir die vertaling taak gebruik word in saam met die aandag mekanisme. Die primêre romanies van ons model is: (a) om taal-spesifieke setnings te vang skeidig vir elke taal met normalisering van vloei en (b) te gebruik 'n eenvoudige transformasie van hierdie latente voorstellings vir vertaling van een taal na 'n ander. Hierdie arkitektuur laat toe vir ononderwerp onderwerp van elke taal onveilig. Alhoewel daar voorheen werk is op latente veranderlikes vir ondersoekte MT, tot die beste van ons kennis, is dit die eerste werk wat latente veranderlikes gebruik en normaliseer vloede vir onverondersoekte MT. Ons kry konkurrentlike resultate op verskeie onverondersoekte MT-benchmarke.Abstract
በዚህ ስራ ውስጥ ያልጠበቀው የNMT የፍላጻ አዲስ መሠረት እናሳልጋለን፡፡ በተርጓሚው ትርጉም ማሰናከል በተጠቃሚ የሥርዓት-ደረጃ የአሁኑን መልዕክቶች ለመግለጥ በተለየ አበባዎችን በመግለጥ ያሳያል፡፡ እና (b) የአሁኑን ቋንቋ ለቋንቋ የተለየ የቋንቋ-ቋንቋ መልዕክቶችን ለብቻው ለመያዝ እና (b) እነዚህን የአሁኑን ቋንቋ ወደ አንዲት ቋንቋ ለመለየት ቀላል መልዕክቶችን በመጠቀም ይቀጣቸዋል፡፡ This architecture allows for unsupervised training of each language independently. የቀድሞው ደረጃዎች ለMT የተለየ ትውቀታችን ለመሻለቅ የሚደረግ ስራ ሲሆን ይህ የመጀመሪያ ሥራ ነው፤ ይህም የቀድሞው ለውጦችን እና የተጠበቀውን የMT አበባዎች እንዲጠቀም የሚጠቅመው ነው። በብዙ የማይጠበቁ የMT benchmarks ላይ የተጠቃሚ ፍሬዎችን አግኝተናል፡፡Abstract
في هذا العمل ، نقترح بنية محول التدفق لـ NMT غير الخاضع للإشراف. إنه يعزز تدفقات التطبيع لنمذجة توزيعات التمثيلات الكامنة على مستوى الجملة بشكل صريح ، والتي تُستخدم لاحقًا بالاقتران مع آلية الانتباه لمهمة الترجمة. المستجدات الأساسية في نموذجنا هي: (أ) التقاط تمثيلات الجمل الخاصة باللغة بشكل منفصل لكل لغة باستخدام تدفقات التطبيع و (ب) استخدام تحويل بسيط لهذه التمثيلات الكامنة للترجمة من لغة إلى أخرى. تسمح هذه البنية بالتدريب غير الخاضع للإشراف لكل لغة على حدة. في حين أن هناك عملًا مسبقًا على المتغيرات الكامنة لـ MT الخاضع للإشراف ، على حد علمنا ، فإن هذا هو العمل الأول الذي يستخدم المتغيرات الكامنة والتدفقات العادية لـ MT غير الخاضعة للإشراف. نحصل على نتائج تنافسية على العديد من معايير الترجمة الآلية غير الخاضعة للإشراف.Abstract
Bu işlərdə, NMT-dən istifadə edilməmiş bir akış adapter arhitektarını təklif edirik. Bu, cümlələr-səviyyə son göstəricilərin dağıtılmasını açıq-aşkar modellərə çevirmək üçün növbənöv qazanmaqlarını növbənöv göstərir. Sonra bu cümlələr təkrarlama işləri ilə birlikdə istifadə edilir. Bizim modelimizin ilk yenilənmələri: a) dildən bir dildən bir-birinə çevirmək üçün hər dil üçün ayrı-ayrı cümlələr təşkil etmək və b) bu son dəlillərin basit bir transformasyonu istifadə etməkdir. Bu arhitektura hər dilin təhsil edilməyən təhsil edilməsinə imkan verir. Ən yaxşı biliyimizə görə, latent dəyişikliklər MT-in üstündə daha əvvəlki işlər var, bu, latent dəyişiklikləri istifadə edən ilk işləridir və müəyyən edilməmiş MT-in dəyişiklikləri normalizəndir. Biz müqayisədə müqayisədə olmayan MT dəyişikliklərinə müvafiq sonuçları alırıq.Abstract
В тази работа предлагаме архитектура на поток-адаптер за ненадзорни НМТ. Той използва нормализиращите потоци, за да моделира изрично разпределенията на латентните представяния на ниво изречение, които впоследствие се използват заедно с механизма за внимание за задачата за превод. Основните новости на нашия модел са: (а) улавяне на специфични за езика изображения на изречения отделно за всеки език чрез нормализиращи потоци и (б) използване на проста трансформация на тези латентни изображения за превод от един език на друг. Тази архитектура позволява самостоятелно обучение на всеки език без надзор. Въпреки че има предишна работа по латентни променливи за надзорни МТ, доколкото знаем, това е първата работа, която използва латентни променливи и нормализира потоците за ненадзорни МТ. Получаваме конкурентни резултати по няколко ненадзорни МТ бенчмарка.Abstract
এই কাজে আমরা একটি ফ্লুয়ার-অ্যাডাপ্টার আর্কিটার প্রস্তাব করছি অরক্ষিত এনএমটি। এটি স্বাভাবিকভাবে ফুল স্বাভাবিকভাবে বিতরণের জন্য স্পষ্টভাবে মডেল করে দেয়, যা পরে অনুবাদের কাজের জন্য মনোযোগ মাধ্যমে ব্যবহার করা হয়। The primary novelties of our model are: (a) capturing language-specific sentence representations separately for each language using normalizing flows and (b) using a simple transformation of these latent representations for translating from one language to another. এই প্রতিটি ভাষার স্বাধীনভাবে সংরক্ষিত প্রশিক্ষণের জন্য অনুমতি দেয়। এমটির সাম্প্রতিক পরিবর্তনের উপর কাজ রয়েছে, আমাদের জ্ঞানের সবচেয়ে ভালোভাবে, এটা প্রথম কাজ যা সাম্প্রতিক ভেরিয়াল ব্যবহার করে এবং সংরক্ষিত এমটির জন্য স্বাভাবিক ফুল ব্যবহার করে, আমরাAbstract
ལས་ཀ་འདིའི་ནང་དུ་ང་ཚོས་NMT ལ་ཕབ་སྐྱོར་མེད་པའི་འགྱུར་བ་གྱི་བཟོ་སྐྲུན་ཞིག་གི་སྔོན་སྒྲིག་ཡོད། འདིས་ཕལ་ཆེན་རྐྱེན་འདུག་ངེས་པར་གསལ་བཤད་ཀྱི་ཚིག་རྟགས་གནས་ཚུལ་གྱི་བགོ་སྤྲོད་གནང་བ་དང་མཉམ་དུ་སྤྱད་ལས། ང་ཚོའི་མ་དབུགས་ཀྱི་རྩ་བའི་མཐོ་གཏོང་ཚིག་དག: (a) སྐད་རིགས་དམིགས་འཛུགས་པའི་ཚིག སྒྲིག་འགོད་འདིས་སྐད་རེ་རེར་སོ་སོ་སྐབས་བསྡུར་མི་གློག་འཛུགས་གནང་བྱེད་ཆོག MT ལྟ་རྟོག་པའི་གནས་ཚུལ་གཞན་པའི་མགོ་མ་ཡོད་པ་ཚོགས་ཀྱི་ལས་འགའ་པ་ཞིག་ཡོད་ཀྱང་། འདི་ནི་ང་ཚོའི་ཆེད་སྔོན་པ་གིས་མཇུག་བསྡུར་མ་བྱེད་པའི་འགྱུར་འགྱུར་མཁན་ཚུ་སྤྱོད་པའི་ལསAbstract
U ovom poslu predlažemo arhitekturu za nepotrebnu NMT-u. To utiče na normalizaciju toka da biste izrazili distribuciju poslednjih predstavljanja na razini kazne, koje se nakon toga koriste zajedno sa mehanizam pažnje za prevođenje zadataka. Glavni romani našeg model a su: a) hvatanje predstavljanja jezika određene rečenice odvojeno za svaki jezik koristeći normalizaciju toka i b) koristeći jednostavnu transformaciju ovih poslednjih predstavljanja za prevod od jednog jezika na drugi. Ova arhitektura omogućava neovisnu obuku svakog jezika nezavisno. Iako postoji prethodni rad na latentnim promjenama za nadzorne MT-e, do najboljeg znanja, to je prvi rad koji koristi latentne promjene i normalizira toke za neodržavane MT-e. Dobijamo konkurentne rezultate na nekoliko neodržavanih MT kriterija.Abstract
En aquest treball, proposem una arquitectura adaptadora al flux per a la MTN no supervisada. Utilitza la normalització de fluxos per modelar explícitament les distribucions de representacions latents a nivell de frases, que després s'utilitzen conjuntament amb el mecanisme d'atenció de la tasca de traducció. The primary novelties of our model are: (a) capturing language-specific sentence representations separately for each language using normalizing flows and (b) using a simple transformation of these latent representations for translating from one language to another. Aquesta arquitectura permet formar cada llengua independentment sense supervisió. Mentre hi ha treball anterior sobre variables latents per MT supervisada, pel millor que sabem, aquesta és la primera treball que utilitza variables latents i normalitza els fluxos per MT no supervisada. Obtenim resultats competitius en diversos punts de referència de MT no supervisados.Abstract
V této práci navrhujeme architekturu průtokového adaptéru pro NMT bez dozoru. Využívá normalizační toky k explicitnímu modelování distribucí latentních reprezentací na úrovni věty, které jsou následně použity ve spojení s mechanismem pozornosti pro překladovou úlohu. Primární novinkou našeho modelu jsou: (a) zachycení jazykově specifických reprezentací vět pro každý jazyk samostatně pomocí normalizačních toků a (b) použití jednoduché transformace těchto latentních reprezentací pro překlad z jednoho jazyka do druhého. Tato architektura umožňuje bez dohledu výcvik každého jazyka nezávisle. Zatímco existuje předchozí práce na latentních proměnných pro supervizované MT, podle našeho nejlepšího vědomí se jedná o první práci, která využívá latentní proměnné a normalizující toky pro supervizované MT.Abstract
I dette arbejde foreslår vi en flowadapter arkitektur til ikke-overvåget NMT. Det udnytter normaliserende strømme til eksplicit at modellere fordelingen af latente repræsentationer på sætningsniveau, som efterfølgende bruges sammen med opmærksomhedsmekanismen til oversættelsesopgaven. De primære nyheder i vores model er: (a) at indfange sprogspecifikke sætningsrepræsentationer separat for hvert sprog ved hjælp af normaliserende flows og (b) at bruge en simpel transformation af disse latente repræsentationer til oversættelse fra et sprog til et andet. Denne arkitektur giver mulighed for uafhængig uddannelse af hvert sprog. Mens der tidligere er arbejdet med latente variabler for overvåget MT, så vidt vi ved, er dette det første arbejde, der anvender latente variabler og normaliserer strømme for ikke-overvåget MT. Vi opnår konkurrencedygtige resultater på flere ikke-overvågede MT benchmarks.Abstract
In dieser Arbeit schlagen wir eine Strテカmungsadapterarchitektur fテシr unテシberwachte NMT vor. Es nutzt normalisierende Strテカme, um explizit die Verteilungen latenter Reprテ、sentationen auf Satzebene zu modellieren, die anschlieテ歹nd in Verbindung mit dem Aufmerksamkeitsmechanismus fテシr die テ彙ersetzungsaufgabe verwendet werden. Die primテ、ren Neuerungen unseres Modells sind: (a) die Erfassung sprachspezifischer Satzdarstellungen fテシr jede Sprache durch normalisierende Strテカme getrennt und (b) die einfache Transformation dieser latenten Darstellungen fテシr die テ彙ersetzung von einer Sprache in eine andere. Diese Architektur ermテカglicht ein unbeaufsichtigtes Training jeder Sprache unabhテ、ngig voneinander. Obwohl bereits an latenten Variablen fテシr テシberwachte MT gearbeitet wurde, ist dies nach bestem Wissen die erste Arbeit, die latente Variablen und Normalisierungsstrテカme fテシr unbeaufsichtigte MT verwendet. Wir erhalten wettbewerbsfテ、hige Ergebnisse auf mehreren unbeaufsichtigten MT Benchmarks.Abstract
Στην παρούσα εργασία, προτείνουμε μια αρχιτεκτονική προσαρμογέα ροής για μη επιτηρημένο NMT. Χρησιμοποιεί εξομάλυνση των ροών για να μοντελοποιήσει ρητά τις διανομές λανθάνουσας αναπαραστάσεων σε επίπεδο πρότασης, οι οποίες στη συνέχεια χρησιμοποιούνται σε συνδυασμό με τον μηχανισμό προσοχής για την εργασία μετάφρασης. Οι βασικές καινοτομίες του μοντέλου μας είναι: (α) η καταγραφή γλωσσικών αναπαραστάσεων προτάσεων χωριστά για κάθε γλώσσα χρησιμοποιώντας κανονικές ροές και (β) η χρήση μιας απλής μετατροπής αυτών των λανθάνοντων αναπαραστάσεων για τη μετάφραση από τη μία γλώσσα στην άλλη. Η αρχιτεκτονική αυτή επιτρέπει την ανεξέλεγκτη εκπαίδευση κάθε γλώσσας. Ενώ υπάρχει προηγούμενη εργασία σχετικά με λανθάνουσες μεταβλητές για εποπτευόμενες ΜΤ, από όσο γνωρίζουμε, αυτή είναι η πρώτη εργασία που χρησιμοποιεί λανθάνουσες μεταβλητές και ομαλοποίηση ροών για μη εποπτευόμενες ΜΤ.Abstract
En este trabajo, proponemos una arquitectura de adaptador de flujo para NMT no supervisada. Aprovecha la normalización de los flujos para modelar explícitamente las distribuciones de las representaciones latentes a nivel de oración, que posteriormente se utilizan junto con el mecanismo de atención para la tarea de traducción. Las principales novedades de nuestro modelo son: (a) capturar representaciones de oraciones específicas del idioma por separado para cada idioma mediante la normalización de flujos y (b) utilizar una transformación simple de estas representaciones latentes para traducir de un idioma a otro. Esta arquitectura permite la formación sin supervisión de cada idioma de forma independiente. Si bien existe un trabajo previo sobre variables latentes para la MT supervisada, según nuestro conocimiento, este es el primer trabajo que utiliza variables latentes y la normalización de los flujos para la MT no supervisada. Obtenemos resultados competitivos en varios puntos de referencia de MT no supervisados.Abstract
Käesolevas töös pakume välja vooladapteri arhitektuuri järelevalveta NMT jaoks. See võimendab normaliseerimisvooge, et selgesõnaliselt modelleerida lausetaseme latentsete esituste jaotusi, mida hiljem kasutatakse koos tähelepanumehhanismiga tõlketöö jaoks. Meie mudeli peamised uuendused on: (a) keelespetsiifiliste lauseesituste jäädvustamine eraldi iga keele kohta normaliseerivate voogude abil ja (b) nende varjatud esinduste lihtsa teisendamise kasutamine ühest keelest teise tõlkimiseks. See arhitektuur võimaldab iga keele järelevalveta õpetada iseseisvalt. Kuigi järelevalveta MT latentsete muutujatega on eelnevalt tööd tehtud, on see meie parimate teadmiste kohaselt esimene töö, mis kasutab latentseid muutujaid ja kontrollimata MT voogude normaliseerimist. Saame konkurentsivõimelisi tulemusi mitmete järelevalveta MT võrdlusnäitajate kohta.Abstract
در این کار، ما یک معماری قابل تغییر جریان برای NMT ناپایدار پیشنهاد می کنیم. این جریانها را برای توزیع کردن نمایشهای اخیر طبقهی جملهها به طور کامل مدل میدهد که بعدش در کنار مکانیسم توجه برای کار ترجمه استفاده میشوند. نوشته های اولیه مدل ما این است: a) جملههای مخصوص زبان برای هر زبان با استفاده از جریانهای عادی و b) با استفاده از تغییر سادهای از این نمایشهای اخیر برای ترجمه از یک زبان به دیگر. این معماری اجازه می دهد که تمرین ناپایداری از هر زبان تنها باشد. در حالی که کار پیشینیان روی تغییرات latent برای MT تحت نظر، به بهترین دانش ما وجود دارد، این اولین کاری است که از تغییرات latent استفاده می کند و جریان را برای MT غیرقابل تحت نظر قرار می دهد. ما نتایج رقابتی را در چندین تغییرات MT غیرقابل تحت نظر می گیریم.Abstract
Tässä työssä ehdotamme virtaussuodattimen arkkitehtuuria valvomattomalle NMT:lle. Se hyödyntää normalisoivia virtoja mallintaakseen lausetason piilevien esitysten jakaumia, joita käytetään myöhemmin yhdessä käännöstehtävän huomiomekanismin kanssa. Mallimme ensisijaiset uutuudet ovat: (a) kielikohtaisten lauseiden kuvaaminen erikseen kullekin kielelle normalisoivien virtojen avulla ja (b) näiden piilevien esitysten yksinkertainen muuntaminen kielestä toiseen kääntämiseen. Tämä arkkitehtuuri mahdollistaa jokaisen kielen itsenäisen kouluttamisen ilman valvontaa. Vaikka valvotun MT:n piileviä muuttujia on tutkittu aiemmin, tämä on paras tietomme mukaan ensimmäinen työ, jossa käytetään piileviä muuttujia ja normalisoidaan virtoja valvomattoman MT:n osalta. Saamme kilpailukykyisiä tuloksia useista valvomattomista MT:n vertailuarvoista.Abstract
Dans ce travail, nous proposons une architecture d'adaptateur de flux pour la NMT non supervisée. Il tire parti des flux de normalisation pour modéliser explicitement les distributions de représentations latentes au niveau de la phrase, qui sont ensuite utilisées conjointement avec le mécanisme d'attention pour la tâche de traduction. Les principales nouveautés de notre modèle sont : (a) la capture de représentations de phrases spécifiques à une langue séparément pour chaque langue à l'aide de flux de normalisation et (b) l'utilisation d'une simple transformation de ces représentations latentes pour la traduction d'une langue à une autre. Cette architecture permet une formation non supervisée de chaque langue indépendamment. Bien qu'il existe des travaux antérieurs sur les variables latentes pour la MT supervisée, à notre connaissance, il s'agit du premier travail qui utilise des variables latentes et normalise les flux pour la MT non supervisée. Nous obtenons des résultats compétitifs sur plusieurs benchmarks MT non supervisés.Abstract
San obair seo, molaimid ailtireacht sreafa-oiriúntóra do NMT gan mhaoirseacht. Déanann sé sreafaí normalaithe a ghiaráil chun dáileadh na léirithe folaigh ar leibhéal na habairte a shamhaltú go sainráite, a úsáidtear ina dhiaidh sin in éineacht leis an meicníocht aird don tasc aistriúcháin. Is iad príomhnúíosacha ár múnla ná: (a) léiriú abairtí a bhaineann go sonrach le teanga a ghabháil ar leithligh do gach teanga ag baint úsáide as sreafaí normalaithe agus (b) ag baint úsáide as claochlú simplí ar na léirithe folaigh seo le haistriú ó theanga amháin go teanga eile. Ligeann an ailtireacht seo oiliúint neamhspleách a dhéanamh ar gach teanga gan mhaoirseacht. Cé go bhfuil obair roimh ré ar athróga folaigh le haghaidh MT maoirsithe, ar feadh ár n-eolas, is é seo an chéad obair a úsáideann athróga folaigh agus normalú sreafaí le haghaidh MT gan mhaoirseacht. Faighimid torthaí iomaíocha ar roinnt tagarmharcanna MT gan mhaoirseacht.Abstract
Ga wannan aikin, Munã buɗa wani matsayin mai gudãna-adaptar da aka tsare wa NMT. Yana ƙara abubuwa mai normal kõguna zuwa wani dalilin rabo-daraja na latent, da ake amfani da su daban da kuma a haɗi da aikin muhalli wa aikin fassarar. Rukunan farko na misalin mu sune: (a) ka kãma masu tsari ga maganar-ƙayyade cikin harshen rarraba kowace lugha da ya yi amfani da ƙoyoyi na ɗabi'a da kuma (b) ka yi amfani da jujjarin masu motsi da waɗancan masu ƙaran zuwa wani harshe. Wannan arkin yana yarda da wa tsarin wa kõwane harshe wanda ba'a tsare ba da kansa kaɗan. Aka da wani aiki na gaba kan variabler nan nan da aka tsare MT, zuwa ga mafi kyaun ilmi, wannan shi ne na farkon aikin wanda ke amfani da variables masu ƙaranci da ke normal masu tsare MT. Tuna sami fassara a kan wasu ba'a tsare MT.Abstract
בעבודה הזו, אנו מציעים ארכיטקטורה של מתאים זרם לני-אם-טי ללא השגחה. הוא נורמליזם זרמים לנורמליזם כדי לדוגמא באופן ברור את ההפצה של מייצגים מוסתורים ברמה המשפטים, אשר משתמשים לאחר מכן ביחד עם מנגנון תשומת לב למשימת התרגום. החדשות העיקריות של המודל שלנו הן: a) לתפוס מייצגים משפטים ספציפיים לשפה בנפרד עבור כל שפה בשימוש זרמים נורמלים ו (b) בשימוש שינוי פשוט של מייצגים הלאונטים הללו לתרגם משפה אחת לשנייה. הארכיטקטורה הזו מאפשרת לאימון ללא השגחה של כל שפה באופן עצמאי. בעוד יש עבודה קודמת על משתנים מוסתורים למטה"ט ששולט, לטובת הידע שלנו, זו העבודה הראשונה שמשתמשת בשתנים מוסתורים ומנורמליזם זרמים למטה"ט שלא שולט.Abstract
इस काम में, हम असुरक्षित एनएमटी के लिए एक प्रवाह-एडाप्टर आर्किटेक्चर का प्रस्ताव करते हैं। यह वाक्य-स्तर के अव्यक्त अभ्यावेदन के वितरण को स्पष्ट रूप से मॉडल करने के लिए प्रवाह को सामान्य करने का लाभ उठाता है, जो बाद में अनुवाद कार्य के लिए ध्यान तंत्र के साथ संयोजन के रूप में उपयोग किया जाता है। हमारे मॉडल की प्राथमिक नवीनताएं हैं: (ए) प्रवाह को सामान्य करने का उपयोग करके प्रत्येक भाषा के लिए अलग-अलग भाषा-विशिष्ट वाक्य प्रतिनिधित्व पर कब्जा करना और (बी) एक भाषा से दूसरी भाषा में अनुवाद करने के लिए इन अव्यक्त प्रतिनिधित्वों के एक सरल परिवर्तन का उपयोग करना। यह वास्तुकला स्वतंत्र रूप से प्रत्येक भाषा के असुरक्षित प्रशिक्षण के लिए अनुमति देती है। जबकि पर्यवेक्षित एमटी के लिए अव्यक्त चर पर पूर्व काम है, हमारे ज्ञान का सबसे अच्छा करने के लिए, यह पहला काम है जो अव्यक्त चर का उपयोग करता है और असुरक्षित एमटी के लिए प्रवाह को सामान्य करता है। हम कई असुरक्षित एमटी बेंचमार्क पर प्रतिस्पर्धी परिणाम प्राप्त करते हैं।Abstract
U ovom poslu predlažemo arhitekturu adapter a toka za nepotrebnu NMT-u. To utječe na normalizaciju toka kako bi se pojasno modeliralo raspodjele poslednjih predstavljanja na razini rečenica, koje se nakon toga koriste zajedno s mehanizam pažnje za prevod zadataka. Glavne novine našeg model a su: a) uhvatiti predstave za jezik posebne rečenice odvojeno za svaki jezik koristeći normalizaciju toka i b) koristeći jednostavnu transformaciju ovih poslednjih predstavljanja za prevod od jednog jezika na drugi. Ova arhitektura omogućava neovisno obuku svakog jezika. Iako postoji prethodni rad o latentnim promjenama nadziranim MT-om, najboljem od naših znanja, to je prvi rad koji koristi latentne promjene i normalizira toke za neodržavane MT-e. Dobijamo konkurentne rezultate na nekoliko neodržavanih kriterija MT-a.Abstract
Ebben a munkában a felügyelet nélküli NMT áramlási adapter architektúráját javasoljuk. A normalizáló folyamatokat kihasználja a mondatszintű látens reprezentációk eloszlásának explicit modellezésére, amelyeket később a fordítási feladat figyelemmel kísérő mechanizmusával együtt használnak. Modellünk elsődleges újdonságai a következők: (a) nyelvspecifikus mondatábrázolásokat rögzítjük külön-külön minden nyelvre normalizáló folyamatok segítségével, és (b) ezen látens reprezentációk egyszerű átalakításával fordítjuk egyik nyelvről a másikra. Ez az architektúra lehetővé teszi az egyes nyelvek felügyelet nélküli képzését önállóan. Bár a felügyelt MT látens változóival kapcsolatos előzetes munka folyik, legjobb tudásunk szerint ez az első olyan munka, amely látens változókat használ fel, és normalizálja az áramlásokat a felügyelet nélküli MT esetében.Abstract
Այս աշխատանքում մենք առաջարկում ենք հոսանքի հարմարեցման ճարտարապետություն անվերահսկված NMT-ի համար: Այն օգտագործում է նորմալ հոսքերը, որպեսզի բացահայտորեն մոդելավորի նախադասության մակարդակի թաքնված ներկայացումների բաշխումները, որոնք հետագայում օգտագործվում են հաղորդակցման գործի ուշադրության մեխանիզմի հետ: Մեր մոդելի հիմնական նորությունները հետևյալն են. a) լեզվին հատուկ նախադասությունների ներկայացումները առանձին վերցնելը յուրաքանչյուր լեզվի համար, օգտագործելով նորմալ հոսքերը, և b) օգտագործելով այս թաքնված ներկայացումների պարզ վերափոխությունը մեկ լեզվից մյուսը թար Այս ճարտարապետությունը թույլ է տալիս անկախ յուրաքանչյուր լեզվի անվերահսկված ուսուցման: Մինչդեռ նախորդ աշխատանք կա վերահսկված ՄԹ-ի թաքնված փոփոխականների վրա, մեր լավագույն գիտելիքներից, սա առաջին աշխատանքն է, որը օգտագործում է թաքնված փոփոխականներ և նորմալիզացնում է հոսքերը անվերահսկված ՄԹ-ի համար, մենք ստանում ենք մրցակցության արդյունքներ մի քանի անվերահսկված ՄԹAbstract
Dalam pekerjaan ini, kami mengusulkan arsitektur aliran-adapter untuk NMT yang tidak diawasi. Ini menggunakan aliran normalisasi untuk secara eksplicit model distribusi dari representation latent tingkat kalimat, yang kemudian digunakan bersama dengan mekanisme perhatian untuk tugas terjemahan. Novelitas utama dari model kita adalah: (a) menangkap representation kalimat spesifik bahasa secara terpisah untuk setiap bahasa menggunakan aliran normalisasi dan (b) menggunakan transformasi sederhana dari representation latent ini untuk menerjemahkan dari satu bahasa ke bahasa lain. Arkitektur ini memungkinkan pelatihan tidak diawasi setiap bahasa secara independen. Sementara ada pekerjaan sebelumnya pada variabel latent untuk MT yang diawasi, menurut pengetahuan terbaik kita, ini adalah pekerjaan pertama yang menggunakan variabel latent dan menganalisasi aliran untuk MT yang tidak diawasi. kita mendapatkan hasil kompetitif pada beberapa benchmark MT yang tidak diawasi.Abstract
In questo lavoro, proponiamo un'architettura di adattatore di flusso per NMT non supervisionato. Sfrutta i flussi normalizzanti per modellare esplicitamente le distribuzioni delle rappresentazioni latenti a livello di frase, che vengono successivamente utilizzate in combinazione con il meccanismo di attenzione per l'attività di traduzione. Le principali novità del nostro modello sono: (a) catturare separatamente le rappresentazioni di frasi specifiche per ogni lingua utilizzando flussi normalizzanti e (b) utilizzare una semplice trasformazione di queste rappresentazioni latenti per tradurre da una lingua all'altra. Questa architettura consente una formazione non supervisionata di ogni lingua in modo indipendente. Mentre esiste un precedente lavoro sulle variabili latenti per MT supervisionata, per quanto ne sappiamo, questo è il primo lavoro che utilizza variabili latenti e normalizza i flussi per MT non supervisionata. Otteniamo risultati competitivi su diversi benchmark MT non supervisionati.Abstract
この作業では、監督されていないNMTのためのフローアダプタアーキテクチャを提案します。それは、文レベルの潜在表現の分布を明示的にモデル化するために正規化フローを活用し、これらはその後、翻訳タスクの注意メカニズムと組み合わせて使用される。私たちのモデルの主な新規性は、(a)正規化フローを使用して各言語の言語固有の文章表現を個別にキャプチャすることと、(b)ある言語から別の言語への翻訳のためにこれらの潜在的な表現の単純な変換を使用することです。このアーキテクチャでは、各言語を独立して、監督なしでトレーニングすることができます。監督されたMTの潜在変数に関する以前の作業がありますが、私たちの知る限りでは、これは潜在変数を使用し、監督されていないMTのフローを正規化する最初の作業です。私たちは、いくつかの監督されていないMTベンチマークで競争的な結果を得ています。Abstract
Nang barêng-barêng iki, kéné supoyo akeh-adaturan kanggo NMT gak torah nggawe. Jejaring Nari mbubuturan sing dumatenne ning model kita iku: (a) nggawe kelangan langkung kelangan langkung weruh gak bener kanggo saben langa architecture iki supoyo kanggo tukang mrogram sing gak bakal terusan ning luwih sedhaya. MTAbstract
ამ სამუშაოში, ჩვენ მინდომებით NMT-ის არსპერვისტრიქტირების აღქტიქტირება. ეს ნორმალურად გამოიყენება წესების გარემოქმების გარემოქმების გარემოქმების გარემოქმებისთვის, რომელიც შემდეგ გამოყენებულია შემდეგ შემდეგ შემდეგ შემდეგ შემდეგ შემდეგ შემდეგ შემდეგ ჩვენი მოდელის პირველი პრომენტები არის: a) ყველა ენის განსაკუთრებული სიტყვების განსაკუთრებების განსაკუთრებების განსაკუთრებით ყოველ ენის გამოყენებაში ნორმალურიზაციას და b) გამოყენება მარტივი განსაკუთრებ ამ აქტიქტიკურაში ყველა ენის განსხვავებულად განსხვავებულ განსხვავებას შესაძლებელია. მაგრამ არსებობს პირველი მუშაობა, რომელიც ჩვენი ცნობილის უკეთესი მსოფლიოსთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთვისთAbstract
Бұл жұмыс ішінде, NMT бағытталмаған жұмыс адаптер архитектурасын ұсынамыз. Бұл сұлбаларды көзгерту үшін көзгерту үшін сұлбаның соңғы деңгейіндегі тапсырмалардың үлестірімін түсіндіру үшін көзгертеді. Бұл соңғы уақытта аудару тапсырмасының механ Біздің үлгіміздің негізгі романдалары: a) тілден бір тілден бір тілде аудару үшін қарапайым түрлендіру үшін әрбір тіл үшін әрбір тіл үшін бөлек түрлендіру және b) қарапайым түрлендіру үшін. Бұл архитектура әрбір тілді тәуелсіз оқытуға мүмкіндік береді. Алдыңғы MT бақылау үшін, біліміздің ең жақсы мәліметімізге келесі айнымалылықтар жұмыс бар, бұл келесі айнымалылықтарды қолданатын жұмыс және MT бақылау үшін жұмысты нормализациялауға болады. Біз бірнеше MT бақылауAbstract
이 작업에서 우리는 무감독 NMT에 사용되는 흐르는 어댑터 체계 구조를 제시했다.번역 과정에서 잠재적인 주의 흐름 모델과 잠재적인 주의 흐름 모델을 결합하여 사용한다.우리 모델의 주요 혁신은 (a) 사용 규범화 흐름이 각각 언어마다 특정한 문장 표시를 포착하고 (b) 이러한 잠재적 표시를 사용하는 간단한 전환을 한 언어에서 다른 언어로 번역하는 데 있다.이런 체계 구조는 모든 언어에 대해 독립적인 무감독 교육을 허용한다.이전에 감독기계번역의 잠재적 변수에 대한 연구가 있었지만, 우리가 알기로는 잠재적 변수와 비감독기계번역의 규범화 흐름을 사용하는 첫 번째 작업이다. 우리는 몇 가지 비감독기계번역 기준에서 경쟁력 있는 결과를 얻었다.Abstract
Šiame darbe siūlome srautų adaptatoriaus architektūrą, skirtą nepastebimam NMT. Ji padeda normalizuoti srautus, kad būtų aiškiai modeliuojamas paslėptų reprezentacijų bausmės lygiu paskirstymas, kuris vėliau naudojamas kartu su vertimo užduoties dėmesio mechanizmu. Pagrindinės mūsų modelio naujovės yra: a) kiekvienai kalbai skirtų sakinių atvaizdavimas atskirai, naudojant normalizuojančius srautus, ir b) paprastas šių latentinių atvaizdavimų perskaičiavimas vertimui iš vienos kalbos į kitą. Ši architektūra leidžia nepriklausomai mokyti kiekvieną kalbą be priežiūros. Nors atliekamas ankstesnis darbas dėl latentinių kintamųjų prižiūrima MT, kiek žinome, tai yra pirmasis darbas, kuriuo naudojami latentieji kintamieji ir normalizuojami srautai nepažiūrima MT.Abstract
Во оваа работа, предложуваме архитектура за пристап на тек за ненадгледувана НМТ. Истиот го користи нормализирањето на тековите за експлицитно да ги моделира дистрибуциите на тајните претставувања на нивото на речениците, кои потоа се користат во врска со механизмот на внимание за преведувањето на задачата. The primary novelties of our model are: (a) capturing language-specific sentence representations separately for each language using normalizing flows and (b) using a simple transformation of these latent representations for translating from one language to another. Оваа архитектура овозможува ненадгледувана обука на секој јазик независно. Додека постои претходна работа на лантни променливи за надгледуван МТ, за најдобро од нашето знаење, ова е првата работа која користи лантни променливи и нормализира текови за ненадгледуван МТ.Abstract
ഈ ജോലിയില്, നമ്മള് നിര്മ്മിക്കപ്പെടാത്ത NMT നിര്മ്മിക്കപ്പെടാത്ത ഒരു നീര്ത്ത-അഡാപ്റ്റര് ആര്ക്ക അത് വാക്ക്-ലേറ്റ് നേരത്തെ പ്രതിനിധികളുടെ വിഭാഗത്തിന്റെ വ്യക്തമായി പ്രദര്ശിപ്പിക്കാന് പൂക്കങ്ങള് സാധാരണമാക്കുന്നു. അതിനുശേഷം നമ്മുടെ മോഡലിന്റെ പ്രധാന നോവലുകള്: (a) ഭാഷ- പ്രത്യേക വാക്കുകളുടെ പ്രതിനിധികളെ പിടികൂടുന്നത് ഓരോ ഭാഷയ്ക്കും സാധാരണമാക്കുന്ന പൂക്കള് ഉപയോഗിച്ചും ബി ഓരോ ഭാഷ സ്വാതന്ത്ര്യമായി സൂക്ഷിക്കാത്ത പരിശീലനത്തിനായി ഈ ആര്ക്കിച്ചറിയാന് അനുവദിക്കുന്ന നമ്മുടെ പരിജ്ഞാനത്തില് ഏറ്റവും മികച്ച മാറ്റങ്ങള്ക്ക് മുമ്പ് ജോലിയുണ്ടെങ്കില്, നമ്മുടെ പരിജ്ഞാനത്തിലേക്ക് ഇതാണ് ആദ്യത്തെ ജോലി മാറ്റുന്നത്, സംരക്ഷിക്കാത്ത മെമ്Abstract
Энэ ажлын хувьд бид NMT-ийн хувьд урсгалын адаптер архитектурыг санал болгож байна. Энэ нь урсгалыг тодорхой хэлбэрээр загварчлах боломжтой болгодог. Үүний дараа нь хөрөнгө оруулах үйл ажиллагааны анхаарал механизмтай холбоотой болно. Бидний загварын анхны зохиолууд нь: a) хэл бүрт тодорхой өгүүлбэр илэрхийлэл авах нь хэл бүрт нормалчлах урсгалыг ашиглаж, б) эдгээр сүүлийн илэрхийлэл дээр нэг хэл руу орлуулахын тулд энгийн өөрчлөлт ашиглаж байна. Энэ архитектур хэл бүрт тусгаарлагдахгүй суралцах боломжтой. Хамгийн сайн мэдлэгтэй хүртэл, MT-ийн хамгийн сүүлийн хувьсагчдын тухай өмнө ажиллаж байгаа ч, энэ нь сүүлийн хувьсагчдыг ашиглаж, хөдөлгөөнгүй MT-ийн хувьсагчдын тулд урсгал хөдөлгөөн хэрэглэдэг анхны ажил юм.Abstract
Dalam kerja ini, kami cadangkan arkitektur penyesuaian aliran untuk NMT yang tidak diawasi. Ia menggunakan aliran normalisasi untuk secara eksplicit model distribusi perwakilan tertutup aras kalimat, yang kemudian digunakan bersama dengan mekanisme perhatian untuk tugas terjemahan. Kebaru utama model kita ialah: (a) menangkap perwakilan kalimat khusus bahasa secara terpisah untuk setiap bahasa menggunakan aliran normalisasi dan (b) menggunakan pengubahan sederhana perwakilan tersembunyi untuk menerjemahkan dari satu bahasa ke bahasa lain. Arkitektur ini membolehkan latihan tiap- tiap bahasa tidak diawasi secara independen. Sementara terdapat kerja sebelumnya pada pembolehubah tersembunyi untuk MT yang diawasi, untuk yang terbaik dari pengetahuan kita, ini adalah kerja pertama yang menggunakan pembolehubah tersembunyi dan mengawal aliran untuk MT yang tidak diawasi. Kami mendapat keputusan kompetitif pada beberapa tanda referensi MT yang tidak diawasi.Abstract
F’dan ix-xogħol, nipproponu arkitettura ta’ adattatur tal-fluss għal NMT mhux sorveljat. Jixpruna n-normalizzazzjoni tal-flussi biex jimmudellaw espliċitament id-distribuzzjonijiet tar-rappreżentazzjonijiet latenti fil-livell tas-sentenza, li sussegwentement jintużaw flimkien mal-mekkaniżmu ta’ attenzjoni għall-kompitu ta’ traduzzjoni. L-innovazzjonijiet primarji tal-mudell tagħna huma: (a) il-kisba ta’ rappreżentazzjonijiet ta’ sentenzi speċifiċi għall-lingwa separatament għal kull lingwa bl-użu ta’ flussi normalizzanti u (b) l-użu ta’ trasformazzjoni sempliċi ta’ dawn ir-rappreżentazzjonijiet moħbija għat-traduzzjoni minn lingwa għal oħra. Din l-arkitettura tippermetti taħriġ mhux sorveljat ta’ kull lingwa b’mod indipendenti. Filwaqt li hemm xogħol minn qabel fuq varjabbli moħbija għal MT sorveljat, għall-aħjar mill-għarfien tagħna, dan huwa l-ewwel xogħol li juża varjabbli moħbija u n-normalizzazzjoni tal-flussi għal MT mhux sorveljat.Abstract
In dit werk stellen we een flow-adapter architectuur voor niet-begeleide NMT voor. Het maakt gebruik van normaliserende stromen om expliciet de verdelingen van latente representaties op zinsniveau te modelleren, die vervolgens worden gebruikt in combinatie met het aandachtsmechanisme voor de vertaaltaak. De primaire nieuwigheden van ons model zijn: (a) het afzonderlijk vastleggen van taalspecifieke zinnrepresentaties voor elke taal met behulp van normaliserende stromen en (b) het gebruik van een eenvoudige transformatie van deze latente representaties voor het vertalen van de ene taal naar de andere. Deze architectuur maakt het mogelijk om elke taal onafhankelijk te trainen zonder toezicht. Hoewel er al eerder gewerkt is aan latente variabelen voor begeleide MT, is dit voor zover wij weten het eerste werk dat latente variabelen en normaliserende stromen gebruikt voor niet-begeleide MT. We verkrijgen concurrerende resultaten op verschillende niet-begeleide MT benchmarks.Abstract
I denne arbeida foreslår vi ein flyadapteringsarkitektur for ulike NMT-arkitektur. Det leverer normalisering av flukt til å eksplisisere modeller distribusjonane av setningsnivå siste representasjonar, som så blir brukt i samband med oppmerksmekanismen for oversettelsoppgåva. Den primære romaniteten i modellen vårt er: a) å ta opp språkspesifiserte setningar for kvar språk med normalisering av flug og b) ved å bruka ein enkel transformering av desse siste representasjonane for å oversette frå ein språk til ein annan. Denne arkitekturen lèt deg ikkje oppretta opplæring av kvar språk uavhengig. Mens det finst førre arbeid på latente variablar for oversikt av MT, til det beste av vårt kunnskap, er det første arbeidet som brukar latente variablar og normaliserer flyttar for ulike MT. Vi får konkurentiv resultat på fleire ulike måtar.Abstract
W niniejszej pracy proponujemy architekturę adaptera przepływu dla NMT bez nadzoru. Wykorzystuje normalizujące przepływy do wyraźnego modelowania rozkładów utajonych reprezentacji na poziomie zdań, które są następnie wykorzystywane w połączeniu z mechanizmem uwagi na zadanie tłumaczeniowe. Podstawowymi nowościami naszego modelu są: (a) przechwytywanie specyficznych językowych reprezentacji zdań osobno dla każdego języka przy użyciu normalizujących przepływów oraz (b) wykorzystanie prostej transformacji tych utajonych reprezentacji do tłumaczenia z jednego języka na drugi. Architektura ta pozwala na niezależne szkolenie każdego języka bez nadzoru. Chociaż istnieją wcześniejsze prace nad zmiennymi utajonymi dla nadzorowanej MT, według naszej najlepszej wiedzy, jest to pierwsza praca, która wykorzystuje zmienne utajone i normalizuje przepływy dla nienadzorowanej MT. Uzyskujemy konkurencyjne wyniki na kilku nienadzorowanych MT benchmarkach.Abstract
Neste trabalho, propomos uma arquitetura de adaptador de fluxo para NMT não supervisionado. Ele aproveita os fluxos de normalização para modelar explicitamente as distribuições de representações latentes em nível de sentença, que são subsequentemente usadas em conjunto com o mecanismo de atenção para a tarefa de tradução. As principais novidades do nosso modelo são: (a) capturar representações de sentenças específicas do idioma separadamente para cada idioma usando fluxos normalizadores e (b) usar uma transformação simples dessas representações latentes para traduzir de um idioma para outro. Essa arquitetura permite o treinamento não supervisionado de cada idioma de forma independente. Embora haja trabalhos anteriores sobre variáveis latentes para MT supervisionado, até onde sabemos, este é o primeiro trabalho que usa variáveis latentes e fluxos normalizadores para MT não supervisionado. Obtemos resultados competitivos em vários benchmarks de MT não supervisionados.Abstract
În această lucrare, propunem o arhitectură adaptoare de flux pentru NMT nesupravegheat. Folosește fluxurile de normalizare pentru a modela în mod explicit distribuțiile reprezentărilor latente la nivel de frază, care sunt ulterior utilizate împreună cu mecanismul de atenție pentru sarcina de traducere. Noutățile principale ale modelului nostru sunt: (a) captarea reprezentărilor propozițiilor specifice limbajului separat pentru fiecare limbă folosind fluxuri de normalizare și (b) utilizarea unei simple transformări a acestor reprezentări latente pentru traducerea dintr-o limbă în alta. Această arhitectură permite instruirea nesupravegheată a fiecărei limbi în mod independent. Deși există lucrări anterioare cu privire la variabilele latente pentru MT supravegheate, din câte știm, aceasta este prima lucrare care utilizează variabile latente și normalizează fluxurile pentru MT nesupravegheate. Obținem rezultate competitive pe mai multe criterii MT nesupravegheate.Abstract
В этой работе мы предлагаем архитектуру потока-адаптера для неконтролируемой NMT. Он использует нормализующие потоки для явного моделирования распределений скрытых представлений на уровне предложений, которые впоследствии используются в сочетании с механизмом внимания для задачи перевода. Основными новинками нашей модели являются: (а) захват языковых представлений предложений отдельно для каждого языка с использованием нормализующих потоков и (б) использование простой трансформации этих скрытых представлений для перевода с одного языка на другой. Эта архитектура позволяет осуществлять самостоятельное обучение на каждом языке. Несмотря на то, что ранее велась работа над латентными переменными для контролируемого MT, насколько нам известно, это первая работа, в которой используются латентные переменные и нормализуются потоки для неконтролируемого MT. Мы получаем конкурентные результаты по нескольким неконтролируемым контрольным показателям MT.Abstract
මේ වැඩේ අපි ප්රවාහනය කරන්නේ නැහැ NMT වෙනුවෙන් ප්රවාහනයක් සඳහා ස්ථාපනය කරන්න. ඒක සාමාන්ය විදියට ප්රවේශයෙන් ප්රවේශය කරන්න පුළුවන් විදියට වාර්තාවක් ප්රවේශනය කරන්න, ඒක පස්සේ පස්සේ භාවිත විදියට භාවිත අපේ මොඩල් එකේ ප්රධාන ප්රධාන ප්රධාන ප්රධාන ප්රධාන ප්රධානයක් තමයි: (a) භාෂාව විශේෂ ප්රධානයක් අරගෙන හැම භාෂාව භාවිතා මේ ස්ථාපනය සඳහා හැම භාෂාවක්ම ස්වයංක්රියාවක් නැති ප්රධානය සඳහා අවශ්ය වෙනවා. MT නිරීක්ෂණය කරලා තියෙන්නේ පළවෙනි වෙනස් විදියට, අපේ දන්නවට හොඳම විදියට, මේක පළවෙනි වෙනස් විදියට භාවිත කරන්න පුළුවන් වැඩය සහ සාමාන්ය විදියට MT නිරීAbstract
V tem delu predlagamo arhitekturo pretočnih adapterjev za nenadzorovane NMT. Izkorišča normalizacijske tokove za eksplicitno modeliranje porazdelitev latentnih predstavitev na ravni stavka, ki se kasneje uporabljajo v povezavi z mehanizmom pozornosti za prevajalsko nalogo. Primarne novosti našega modela so: (a) ločeno zajemanje jezikovno specifičnih stavkovnih predstavitev za vsak jezik z uporabo normalizacijskih tokov in (b) preprosta transformacija teh latentnih predstavitev za prevajanje iz enega jezika v drugega. Ta arhitektura omogoča neodvisno izobraževanje vsakega jezika brez nadzora. Čeprav obstaja predhodno delo na latentnih spremenljivkah za nadzorovano MT, je to po našem najboljšem znanju prvo delo, ki uporablja latentne spremenljivke in normalizacijo tokov za nadzorovano MT. Pridobimo konkurenčne rezultate na več neizorovanih MT referenčnih vrednostih.Abstract
Markaas waxan, waxaynu horumarinaynaa dhismaha adapter oo aan la ilaalinayn NMT. Waxay u fidiyaa ubaxyada sida caadiga ah si ay u muuqato qaybinta heerka ugu dambeeya, taasoo dabadeedna lagu isticmaali karo iskuul-dhigista shaqada turjumaadda. Qoraalka ugu horeeya ee modellkayaga waa: (a) ku qabsashada noocyo gaar ah oo u gaar ah luqad kasta si loo isticmaalo ubaxyada caadi ah iyo (b) si fudud u beddelasha noocyadan ugu dambeeyey si loo turjumo af kaliya ilaa mid. Baabuurkaas wuxuu si xor ah u heli karaa waxbarasho aan la sameyn karin luqad kasta. Inta lagu jiro shuqul ka horeysa ka shaqeynta bedelayaasha ugu dambeeya ee la ilaaliyey MT, tan ugu wanaagsan aqoontayada, kanu waa shaqada ugu horeeya ee isticmaala beddelka ugu dambeeya iyo ubaxyada si caadi ah oo aan la ilaalinayn MT. Waxaynu helaynaa resulto khiyaano ah oo ku saabsan dhawr bangiyada MT oo aan la ilaalinayn.Abstract
Në këtë punë, ne propozojmë një arkitekturë të adaptuesit të rrjedhjes për NMT të pazgjidhur. Ajo nxjerr dorë nga normalizimi i rrjedhjeve për të modeluar shprehësisht shpërndarjet e përfaqësimeve të fshehta të nivelit të dënimeve, të cilat më pas përdoren në lidhje me mekanizmin e vëmendjes për detyrën e përkthimit. Lajmet kryesore të modelit tonë janë: (a) kapja e përfaqësimeve të fjalëve specifike për gjuhën veçanërisht për çdo gjuhë duke përdorur rrjedhjet normalizuese dhe (b) përdorja e një transformimi të thjeshtë të këtyre përfaqësimeve të fshehta për përkthimin nga një gjuhë në tjetrën. Kjo arkitekturë lejon trajnimin pa mbikqyrje të çdo gjuhe në mënyrë të pavarur. Ndërsa ka punë të mëparshme mbi ndryshuesit latent për MT të mbikqyrur, sipas dijenisë sonë, kjo është punë e parë që përdor ndryshuesit latent dhe normalizon rrjedhjet për MT të pashqyrur.Abstract
U ovom poslu predlažemo arhitekturu za nepotrebnu NMT-u. To utiče na normalizovanje tokova da biste izrazili raspodjele poslednjih predstavljanja na razini rečenica, koje se nakon toga koriste zajedno sa mehanizam pažnje za prevođenje zadataka. Glavni romani našeg model a su: a) hvatanje predstavljanja jezika određene rečenice odvojeno za svaki jezik koristeći normalizovanje tokova i b) koristeći jednostavnu transformaciju ovih poslednjih predstavljanja za prevod od jednog jezika na drugi. Ova arhitektura omogućava neodređenu obuku svakog jezika nezavisno. Iako postoji prethodni rad o latentnim promjenama za nadzorne MT-e, do najboljeg znanja, to je prvi rad koji koristi latentne promjene i normalizira toke za neodržavane MT-e. Dobijamo konkurentne rezultate na nekoliko neodržavanih MT kriterija.Abstract
I detta arbete föreslår vi en flödesadapterarkitektur för oövervakad NMT. Den utnyttjar normaliseringsflöden för att explicit modellera fördelningarna av latenta representationer på meningsnivå, som senare används tillsammans med uppmärksamhetsmekanismen för översättningsuppgiften. De främsta nyheterna i vår modell är: (a) fånga språkspecifika meningsrepresentationer separat för varje språk med hjälp av normaliserande flöden och (b) använda en enkel transformation av dessa latenta representationer för översättning från ett språk till ett annat. Denna arkitektur möjliggör oövervakad utbildning av varje språk oberoende. Även om det finns tidigare arbete med latenta variabler för övervakad MT, så vitt vi vet, är detta det första arbetet som använder latenta variabler och normaliserar flöden för obevakad MT. Vi får konkurrenskraftiga resultat på flera obevakade MT-riktmärken.Abstract
Katika kazi hii, tunapendekeza ujenzi wa kutengeneza mafanikio kwa ajili ya NMT isiyohifadhiwa. It leverages normalizing flows to explicitly model the distributions of sentence-level latent representations, which are subsequently used in conjunction with the attention mechanism for the translation task. Simulizi za msingi za muundo wetu ni: (a) kuwakamata uwakilishi wa sentenca maalum kwa ajili ya kila lugha kwa kutumia mafua ya kawaida na (b) kwa kutumia mabadiliko rahisi ya uwakilishi huu wa hivi karibuni kwa kutafsiri kutoka lugha moja hadi nyingine. Ujengo huu unaruhusu mafunzo ya kila lugha isiyohifadhiwa huru. Wakati kuna kazi ya kabla ya mabadiliko ya hivi karibuni kwa ajili ya kufuatiliwa kwa MT, kwa ufahamu bora zaidi, hii ni kazi ya kwanza inayotumia mabadiliko ya hivi karibuni na kutengeneza mabadiliko ya kimataifa kwa ajili ya MT isiyo na uhakika. Tunapata matokeo ya ushindani juu ya misingi kadhaa isiyo sahihi ya MT.Abstract
இந்த வேலையில், நாம் பாதுகாப்பாக்கப்படாத NMT க்கு ஒரு flow-adapter architecture பரிந்துரைக்கிறோம். மொழிபெயர்ப்பு செயலுக்கான கவனம் முறைமையுடன் பயன்படுத்தப்பட்டுள்ளது. எங்கள் மாதிரியின் முதன்மையான புத்தகங்கள் என்னவென்றால்: (a) மொழியிலிருந்து மொழியிலிருந்து மற்றொரு மொழிக்கும் மொழியிலிருந்து மொழிகளை மாற்ற இந்த உருவாக்கி ஒவ்வொரு மொழியின் தனிப்பயனாக சேமிக்கப்படாத பயிற்சிக்கு அனுமதிக்கிறது. முன்னால் MT மாறிகள் பாதுகாப்பாக்கப்பட்ட மாறிகளில் செயல் இருக்கிறது, எங்கள் அறிவு சிறந்ததுக்கு, இது தான் சமீபத்திய மாறிகளைப் பயன்படுத்தும் மாறிகளைப் பாதுகாப்பாக்கப்படாதAbstract
Bu işde, NMT'i gözlemeýän agaç adapter arhitektegi teklip edip bilýäris. Bu syýallary soňky düzümlerniň daýlamagyny kesgitli şekilde örneklendirýär. Bu syýallary terjime görevi üçin üns mekanizmasy bilen birleşdirmek üçin ullanýar. Biziň nusgamyzyň esasy romanlary şudyr: a) dillerden bir dile terjime etmek üçin her dil üçin a ýratyn sözleri gollaýan we Bu arhitektura her dil özünden saklanmaýan eğitimäge rugsat berýär. MT denetlemeli en iyi bilgimize göre, geçtiğimiz değişkenler üzerinde önceki çalışma vardır. Bu, geçtiğimiz değişkenleri kullanan ilk çalışma ve gözlemeli MT için akışları normalleştiren ilk çalışma bölümüdür.Abstract
اس کام میں ہم ایک فلوٹ اڈپٹر معماری پیشنهاد کرتے ہیں جو غیر پاکیزہ NMT کے لئے ہے۔ اس نے جہنم کی جہنم کو مضبوط طریقے سے موڈل کرنے کے لئے لکھ دیا ہے کہ جہنم-سطح کے اگلے نمونات کی تقسیم کریں، جو اس کے بعد ترجمہ کے کام کے لئے توجه کے مکانیسم کے ساتھ استعمال کئے جاتے ہیں. ہمارے مدل کی اولین نوائی یہ ہیں: a) ہر زبان کے لئے مختلف زبان کے مطابق زبان کے مطابق زبان کے مطابق مختلف مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق مطابق اور (b) ان یہ معماری ہر زبان کی آموزش ناپابندی کی اجازت دیتی ہے۔ اگرچہ ہمارے بہترین علم کے لئے لاٹینٹ ویرئیٹ کے بارے میں پہلے کام ہوتا ہے، یہ پہلی کام ہے جو لاٹینٹ ویرئیٹ استعمال کرتا ہے اور غیر قابل MT کے لئے فلاؤں کو عامل کرتا ہے. ہم بہت سے غیر قابل قابل قابل قابل مقابلہ کے نتائج حاصل کرتے ہیں.Abstract
In this work, we propose a flow-adapter architecture for unsupervised NMT. Name Modemizning asosiy novellari: (a) har bir tildan boshqa tilga tarjima qilish uchun har bir tillar uchun bir xil so'zlarni ajratish va (b) bilan bir tildan boshqa tilga tarjima qilish uchun oddiy oʻzgarishdan foydalanish mumkin. Bu arxivlagich har bir tillar qoʻllanmagan taʼminlovchiga ruxsat beradi. Yaqinda MT'ning eng yaxshi aniqligimiz uchun eng yaxshi o'zgarishlarda ishlayotgan paytlarni oldin bo'lgan paydo bo'ladi, bu biz birinchi vazifani keyingi o'zgarishlardan foydalanuvchi va xavob berilmagan MT'ga qo'llanmagan narsalarni bajaramiz.Abstract
Trong công việc này, chúng tôi đề xuất một công trình phục hồi NMT không giám sát. Nó điều khiển các dòng chảy bình thường để mô tả rõ ràng các phân phát các biểu biểu hiện dấu ấn ở mức án, mà sau đó được sử dụng cùng với cơ chế tập trung cho nhiệm vụ dịch chuyển. Những phiên b ản chính của mẫu này là: a) Phân tích các biểu tượng ngôn ngữ cụ thể riêng cho mỗi ngôn ngữ dùng các dòng ổn định và (b) sử dụng một sự biến đổi đơn giản của các biểu tượng tiềm ẩn để dịch từ ngôn ngữ này sang ngôn ngữ khác. Kiến trúc này cho phép độc lập huấn luyện ngôn ngữ nào không được giám sát. Trong khi có các biến số tiềm năng bị giám sát trên kênh MTV, theo như chúng ta biết, đây là công việc đầu tiên sử dụng các biến số tiềm ẩn và làm bình thường các dòng chảy của kênh không giám sát. Chúng ta có kết quả cạnh tranh trên nhiều tiêu chuẩn MTV không giám sát.Abstract
于是举无监NMT之适配器架构。 以规范化流显式拟句级潜布,随与译务合用也。 凡新之要,(a)用规范化流各得语言特定句,及(b)用此潜移一语翻译成别语也。 此架构许专对每语无监督训练。 虽前已究于监机器翻译之变量,但据吾所知,是一于无监机器翻译用潜于变量归一化流也。 数无监督机器翻译准试有竞争力。- Anthology ID:
- 2022.acl-long.390
- Volume:
- Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)
- Month:
- May
- Year:
- 2022
- Address:
- Dublin, Ireland
- Venue:
- ACL
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 5687–5698
- Language:
- URL:
- https://aclanthology.org/2022.acl-long.390
- DOI:
- Bibkey:
- Cite (ACL):
- Qingkai Fang and Yang Feng. 2022. Neural Machine Translation with Phrase-Level Universal Visual Representations. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 5687–5698, Dublin, Ireland. Association for Computational Linguistics.
- Cite (Informal):
- Neural Machine Translation with Phrase-Level Universal Visual Representations (Fang & Feng, ACL 2022)
- Copy Citation:
- PDF:
- https://aclanthology.org/2022.acl-long.390.pdf
- Code
- ictnlp/pluvr
- Terminologies:
Export citation
@inproceedings{fang-feng-2022-neural, title = "Neural Machine Translation with Phrase-Level Universal Visual Representations", author = "Fang, Qingkai and Feng, Yang", booktitle = "Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)", month = may, year = "2022", address = "Dublin, Ireland", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/2022.acl-long.390", pages = "5687--5698", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="fang-feng-2022-neural"> <titleInfo> <title>Neural Machine Translation with Phrase-Level Universal Visual Representations</title> </titleInfo> <name type="personal"> <namePart type="given">Qingkai</namePart> <namePart type="family">Fang</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Yang</namePart> <namePart type="family">Feng</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2022-05</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Dublin, Ireland</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">fang-feng-2022-neural</identifier> <location> <url>https://aclanthology.org/2022.acl-long.390</url> </location> <part> <date>2022-05</date> <extent unit="page"> <start>5687</start> <end>5698</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T Neural Machine Translation with Phrase-Level Universal Visual Representations %A Fang, Qingkai %A Feng, Yang %S Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) %D 2022 %8 May %I Association for Computational Linguistics %C Dublin, Ireland %F fang-feng-2022-neural %U https://aclanthology.org/2022.acl-long.390 %P 5687-5698
Markdown (Informal)
[Neural Machine Translation with Phrase-Level Universal Visual Representations](https://aclanthology.org/2022.acl-long.390) (Fang & Feng, ACL 2022)
- Neural Machine Translation with Phrase-Level Universal Visual Representations (Fang & Feng, ACL 2022)
ACL
- Qingkai Fang and Yang Feng. 2022. Neural Machine Translation with Phrase-Level Universal Visual Representations. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 5687–5698, Dublin, Ireland. Association for Computational Linguistics.