FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017 FBK se Multilingual Neurale Masjien Vertalingsstelsel vir IWSLT 2017 FBK's Multilingual Neural Machine Translation System for IWSLT 2017 نظام الترجمة الآلية العصبية متعدد اللغات من FBK لـ IWSLT 2017 FBK's Multilingual Neural Machine Translation System for IWSLT 2017 Многоезичната система за неврален машинен превод на ФБК за 2017 এফবিকের মাল্টিভাষায় নিউরাল মেশিন অনুবাদ সিস্টেম ইউএসএলটি ২০১৭ FBK's Multilingual Neural Machine Translation System for IWSLT 2017 FBK's Multilingual Neural Machine Translation System for IWSLT 2017 El Sistema de Traducció Multilingüe de Màquines Neural s de FBK per IWSLT 2017 Vícejazyčný neuronový strojový překlad FBK pro IWSLT 2017 FBK's flersprogede neural maskinoversættelsessystem til IWSLT 2017 Das mehrsprachige neuronale maschinelle Übersetzungssystem von FBK für IWSLT 2017 Πολυγλωσσικό Νευρικό Μηχανολογικό Μεταφραστικό Σύστημα της FBK για το IWSLT 2017 Sistema de traducción automática neuronal multilingüe de FBK para IWSLT 2017 FBK mitmekeelne neuraalne masintõlke süsteem IWSLT 2017 jaoks سیستم ترجمه ماشین عصبی چندین زبان FBK برای IWSLT 2017 FBK: n monikielinen hermojen konekäännösjärjestelmä IWSLT 2017: lle Le système de traduction automatique neuronale multilingue de FBK pour IWSLT 2017 Córas Aistriúcháin Meaisín Néarach Ilteangach FBK do IWSLT 2017 KCharselect unicode block name מערכת התרגום של מכונות נוירויות רבות של FBK עבור IWSLT 2017 IWSLT 2017 के लिए FBK की बहुभाषी तंत्रिका मशीन अनुवाद प्रणाली FBK Multilingual Neural Machine Translation System for IWSLT 2017 FBK többnyelvű idegi fordító rendszere IWSLT 2017-hez FBK-ի բազլեզու նյարդային մեքենայի թարգմանման համակարգը 2017-ին Sistem Translasi Mesin Neural Multibahasa FBK untuk IWSLT 2017 Sistema di traduzione automatica neurale multilingue di FBK per IWSLT 2017 IWSLT 2017のためのFBKの多言語ニューラルマシン翻訳システム FBK's Multilanguage Neral Device translation System for IWSLT 1997 FBK multilingual Neural Machine Translation System for IWSLT 2017 FBK- ның IWSLT 2017 жылы көптілік нейрал машинаның аудару жүйесі FBK의 다국어 신경 기계 번역 시스템, IWSLT 2017에 사용 FBK 2017 m. daugiakalbės neurologinės mašinos vertimo sistema Мултијазичен систем за преведување на неврални машини на ФБК за IWSLT 2017 FBK's Multilingual Neural Machine Translation System for IWSLT 2017 FBK-ын IWSLT 2017 оны олон хэлний мэдрэлийн машин хөгжүүлэх систем Sistem Terjemahan Mesin Neural Berbahasa FBK untuk IWSLT 2017 Is-Sistema Multilingwi tat-Traduzzjoni tal-Makkinarju Newrali tal-FBK għall-IWSLT 2017 Het meertalige neurale machinevertaalsysteem van FBK voor IWSLT 2017 FBK sin fleirspråk neuralmaskinsomsetjingssystem for IWSLT 2017 Wielojęzyczny system maszynowego tłumaczenia neuronowego FBK dla IWSLT 2017 Sistema de tradução automática neural multilíngue da FBK para IWSLT 2017 Sistemul multilingv de traducere a mașinii neurale FBK pentru IWSLT 2017 Многоязычная система нейронного машинного перевода FBK для IWSLT 2017 FBK's Multilanguage neural machine translation system for IWSLT 2017 FBK-jezični nevralni strojni prevajalski sistem za IWSLT 2017 FBK's Multilingual Neural machine Translation System for IWSLT 2017 Sistemi Multilingual Neural Machine Translation i FBK për IWSLT 2017 FBK's Multilingual Neural Machine Translation System for IWSLT 2017 FBK:s flersprĂ¥kiga neurala maskinöversättningssystem för IWSLT 2017 Mfumo wa Tafsiri wa Mashine ya Kifaransa ya FBK kwa ajili ya IWSLT 2017 IWSLT 2017 க்கான FBK பல மொழி நெயுரல் இயந்திரம் மொழிபெயர்ப்பு அமைப்பு FBK'yň IWSLT 2017-nji ýyllar dili FBK کی Multilingual Neural Machine Translation System for IWSLT 2017 Comment Hệ thống dịch đa ngôn ngữ thần kinh cho IWSLT bây giờ FBK 以 IWSLT 2017 多言神经机器翻译统
Surafel M. Lakew, Quintino F. Lotito, Marco Turchi, Matteo Negri, Marcello Federico
Abstract
Neural Machine Translation has been shown to enable inference and cross-lingual knowledge transfer across multiple language directions using a single multilingual model. Focusing on this multilingual translation scenario, this work summarizes FBK’s participation in the IWSLT 2017 shared task. Our submissions rely on two multilingual systems trained on five languages (English, Dutch, German, Italian, and Romanian). The first one is a 20 language direction model, which handles all possible combinations of the five languages. The second multilingual system is trained only on 16 directions, leaving the others as zero-shot translation directions (i.e representing a more complex inference task on language pairs not seen at training time). More specifically, our zero-shot directions are Dutch$German and Italian$Romanian (resulting in four language combinations). Despite the small amount of parallel data used for training these systems, the resulting multilingual models are effective, even in comparison with models trained separately for every language pair (i.e. in more favorable conditions). We compare and show the results of the two multilingual models against a baseline single language pair systems. Particularly, we focus on the four zero-shot directions and show how a multilingual model trained with small data can provide reasonable results. Furthermore, we investigate how pivoting (i.e using a bridge / pivot language for inference in a source!pivot!target translations) using a multilingual model can be an alternative to enable zero-shot translation in a low resource setting.Abstract
Name As gefokus op hierdie multitaalse vertaling scenario, hierdie werk opsomming FBK se deelheid in die IWSLT 2017 deel taak. Ons ondersteunings vertrou op twee multitaalse stelsels wat op vyf tale opgelei is (Engels, Dutch, Duits, Italiese en Rumänees). Die eerste een is 'n 20 taal rigting model wat alle moontlike kombinasies van die vyf tale hanteer. Die tweede multitaalske stelsel is slegs op 16 rigtings onderwerp, wat die ander as nulskoot vertaling rigtings verlaat word (i.e. verteenwoordig 'n meer kompleks inferensie taak op taal paar wat nie op onderwerp tyd gesien is nie). More specifically, our zero-shot directions is Dutch$German and Italian$Romanian (resulting in four language combinations). Terwyl die klein hoeveelheid parallel e data gebruik word vir die onderwerp van hierdie stelsels, is die resulteerde multitaal modele effektief, selfs in vergelyking met modele onderwerp aparte vir elke taal paar (bv. in meer gunstelike voorwaardes). Ons vergelyk en wys die resultate van die twee multitaal modele teen 'n basisline enkele taal paar stelsels. Spesiaal, ons fokus op die vier nul-skoot rigtings en wys hoe 'n multi-tale model opgelei met klein data kan redelike resultate verskaf. Ons ondersoek ook hoe pivoting (i.e. gebruik 'n brig/pivottaal vir inferensie in 'n bron!pivot!target translations) gebruik 'n multilingual model kan 'n alternatief wees om nul- skoot vertaling in' n lae hulpbron instelling te aktiveer.Abstract
የኔural machine ትርጉም በአንድ ብልልቋንቋ ምሳሌ በመጠቀም የቋንቋ ቋንቋዎች እውቀትን ማቀናቀል እና የቋንቋ ቋንቋዎች እውቀት ማቀናቀል ያስችላል፡፡ ይህ በብዙ ቋንቋ ትርጉም ማዕከላዊ ቦታ ላይ በመጠንቀቅ፣ ይህ ሥራ የFBK ትግባር በ2017 በተካፈለው ስራ ላይ ያሳያል፡፡ መልዕክታችን በአምስት ቋንቋዎች (እንግሊዝኛ፣ ድል፣ ጀርመን፣ ጣሊያንኛ እና ሮማኒያን) በሚያስተማሩበት ሁለት የቋንቋ ቋንቋዎች ስርዓቶች ላይ ነው፡፡ የመጀመሪያው የ20 ቋንቋ ምሳሌ ነው፣ የ5 ቋንቋዎች የሚችሉትን ሁሉ የሚቆርጥ ነው፡፡ ሁለተኛው የቋንቋ ቋንቋዎች ስርዓት በ16 መንገዶች ብቻ ያስተምርበታል፤ ሌሎችንም በ0-shot ትርጉም ማቀናጃ ትተዋል (ምናልባት በቋንቋው ሁኔታ ላይ የተጨነቀ ስራ በተማሪ ጊዜ ያልታየው የቋንቋ ሁኔታ ላይ ነው፡፡ በተጨማሪም፣ የzero-shot መንገዳችን የዳርክ ዶላር እና የጣሊያንኛ ዶላር (አራት ቋንቋ ጥያቄ) ነው፡፡ ምንም እንኳን ለቋንቋዎች ሁለት ዓይነቶች በተለየ ተማሪዎች የሚጠቀሙት አካላቢ ዳታ ትንሽ ቢሆን፣ ፍላጎቱ የቋንቋ ቋንቋዎች ዓይነቶች በተለየ ዓይነቶች በተስተያየት እና ለሁሉም ዓይነቶች ተማርተዋል (ምናልባት በመልካም ጉዳይ) የሁለቱን ብዙልቋንቋ ምሳሌዎች በጥያቄ አንዲት ቋንቋ ሁለትን ሥርዓቶች ላይ እናሳየዋለን እናሳየዋለን፡፡ በተለይም፣ በአራቱ የzero-shot መንገዶች ላይ እናሳየዋለን እና ትንሽ ዳታዎችን እንዴት የሚያስተምር የብዙልቋንቋ ሞዴል ያሳየናል፡፡ በተጨማሪም፣ እንዴት እንደተጨማሪው ድምፅ (አዲስ bridge/pivot ቋንቋ በመጠቀም በsource!pivot!target ትርጓሜዎችን) በመጠቀም የቋንቋ ቋንቋ ሞዴል በዝቅተኛ resource ማዘጋጀት የzero-shot ትርጉም ለማስችል የሚችል alternative ሆኖ ይችላል።Abstract
لقد ثبت أن الترجمة الآلية العصبية تتيح الاستدلال ونقل المعرفة عبر اللغات عبر اتجاهات لغة متعددة باستخدام نموذج واحد متعدد اللغات. بالتركيز على سيناريو الترجمة متعدد اللغات هذا ، يلخص هذا العمل مشاركة FBK في المهمة المشتركة IWSLT 2017. تعتمد عروضنا على نظامين متعددي اللغات مدربين على خمس لغات (الإنجليزية والهولندية والألمانية والإيطالية والرومانية). الأول هو نموذج اتجاه يضم 20 لغة ، والذي يتعامل مع جميع التركيبات الممكنة للغات الخمس. يتم تدريب النظام متعدد اللغات الثاني فقط على 16 اتجاهًا ، تاركًا الآخرين كتوجيهات ترجمة بدون طلقة (أي يمثل مهمة استدلال أكثر تعقيدًا على أزواج اللغات التي لم تتم رؤيتها في وقت التدريب). وبشكل أكثر تحديدًا ، فإن اتجاهاتنا الخالية من الضربات هي الهولندية $ German و Italian $ Romanian (مما أدى إلى أربع مجموعات لغوية). على الرغم من قلة البيانات المتوازية المستخدمة لتدريب هذه الأنظمة ، فإن النماذج متعددة اللغات الناتجة فعالة ، حتى بالمقارنة مع النماذج المدربة بشكل منفصل لكل زوج لغوي (أي في ظروف أكثر ملاءمة). نحن نقارن ونعرض نتائج النموذجين متعددي اللغات مقابل أنظمة أزواج لغوية واحدة أساسية. على وجه الخصوص ، نركز على الاتجاهات الأربعة الخالية من الضربات ونبين كيف يمكن لنموذج متعدد اللغات مدرب ببيانات صغيرة أن يوفر نتائج معقولة. علاوة على ذلك ، نحن نتحرى كيفية التمحور (أي استخدام لغة جسر / محورية للاستدلال في ترجمات المصدر! المحور! الهدف) باستخدام يمكن أن يكون النموذج متعدد اللغات بديلاً لتمكين الترجمة بدون طائل في بيئة منخفضة الموارد.Abstract
Nöral Makina Çevirməsi bir çoxlu dil modeli ilə çoxlu dil tərəflərində infeksiya və çoxlu dil bilgi tərəflərini fəallaşdırmaq üçün göstərildi. Bu çoxlu dil tercümə senaryosuna təsirləndirəcək, bu işin FBK'nin 2017-ci IWSLT vəzifəs in ə bölünməsini təmizləyir. Bizim göndərilərimiz beş dildə təhsil edilən iki çox dil sisteminə təvəkkül edir. İlk kişi, beş dillərin mümkün kombinasyonlarını idarə edir. İkinci çoxlu dil sistemi yalnız 16 tərəflərdə təhsil edilir, digərini sıfır-shot tərcüm tərəflərinə təhsil edir (həm də dil çiftlərinin təhsil vaxtında görmədiyini daha kompleks təsirli təhsil edir). Əksinə, sıfır-fəsad tərəflərimiz Hollandi Dolar və İtalyan Dolar Romalıdır (dörd dil kombinatsiyası olaraq). Bu sistemləri təhsil etmək üçün istifadə edilən kiçik paralel məlumatlar istisna olmasına rağmen, bu məlumatlar çoxlu dil modelləri təhsil edirlər, hətta hər dil çift üçün ayrı-ayrı təhsil edilmiş modellərlə qarşılaşdırılırlar. Biz iki çoxlu dil modelinin sonuçlarını təklif bir dil sistemi ilə qarşılaşdırırıq və göstəririk. Özellikle, biz dörd sıfır tərəflərinə odaklanırıq və küçük məlumatlarla təhsil edilmiş çoxlu dil modeli necə münasibətli sonuçlar verir. Daha əlavə, biz nəyə pivot dilini təşkil edirik (i.e. köprü/pivot dilini təşkil edirik ki, mənbədə!pivot!məqsəd tercümələrini təşkil edirik) çoxlu dil modeli düşük ressurs qurğusunda 0-shot tercüməsini qabilleştirmək üçün alternativ olar.Abstract
Доказано е, че невралният машинен превод позволява заключения и междуезичен трансфер на знания в няколко езикови посоки, използвайки един многоезичен модел. Фокусирайки се върху този многоезичен сценарий за превод, тази работа обобщава участието на ФБК в споделената задача. Нашите предложения разчитат на две многоезични системи, обучени на пет езика (английски, холандски, немски, италиански и румънски). Първият е модел на посока 20 езика, който обработва всички възможни комбинации от петте езика. Втората многоезична система се обучава само в 16 посоки, оставяйки останалите като нулеви насоки за превод (т.е. представлява по-сложна задача за заключение на езикови двойки, които не се виждат по време на обучение). По-конкретно, нашите нулеви направления са холандски$немски и италиански$румънски (което води до четири езикови комбинации). Въпреки малкото количество паралелни данни, използвани за обучение на тези системи, получените многоезични модели са ефективни дори в сравнение с модели, обучени отделно за всяка езикова двойка (т.е. при по-благоприятни условия). Сравняваме и показваме резултатите от двата многоезични модела с базови системи за единична езикова двойка. По-специално, ние се фокусираме върху четирите нулеви направления и показваме как един многоезичен модел, обучен с малки данни, може да осигури разумни резултати. Освен това, ние изследваме как въртене (т.е. използване на мост / пивот език за заключение в преводи на източник!пивот!таргет) с помощта на многоезичният модел може да бъде алтернатива за разрешаване на нулев превод в настройка на нисък ресурс.Abstract
নিউরেল মেশিন অনুবাদ প্রদর্শন করা হয়েছে একটি মাল্টিভাষা মডেল ব্যবহার করে অনেক ভাষার নির্দেশ দিয়ে অসুসংক্রান্ত এবং ক্রাশ-ভাষায় বি এই বহুভাষায় অনুবাদের দৃষ্টিভঙ্গি নিয়ে মনোযোগ দিচ্ছে, এই কাজের সারসংক্ষিপ্ত করেছে যে এফবিকের অংশগ্রহণ করা হয়েছে ইউএসএলটি Our submissions rely on two multilingual systems trained on five languages (English, Dutch, German, Italian, and Romanian). প্রথমটি হচ্ছে ২০ ভাষার দিকের মডেল, যা পাঁচ ভাষার সম্ভাব্য সম্ভাব্য সংযোগের মাধ্যমে কাজ করে। দ্বিতীয় বহুভাষার ব্যবস্থা শুধুমাত্র ১৬টি দিকে প্রশিক্ষণ প্রদান করা হয়, যাতে অন্যদেরকে শুধুমাত্র শুট-গুলি অনুবাদ হিসেবে রেখে যায় (যে আরো বিশেষ করে, আমাদের শূন্যগুলো নির্দেশ হল ডাচ ডলার জার্মান এবং ইতালিয়ান ডলার (যার ফলে চার ভাষার সংযোগ সৃষ্টি)। এই সিস্টেমের প্রশিক্ষণের জন্য ব্যবহৃত সামান্য পারালেল ডাটা সত্ত্বেও, এর ফলে বহুভাষার মডেল কার্যকর, এমনকি প্রত্যেক ভাষার জোড়ার জন্য প্রশিক্ষণ প্রশিক্ষণ আমরা তুলনা করি এবং দুটি মাল্টিভাষার মডেলের ফলাফল দেখাই একটি বেসেলাইনের এক ভাষা জোড়া সিস্টেমের বিরুদ্ধে। বিশেষ করে, আমরা চারটি শুটের দিকে মনোযোগ দিচ্ছি এবং দেখাচ্ছি কিভাবে একটি মাল্টিভাষার মডেল প্রশিক্ষিত ছোট তথ্যের সাথে যুক এছাড়াও, আমরা তদন্ত করি কিভাবে ভোট দিচ্ছি (যেমন একটি সূত্রে আক্রান্ত ব্রিজ/পিভোট ভাষা ব্যবহার করে! মাল্টিভাষার মডেল একটি বিকল্প হতে পারে একটি কম সম্পদ সংক্রান্ত অনুবাদ সক্রিয় করার জন্য।Abstract
ནུས་ཡིག་ལག་འཁྱེར་གྱི་སྐད་ཡིག སྐད་རིགས་ཀྱི་སྐད་རིགས་འདིའི་དཔེ་བསྐྲུན་འདི་ལ་མཉམ་དུ་བསྡུར་ན། ལས་ཀ་འདིས་མཇུག་བསྡུས་ཡོད་པའི་FBK མཉམ་སྤྱོད་ཀྱི་ལས་ཀ་བ ང་ཚོའི་བསམ་འཆར་ཡོད་པའི་སྐད་ཡིག་ཆའི་མ་ལག་ཆ་གཉིས་ཀྱིས་སྐད་རིགས་ལྔའི་ནང་བསྟུན་ནས་གཙོ་རིམ། དང་པོ་དེ་སྐད་རིགས་གཤམ་ཀྱི་དཔེ་དབྱིབས་༢༠་ཡིན། དེ་ནི་སྐད་རིགས་ཀྱི་ཆ་ཚང་མཉམ་དུ་གཏོང་བྱེད་ཀྱི་ཡོད། སྐད་ཡིག་ཐབས་ལམ་གཉིས་པ་དེ་འདྲ་བའི་འགྲེལ་བཤད་ཀྱི་ཕྱོགས་སྤྱིར་བཏང་བ་ཅིན་16དང་། དེ་ལས་ཀྱང་གཞན་ཚོ་རྣམས་ལྟ་ཀློག་སྐད་ཡིག་གནད་དོན་དག་ཙམ་ ང་ཚོའི་གནས་སྟངས་ལ་ཁྱད་པར་མིན་ཐག་གཟུགས་རིས་ནི་ཇར་མན་$དང་ཨེ་ཊ་ལི་ཡཱན་$རོམ་ཡིག་རེད། མ་ལག་འདི་དག་གི་སྒེར་གྱི་ཚད་ཆུང་ཉུང་བའི་ཚད་ཆུང ང་ཚོས་སྐད་རིགས་དབྱེ་བ་གཉིས་མཉམ་བཟོ་བ་དང་བསྟུན་ནས་དབྱེ་བ་གཉིས་དབྱེ་བ་དག་རེད། དམིགས་བསལ་ན། ང་ཚོས་བློ་རིམ་འདི་༤་གཡིས་སྟོན་པ་ལས་སྐད་རིགས་ཀྱི་མ་དབྱིབས་བཏུབ་པའི་གནས་ཚུལ་ཆ་རྐྱེན་བྱས་ནས་རྐྱེ འོན་ཀྱང་། ང་ཚོས་ཁྱད་པར་གཏོང་ནི་ཇི་ལྟར་ཞིབ་བྱེད་པའི་སྐད་རིགས་ཞིག་ཏུ་བལྟ་ཞིབ་བྱེད། སྐད་རིགས་ཀྱི་མ་དབྱིབས་མང་ཆེ་བ་དེ་ཁྱད་པརAbstract
Pokazano je prevod neuroloških strojeva kako bi omogućio prijenos infekcije i prijenos međujezičkih znanja preko višestrukih jezičkih uputa koristeći jednog multijezičkog model a. Fokusirajući se na ovaj scenario multijezičkog prevoda, ovaj rad sažetuje učešće FBK-a u zajedničkom zadatku IWSLT 2017. Naši podaci se oslanjaju na dva multijezička sustava obučena na pet jezika (engleski, holandski, njemački, italijanski i i rumunski). Prvi je 20 jezika usmjeren model, koji vodi sve moguće kombinacije pet jezika. Drugi multijezički sistem je obučen samo na 16 smjera, ostavljajući ostale kao upute za prevođenje nula uputa (tj. predstavljajući kompleksniji zadatak infekcije na jezički par koji nije viđen u treningu). Posebnije, naša uputa za nulu pucnjavu su njemački i italijanski rumunski dolari (rezultat četiri kombinacije jezika). Uprkos malam količinom paralelnih podataka koje se koriste za obuku tih sustava, rezultacije multijezičkih modela su efikasne, čak i u usporedbi s modelima obučenim odvojeno za svaki jezički par (tj. u favorilnijim uvjetima). Uspoređujemo i pokazujemo rezultate dva multijezičkog modela protiv početnog jedinstvenog jezičkog parova. Posebno, fokusiramo se na četiri uputstva nula i pokažemo kako multijezički model obučen sa malim podacima može pružiti razumne rezultate. Osim toga, istražujemo kako glasanje (tj. koristeći most/pivot jezik za infekciju u izvoru!pivot!meta prevode) koristeći multijezički model može biti alternativa da omogućava prevod nula uputa u niskom nastavu resursa.Abstract
Neural Machine Translation has been shown to enable inference and cross-lingual knowledge transfer across multiple language directions using a single multilingual model. En centrar-se en aquest escenari de traducció multilingüe, aquesta feina resume la participació de la FBK en la tasca compartida IWSLT 2017. Les nostres proposicions es basan en dos sistemes multilingües entrenats en cinc llengües (anglès, holandès, alemany, italià i rumà). El primer és un model de direcció de 20 llengües, que maneja totes les combinacions possibles de les cinc llengües. El segon sistema multilingüe només està entrenat en 16 direccions, deixant les altres com direccions de traducció a zero tiros (és a dir, representant una tasca de inferència més complexa en parelles de llenguatges no vistes en el temps d'entrenament). Més concretament, les nostres direccions de dispar zero són holandeses,alemanyes i italianes,rumuneses (resultant en quatre combinacions de llenguatges). Malgrat la petita quantitat de dades paralleles que s'utilitzen per formar aquests sistemes, els models multilingües resultants són efectius, fins i tot en comparació amb models formats separadament per cada parell de llengües (i.e. en condicions més favorables). Comparem i ensenyem els resultats dels dos models multilingües amb un sistema basal d'un parell de llenguatges. En especial, ens concentrem en les quatre direccions de zero-fotografia i mostram com un model multilingüe entrenat amb petites dades pot proporcionar resultats raonables. A més, investigam com el pivot (és a dir, utilitzar un llenguatge de pont/pivot per inferència en una traducció source!pivot!target) utilitzant una el model multilingüe pot ser una alternativa per permetre una traducció de zero en un entorn de baix recursos.Abstract
Bylo prokázáno, že neuronový strojový překlad umožňuje inferenci a přenos znalostí napříč více jazykovými směry pomocí jediného vícejazyčného modelu. Tato práce se zaměřuje na tento vícejazyčný překladový scénář a shrnuje účast FBK na sdíleném úkolu IWSLT 2017. Naše příspěvky jsou založeny na dvou vícejazyčných systémech školených v pěti jazycích (angličtině, nizozemštině, němčině, italštině a rumunštině). Prvním z nich je 20jazykový směrový model, který zpracovává všechny možné kombinace pěti jazyků. Druhý vícejazyčný systém je trénován pouze na šestnácti směrech, ostatní ponechávají jako nulové směry překladu (tj. představují složitější úlohu inference u jazykových párů, které nebyly viděny v době tréninku). Konkrétněji, naše pokyny nulového snímku jsou nizozemsky$německy a italsky$rumunsky (výsledkem jsou čtyři jazykové kombinace). Navzdory malému množství paralelních dat použitých pro výcvik těchto systémů jsou výsledné vícejazyčné modely efektivní i ve srovnání s modely trénovanými samostatně pro každý jazykový pár (tj. za příznivějších podmínek). Porovnáváme a ukazujeme výsledky dvou vícejazyčných modelů s jednotlivými jazykovými párovými systémy. Zaměřujeme se zejména na čtyři směry nulového snímku a ukazujeme, jak může vícejazyčný model trénovaný s malými daty poskytnout rozumné výsledky. Dále zkoumáme, jak pivotování (tj. použití bridge/pivot jazyka pro inferenci v překladu source!pivot!target) pomocí překladu Vícejazyčný model může být alternativou k umožnění nulového překladu v nízkém nastavení zdrojů.Abstract
Neural Machine Translation har vist sig at muliggøre inference og tværsproget vidensoverførsel på tværs af flere sprogretninger ved hjælp af en enkelt flersproget model. Med fokus på dette flersprogede oversættelsesscenario opsummerer dette arbejde FBK's deltagelse i IWSLT 2017 delte opgave. Vores indlæg bygger på to flersprogede systemer uddannet på fem sprog (engelsk, hollandsk, tysk, italiensk og rumænsk). Den første er en 20 sprogretningsmodel, der håndterer alle mulige kombinationer af de fem sprog. Det andet flersprogede system trænes kun i 16 retninger, hvilket efterlader de andre som nulskudsoversættelsesvejledninger (dvs. repræsenterer en mere kompleks slutopgave på sprogpar, der ikke ses på træningstidspunktet). Mere specifikt er vores nulskud retninger hollandsk$tysk og italiensk$rumænsk (hvilket resulterer i fire sprogkombinationer). På trods af den lille mængde parallelle data, der anvendes til at træne disse systemer, er de resulterende flersprogede modeller effektive, selv i sammenligning med modeller, der trænes separat for hvert sprogpar (dvs. under mere gunstige forhold). Vi sammenligner og viser resultaterne af de to flersprogede modeller i forhold til et basissprogepar systemer. Især fokuserer vi på de fire zero-shot retninger og viser, hvordan en flersproget model trænet med små data kan give rimelige resultater. Desuden undersøger vi, hvordan pivoting (dvs. brug af et bridge/pivot sprog til inference i en source!pivot!target oversættelser) ved hjælp af en Flersproget model kan være et alternativ til at aktivere nulskudsoversættelse i en indstilling med lav ressource.Abstract
Die neuronale maschinelle Übersetzung ermöglicht die Inferenz und den sprachübergreifenden Wissenstransfer über mehrere Sprachrichtungen hinweg mit einem einzigen mehrsprachigen Modell. Diese Arbeit konzentriert sich auf dieses mehrsprachige Übersetzungsszenario und fasst die Beteiligung des FBK an der gemeinsamen Aufgabe IWSLT 2017 zusammen. Unsere Einreichungen basieren auf zwei mehrsprachigen Systemen, die in fünf Sprachen trainiert sind (Englisch, Niederländisch, Deutsch, Italienisch und Rumänisch). Das erste ist ein 20-Sprachrichtungsmodell, das alle möglichen Kombinationen der fünf Sprachen behandelt. Das zweite mehrsprachige System wird nur auf 16-Richtungen trainiert, wobei die anderen als Null-Schuss-Übersetzungsrichtungen (d.h. eine komplexere Inferenz-Aufgabe für Sprachpaare darstellen, die zum Zeitpunkt des Trainings nicht gesehen werden). Genauer gesagt sind unsere Null-Schuss-Richtungen Niederländisch$Deutsch und Italienisch$Rumänisch (was zu vier Sprachkombinationen führt). Trotz der geringen Menge an parallelen Daten, die für das Training dieser Systeme verwendet werden, sind die resultierenden mehrsprachigen Modelle effektiv, auch im Vergleich zu Modellen, die für jedes Sprachpaar separat trainiert werden (d.h. unter günstigeren Bedingungen). Wir vergleichen und zeigen die Ergebnisse der beiden mehrsprachigen Modelle mit einem Basissystem für Einzelsprachenpaare. Insbesondere konzentrieren wir uns auf die vier Null-Schuss-Richtungen und zeigen, wie ein mehrsprachiges Modell, das mit kleinen Daten trainiert wird, vernünftige Ergebnisse liefern kann. Des Weiteren untersuchen wir, wie Pivoting (d.h. Verwendung einer Bridge/Pivot-Sprache für Inferenz in einer source!pivot!target-Übersetzung) mittels eines Ein mehrsprachiges Modell kann eine Alternative sein, um Zero-Shot-Übersetzungen in einer ressourcenarmen Umgebung zu ermöglichen.Abstract
Η νευρωνική μηχανική μετάφραση έχει αποδειχθεί ότι επιτρέπει την εξαγωγή συμπερασμάτων και τη διασυνοριακή μεταφορά γνώσης σε πολλαπλές γλωσσικές κατευθύνσεις χρησιμοποιώντας ένα μόνο πολύγλωσσο μοντέλο. Εστιάζοντας σε αυτό το πολυγλωσσικό σενάριο μετάφρασης, η παρούσα εργασία συνοψίζει τη συμμετοχή του στο κοινό έργο IWSLT 2017. Οι αιτήσεις μας βασίζονται σε δύο πολύγλωσσα συστήματα εκπαιδευμένα σε πέντε γλώσσες (αγγλικά, ολλανδικά, γερμανικά, ιταλικά και ρουμανικά). Το πρώτο είναι ένα 20γλωσσικό μοντέλο κατεύθυνσης, το οποίο χειρίζεται όλους τους πιθανούς συνδυασμούς των πέντε γλωσσών. Το δεύτερο πολύγλωσσο σύστημα εκπαιδεύεται μόνο σε 16 κατευθύνσεις, αφήνοντας τις άλλες ως κατευθύνσεις μετάφρασης μηδενικής εμβέλειας (δηλαδή αντιπροσωπεύουν μια πιο σύνθετη εργασία συμπερασμάτων σε γλωσσικά ζεύγη που δεν παρατηρούνται κατά τη διάρκεια της εκπαίδευσης). Πιο συγκεκριμένα, οι κατευθύνσεις μηδενικής λήψης είναι ολλανδικά$γερμανικά και ιταλικά$ρουμανικά (με αποτέλεσμα τέσσερις γλωσσικούς συνδυασμούς). Παρά τη μικρή ποσότητα παράλληλων δεδομένων που χρησιμοποιούνται για την εκπαίδευση αυτών των συστημάτων, τα προκύπτουσα πολύγλωσσα μοντέλα είναι αποτελεσματικά, ακόμη και σε σύγκριση με μοντέλα που εκπαιδεύονται ξεχωριστά για κάθε γλωσσικό ζευγάρι (δηλαδή σε ευνοϊκότερες συνθήκες). Συγκρίνουμε και παρουσιάζουμε τα αποτελέσματα των δύο πολύγλωσσων μοντέλων σε σχέση με ένα βασικό σύστημα μονογλωσσικών ζευγαριών. Ειδικότερα, εστιάζουμε στις τέσσερις κατευθύνσεις μηδενικής λήψης και δείχνουμε πώς ένα πολύγλωσσο μοντέλο εκπαιδευμένο με μικρά δεδομένα μπορεί να προσφέρει λογικά αποτελέσματα. Επιπλέον, διερευνούμε πώς η περιστροφή (δηλ. χρήση μιας γλώσσας γεφυρών/περιστροφών για συμπέρασμα σε μεταφράσεις πηγής! Το πολύγλωσσο μοντέλο μπορεί να αποτελέσει μια εναλλακτική λύση για να επιτρέψει τη μετάφραση μηδενικού πυροβολισμού σε μια χαμηλή ρύθμιση πόρων.Abstract
Se ha demostrado que la traducción automática neuronal permite la inferencia y la transferencia de conocimientos multilingües a través de múltiples direcciones lingüísticas utilizando un único modelo multilingüe. Centrándose en este escenario de traducción multilingüe, este trabajo resume la participación de FBK en la tarea compartida de IWSLT 2017. Nuestras presentaciones se basan en dos sistemas multilingües capacitados en cinco idiomas (inglés, holandés, alemán, italiano y rumano). El primero es un modelo de dirección de 20 idiomas, que maneja todas las combinaciones posibles de los cinco idiomas. El segundo sistema multilingüe se entrena solo en 16 direcciones, dejando las otras como direcciones de traducción cero (es decir, representan una tarea de inferencia más compleja en pares de idiomas que no se ven en el momento del entrenamiento). Más específicamente, nuestras direcciones cero son Holandés$Alemán e Italiano$Rumano (lo que resulta en cuatro combinaciones de idiomas). A pesar de la pequeña cantidad de datos paralelos utilizados para entrenar estos sistemas, los modelos multilingües resultantes son eficaces, incluso en comparación con los modelos entrenados por separado para cada combinación de idiomas (es decir, en condiciones más favorables). Comparamos y mostramos los resultados de los dos modelos multilingües con los sistemas de pares de un solo idioma de referencia. En particular, nos centramos en las cuatro direcciones de tiro cero y mostramos cómo un modelo multilingüe entrenado con datos pequeños puede proporcionar resultados razonables. Además, investigamos cómo pivotante (es decir, usar un lenguaje puente/pivote para la inferencia en una fuente! ¡pivote! traducciones objetivo) mediante un el modelo multilingüe puede ser una alternativa para permitir la traducción cero en un entorno de recursos bajos.Abstract
On tõestatud, et neuromasintõlge võimaldab ühe mitmekeelse mudeli abil järeldada ja keeleülest teadmiste edastamist mitmes keelesuunas. Sellele mitmekeelsele tõlketsenaariumile keskendudes võtab töö kokku FBK osalemise IWSLT 2017 jagatud ülesandes. Meie esitused tuginevad kahele mitmekeelsele süsteemile, mis on koolitatud viies keeles (inglise, hollandi, saksa, itaalia ja rumeenia keeles). Esimene on 20 keele suuna mudel, mis käsitleb kõiki võimalikke kombinatsioone viiest keelest. Teist mitmekeelset süsteemi koolitatakse ainult 16 suunas, jättes teised null-shot tõlkesuunadeks (st kujutab endast keerulisemat järeldusülesannet keelepaaride puhul, mida koolituse ajal ei nähta). Täpsemalt, meie null-shot suunad on hollandi$saksa ja itaalia$rumeenia (tulemuseks on neli keelekombinatsiooni). Vaatamata nende süsteemide koolitamiseks kasutatavate paralleelsete andmete väikesele hulgale on tulemuslikud mitmekeelsed mudelid isegi võrreldes iga keelepaari jaoks eraldi koolitatud mudelitega (st soodsamates tingimustes). Me võrdleme ja näitame kahe mitmekeelse mudeli tulemusi ühe keelepaari baassüsteemidega. Eelkõige keskendume neljale null-shot suunale ja näitame, kuidas mitmekeelne mudel, mida koolitatakse väikeste andmetega, võib anda mõistlikke tulemusi. Lisaks uurime, kuidas pöörlemine (st bridge/pivot keele kasutamine järelduseks source!pivot!target tõlgetes) kasutades mitmekeelne mudel võib olla alternatiiv nullkatse tõlkimise võimaldamiseks vähese ressursi seadetes.Abstract
ترجمه ماشین عصبی نشان داده شده است که با استفاده از یک مدل متعدد زبان قابل تغییر ورزش و تغییر علم متعدد زبان باشد. با تمرکز روی این سناریو ترجمههای زیادی زبان، این کار مشارکت FBK در کار مشترک IWSLT 2017 را جمع میکند. تسلیمهای ما بر دو سیستمهای متعدد زبان آموزش یافته به پنج زبان (انگلیسی، هلندی، آلمان، ایتالیایی و رومانی) بستگی دارند. اولین یک مدل راهنمایی ۲۰ زبان است که تمام ترکیبهای ممکن پنج زبان را کنترل میکند. سیستم دوم چندین زبان تنها در ۱۶ مسیر آموزش داده میشود و بقیه را به عنوان مسیر ترجمههای صفر (یعنی نشان دادن یک کار پیچیدهتری بر جفت زبان که در زمان آموزش ندیدهاند) ترجمه میکند. دقیقاً مسیرات صفر صفر ما آلمان و ایتالیایی دلار رومانی هستند (به نتیجه ۴ ترکیب زبانی) که به وجود آورده است. با وجود تعداد کوچک دادههای متفاوتی که برای آموزش این سیستم استفاده میشود، مدلهای متعدد زبانها موثر میشوند، حتی در مقایسه با مدلهای متفاوتی که برای هر جفت زبان آموزش داده میشوند، حتی در مقایسه با مدلهای متفاوتی برای هر جفت زبان ما نتایج دو مدل متعدد زبان را با یک سیستم جفت زبان بنیادی مقایسه می کنیم و نشان می دهیم. به خصوص، ما روی چهار مسیر صفر تمرکز می کنیم و نشان می دهیم که چگونه یک مدل چند زبان آموزش شده با داده های کوچک می تواند نتایج منطقی را پیشنهاد کند. علاوه بر این، ما تحقیق میکنیم که چقدر با استفاده از زبان پل/pivot برای آلودگی در یک منبع!pivot!ترجمه هدف استفاده میکنیم مدلهای زیادی زبان میتواند جایگزینی باشد که در تنظیمات منابع کم ترجمههای صفر را فعال کند.Abstract
Neuraalisen konekäännöksen on osoitettu mahdollistavan päättelyn ja monikielisen tiedonsiirron eri kielisuuntiin käyttäen yhtä monikielistä mallia. Tässä työssä keskitytään monikieliseen käännöskenaarioon ja tiivistetään FBK:n osallistumista IWSLT 2017:n yhteiseen tehtävään. Tekstimme perustuvat kahteen monikieliseen järjestelmään, jotka on koulutettu viidellä kielellä (englanti, hollanti, saksa, italia ja romania). Ensimmäinen on 20 kielen suuntamalli, joka käsittelee kaikki viiden kielen mahdolliset yhdistelmät. Toinen monikielinen järjestelmä on koulutettu vain 16 suuntaan, jolloin muut jäävät nolla-shot käännössuunnaksi (eli se edustaa monimutkaisempaa päättelytehtävää kielipareille, joita ei ole nähty harjoitushetkellä). Tarkemmin sanottuna nollalaukauksen suuntamme ovat Dutch$German ja Italian$Romanian (tuloksena on neljä kieliyhdistelmää). Huolimatta siitä, että näiden järjestelmien koulutuksessa käytetään vähän rinnakkaistietoja, tuloksena olevat monikieliset mallit ovat tehokkaita, jopa verrattuna malleihin, jotka on koulutettu erikseen jokaiselle kieliparille (eli suotuisammissa olosuhteissa). Vertailemme ja näytämme kahden monikielisen mallin tuloksia yhden kieliparin perustason järjestelmiin. Erityisesti keskitymme neljään nollakuvaussuuntaan ja näytämme, miten pienellä datalla koulutettu monikielinen malli voi tuottaa kohtuullisia tuloksia. Lisäksi tutkimme, miten pivoting (eli bridge/pivot kieli päättelyyn source!pivot!target käännöksissä) käyttäen monikielinen malli voi olla vaihtoehto nolla-shot käännöksen mahdollistamiseen alhaisella resurssilla.Abstract
Il a été démontré que la traduction automatique neuronale permet l'inférence et le transfert de connaissances multilingues dans plusieurs directions linguistiques à l'aide d'un seul modèle multilingue. En se concentrant sur ce scénario de traduction multilingue, ce travail résume la participation de FBK à la tâche partagée IWSLT 2017. Nos soumissions s'appuient sur deux systèmes multilingues formés en cinq langues (anglais, néerlandais, allemand, italien et roumain). Le premier est un modèle à 20 directions linguistiques, qui gère toutes les combinaisons possibles des cinq langues. Le deuxième système multilingue n'est entraîné que dans 16 directions, les autres étant des directions de traduction zéro plan (c'est-à-dire représentant une tâche d'inférence plus complexe sur des paires de langues non vues au moment de la formation). Plus précisément, nos directions zero-shot sont le néerlandais$allemand et l'italien$roumain (ce qui donne quatre combinaisons de langues). Malgré la faible quantité de données parallèles utilisées pour la formation de ces systèmes, les modèles multilingues qui en résultent sont efficaces, même en comparaison avec des modèles formés séparément pour chaque paire de langues (c'est-à-dire dans des conditions plus favorables). Nous comparons et montrons les résultats des deux modèles multilingues par rapport à des systèmes de paires de langues uniques de référence. En particulier, nous nous concentrons sur les quatre directions de tir zéro et montrons comment un modèle multilingue entraîné avec de petites données peut fournir des résultats raisonnables. En outre, nous étudions comment le pivotement (c'est-à-dire l'utilisation d'un langage pont/pivot pour l'inférence dans une source ! Pivot ! traductions cibles) à l'aide d'un Le modèle multilingue peut être une alternative pour permettre la traduction zero-shot dans un environnement à faibles ressources.Abstract
Léiríodh go n-éascaíonn Neural Machine Translation tátal agus aistriú eolais tras-teanga thar threoracha iolracha ag baint úsáide as múnla ilteangach amháin. Ag díriú ar an gcás aistriúcháin ilteangach seo, déanann an obair seo achoimre ar rannpháirtíocht FBK i dtasc comhroinnte IWSLT 2017. Bíonn ár n-aighneachtaí ag brath ar dhá chóras ilteangacha atá oilte ar chúig theanga (Béarla, Ollainnis, Gearmáinis, Iodáilis agus Rómáinis). Múnla treo 20 teanga atá sa chéad cheann, a láimhseálann gach teaglaim fhéideartha de na cúig theanga. Ní dhéantar oiliúint ar an dara córas ilteangach ach ar 16 threoir, rud a fhágann na cinn eile mar threoracha aistrithe nialasacha (i.e. tasc tátail níos casta ar phéirí teanga nach bhfeictear ag am oiliúna a léiriú). Go sonrach, is iad an Ollainnis-Gearmáinis agus an Iodáilis$Rómáinis ár dtreoracha náid-shotalach (agus ceithre theaglaim teanga mar thoradh air). D’ainneoin an méid beag sonraí comhthreomhara a úsáidtear chun na córais seo a oiliúint, tá na samhlacha ilteangacha a eascraíonn as seo éifeachtach, fiú i gcomparáid le samhlacha arna n-oiliúint ar leithligh do gach péire teanga (i.e. i gcoinníollacha níos fabhraí). Déanaimid comparáid agus taispeántar torthaí an dá mhúnla ilteangach i gcoinne córais bhunlíne péire teanga amháin. Go háirithe, dírímid ar na ceithre threoir náid-lámhaigh agus léirímid conas is féidir le múnla ilteangach atá oilte le sonraí beaga torthaí réasúnta a sholáthar. Ina theannta sin, déanaimid iniúchadh ar an gcaoi a bhfuil maighdeog (i. is féidir le samhail ilteangach a bheith ina rogha eile chun aistriúchán nialasach a chumasú i suíomh acmhainní ísle.Abstract
An nuna Translate ɗin Kikake na Naural don ya iya amfani da motsi guda na multi-lingui. Kuran fassarar fassarar multilingular, wannan aikin yana ƙarfafa da shirin FBK a cikin aikin IWSLT 2017 wanda aka raba shi. Salutarmu na dõgara a kan wasu'ummõmi biyu na'ura wanda aka sanar da su a cikin harshen shan lugha (Ingiriya, Dushen, Jarman, Italian, da Rumani). Kida ya farko yana da wata misalin shiryarwa 20 cikin harshe, wanda ke karɓi kullum masu yiwu da ake iya cikin lugha shan. An sanar da na'urar mulki-lingui na farko kawai a kan shiryarwa 16an, kuma yana barin wasu kamar shirin tarjifani na sifuri (misali, yana wakin wani aikin muraja da ya fi tsanani a kan mazaɓan harshe wanda ba su gan a lokacin da za'a yi wa lõkaci). More specifically, our zero-shot directions are Dutch$German and Italian$Romanian (resulting in four language combinations). Babu ƙarami da yawan data masu daidaita da aka yi amfani da wa wa'anar wannan na'urar, misãlai masu ƙaranci masu amfani da su yana da amfani da, kuma kõ da sami da misãlai wanda aka yi wa shirin su rarraba kowace ga duk harshe (misali, cikin hali masu son zafi). Kana samfani da kuma Muke nũna matsalan misalin biyu masu mulki-lingui don a sami'ura guda da harshe guda. Kayyai, muna kiyãye shiryoyin huɗu na sifiri kuma mu nuna yadda an sanar da misalin multilusi da ƙarami masu da data ƙarami za ta bãyar da matsalar da inganci. Furan haka, Munã yin ƙidãya yadda pivot ke yi (misali da za'a yi amfani da harshen tsohon/pivot wa kasancẽwa cikin wani source!pivot!goat fassarar) na amfani da a @ info: whatsthisAbstract
הוראה התרגום של מכונת נוירואלית מאפשר למסקנה ועברת ידע בין שפות לאורך כיוונים רבים בשפה באמצעות מודל רב שפות אחד. התמקדות בתרחיש התרגום המספר שפוי זה, העבודה הזו מסכם את השתתפות של FBK במשימה המשותפת IWSLT 2017. השיחות שלנו תלויות בשני מערכות רבות שפות מאומנות בחמש שפות (אנגלית, הולנדית, גרמנית, איטלקית, רומנית). הראשון הוא דוגמן כיוון של 20 שפות, שמטפל בכל שילובים אפשריים של חמש שפות. המערכת הרב-שפותית השנייה מאומנת רק על 16 כיוונים, משאירה את האחרים כיוונים התרגום אפס (כלומר מייצג משימה מסובכת יותר על זוגות שפות שלא נראות בזמן האימון). במיוחד יותר, הכיוונים האפסים שלנו הם הולנדים גרמנים ואיטלקים רומנים (מה שהוביל בארבעה שילובים שפות). Despite the small amount of parallel data used for training these systems, the resulting multilingual models are effective, even in comparison with models trained separately for every language pair (i.e. in more favorable conditions). אנחנו משוותים ולהראות את התוצאות של שני הדוגמנים הרב-שפותיים נגד מערכות זוג שפות אחת בסיסית. במיוחד, אנחנו מתמקדים בארבעה הכיוונים של אפס יריות ולהראות איך מודל רב-שפתי מאומן עם נתונים קטנים יכול לספק תוצאות סבירות. חוץ מזה, אנו חוקרים כיצד לפיוט (כלומר להשתמש בשפה גשר/פיוט למסקנה במקור!pivot!target תרגומות) באמצעות multilingual model can be an alternative to enable zero-shot translation in a low resource setting.Abstract
न्यूरल मशीन अनुवाद को एक एकल बहुभाषी मॉडल का उपयोग करके कई भाषा दिशाओं में अनुमान और क्रॉस-लिंगुअल ज्ञान हस्तांतरण को सक्षम करने के लिए दिखाया गया है। इस बहुभाषी अनुवाद परिदृश्य पर ध्यान केंद्रित करते हुए, यह कार्य IWSLT 2017 साझा कार्य में FBK की भागीदारी को सारांशित करता है। हमारी प्रस्तुतियाँ पांच भाषाओं (अंग्रेजी, डच, जर्मन, इतालवी और रोमानियाई) पर प्रशिक्षित दो बहुभाषी प्रणालियों पर निर्भर करती हैं। पहला एक 20 भाषा दिशा मॉडल है, जो पांच भाषाओं के सभी संभावित संयोजनों को संभालता है। दूसरी बहुभाषी प्रणाली को केवल 16 दिशाओं पर प्रशिक्षित किया जाता है, दूसरों को शून्य-शॉट अनुवाद दिशाओं के रूप में छोड़ दिया जाता है (यानी प्रशिक्षण के समय नहीं देखे गए भाषा जोड़े पर अधिक जटिल अनुमान कार्य का प्रतिनिधित्व करता है)। अधिक विशेष रूप से, हमारे शून्य-शॉट दिशाएं डच $ जर्मन और इतालवी $ रोमानियाई (जिसके परिणामस्वरूप चार भाषा संयोजन हैं)। इन प्रणालियों के प्रशिक्षण के लिए उपयोग किए जाने वाले समानांतर डेटा की छोटी मात्रा के बावजूद, परिणामी बहुभाषी मॉडल प्रभावी होते हैं, यहां तक कि प्रत्येक भाषा जोड़ी (यानी अधिक अनुकूल परिस्थितियों में) के लिए अलग से प्रशिक्षित मॉडल की तुलना में भी। हम एक बेसलाइन एकल भाषा जोड़ी प्रणालियों के खिलाफ दो बहुभाषी मॉडल के परिणामों की तुलना करते हैं और दिखाते हैं। विशेष रूप से, हम चार शून्य-शॉट दिशाओं पर ध्यान केंद्रित करते हैं और दिखाते हैं कि छोटे डेटा के साथ प्रशिक्षित एक बहुभाषी मॉडल उचित परिणाम कैसे प्रदान कर सकता है। इसके अलावा, हम जांच करते हैं कि कैसे pivoting (यानी एक स्रोत में अनुमान के लिए एक पुल / पिवट भाषा का उपयोग करना!pivot!target translations) का उपयोग करके बहुभाषी मॉडल एक कम संसाधन सेटिंग में शून्य-शॉट अनुवाद को सक्षम करने के लिए एक विकल्प हो सकता है।Abstract
Pokazano je prijevod neuroloških strojeva kako bi omogućio prijenos infekcije i preko jezika znanja u višestrukim jezičkim smjerovima koristeći jednog multijezičkog model a. Fokusirajući se na ovaj multijezički scenario prevoda, ovaj rad sažetuje učešće FBK-a u zajedničkom zadatku IWSLT 2017. Naši podaci se oslanjaju na dva multijezička sustava obučena na pet jezika (engleski, holandski, njemački, italijanski i i rumunski). Prvi je 20 jezika usmjeren model, koji vodi sve moguće kombinacije pet jezika. Drugi multijezički sustav obučen je samo na 16 smjera, ostavljajući ostale kao upute za prevođenje nula uputa (tj. predstavljajući kompleksniji zadatak infekcije na jezičke parove koje nisu vidjele u treningu). Posebnije, naše upute za nulu pucanja su njemački i italijanski rumunski dolari (što je rezultiralo četiri jezičke kombinacije). Uprkos malam količinom paralelnih podataka koji se koriste za obuku tih sustava, rezultacije multijezičkih modela su učinkoviti, čak i u usporedbi s modelima obučenim odvojenim za svaki jezički par (tj. u favorilnijim uvjetima). Uspoređujemo i pokazujemo rezultate dva multijezičkog modela protiv početnog jedinstvenog jezičkog sustava. Posebno, usredotočili smo se na četiri uputa na nulu i pokazali kako multijezički model obučen s malim podacima može pružiti razumne rezultate. Osim toga, istražujemo kako glasanje (tj. koristeći most/pivot jezik za infekciju u izvoru!pivot!meta prevode) koristeći multijezički model može biti alternativa za omogućavanje prevođenja nula pucnjave u niskom nastavu resursa.Abstract
A Neural Machine Translation kimutatták, hogy egyetlen többnyelvű modell segítségével lehetővé teszi a következtetést és a többnyelvű tudás átadását több nyelvű irányban. A többnyelvű fordítási forgatókönyvre összpontosítva a munka összefoglalja az FBK részvételét az IWSLT 2017 megosztott feladatában. Pályázataink öt nyelven (angol, holland, német, olasz és román) képzett többnyelvű rendszeren alapulnak. Az első egy 20 nyelvi iránymodell, amely kezeli az öt nyelv összes lehetséges kombinációját. A második többnyelvű rendszer csak 16 irányban képzésre kerül, a többieket zéró fordítási irányként hagyják (azaz bonyolultabb következtetési feladatot képviselnek a képzési időben nem látott nyelvpárokra). Pontosabban, a nulla lövéses irányzatunk a holland$német és olasz$román (ami négy nyelvkombinációt eredményez). A rendszerek képzéséhez használt kis mennyiségű párhuzamos adat ellenére az eredményekből származó többnyelvű modellek hatékonyak, még az egyes nyelvpárokra külön képzett modellekhez képest is (azaz kedvezőbb körülmények között). A két többnyelvű modell eredményeit összehasonlítjuk és bemutatjuk egy alapvető egynyelvpáros rendszerrel. Különösen a négy nulla lövési irányra összpontosítunk, és megmutatjuk, hogy egy kis adatokkal képzett többnyelvű modell hogyan tud ésszerű eredményeket nyújtani. Továbbá azt vizsgáljuk, hogy a forrás!pivot!target fordításokban hogyan lehet forgatni (vagyis bridge/pivot nyelvet használni a következtetéshez) A többnyelvű modell alternatívája lehet a nullás fordítás engedélyezéséhez alacsony erőforrás-beállítás mellett.Abstract
Պարզվել է, որ նյարդային մեքենայի թարգմանությունը հնարավորություն է տալիս հետևանքների և լեզվի միջև տեղափոխվող գիտելիքների փոխանցումը բազմաթիվ լեզվի ուղղություններով՝ օգտագործելով մեկ բազլեզվի մո Այս աշխատանքը, կենտրոնացնելով այս բազլեզու թարգմանման սցենարին, համառոտագրում է FBK-ի մասնակցությունը 2017 թվականի IwSMT-ի ընդհանուր խնդրի մեջ: Մեր ներկայացումները հիմնված են երկու բազլեզու համակարգի վրա, որոնք վարժեցվում են հինգ լեզուներով (անգլերեն, հոլանդերեն, գերմաներեն, իտալանդերեն և ռոմաներեն): Առաջինը 20 լեզու ուղղության մոդել է, որը վերահսկում է հինգ լեզուների բոլոր հնարավոր համադրությունները: Երկրորդ բազմալեզու համակարգը պատրաստվում է միայն 16 ուղղությամբ, ուրիշներին թողնելով զրոյական թարգմանման ուղղությամբ (այսինքն՝ ավելի բարդ եզրակացություն ներկայացնելով լեզվի զույգերի համար, որոնք չեն տեսնում պատրաստման ժամանակ): Ավելի հատկապես, մեր զրոյի ուղղությունները հոլանդացի$գերմանացի և իտալանդացի$ռոմանացի են (ինչը հանգեցնում է չորս լեզվի համադրումներին): Չնայած այս համակարգերի ուսումնասիրության համար օգտագործվող զուգահեռ տվյալների փոքր քանակությանը, արդյունքում ունեցող բազմալեզու մոդելները արդյունավետ են, նույնիսկ համեմատելով առանձին ուսումնասիրել մոդելների հետ յուրաքանչյուր լեզվի զուգավորի We compare and show the results of the two multilingual models against a baseline single language pair systems. Հատկապես, մենք կենտրոնանում ենք չորս զրոյական ուղղությունների վրա և ցույց ենք տալիս, թե ինչպես շատ լեզվով մոդելը, որն ուսուցանված է փոքր տվյալներով, կարող է տրամադրել խելամիտ արդյունքներ: Ավելին, մենք ուսումնասիրում ենք, թե ինչպես է պտտվում (այսինքն՝ կամուրջի և պտտվող լեզու օգտագործելը որպես հետևանք աղբյուրի, պտտվող, նպատակային թարգմանությունների մեջ) օգտագործելով բազմալեզու մոդելը կարող է լինել այլընտրանք, որը թույլ կտա զրոյական թարգմանություն ցածր ռեսուրսների միջոցով:Abstract
Terjemahan Mesin Neural telah ditunjukkan untuk memungkinkan kesimpulan dan transfer pengetahuan saling bahasa melalui berbagai arah bahasa menggunakan model multibahasa tunggal. Fokus pada skenario terjemahan berbagai bahasa ini, pekerjaan ini mengungkapkan partisipasi FBK dalam tugas bersama IWSLT 2017. Pemberian kami bergantung pada dua sistem berbagai bahasa yang dilatih dalam lima bahasa (Inggris, Belanda, Jerman, Italia, dan Rumania). Yang pertama adalah model arah 20 bahasa, yang menangani semua kombinasi mungkin dari lima bahasa. Sistem multibahasa kedua hanya dilatih pada 16 arah, meninggalkan yang lainnya sebagai arah terjemahan nol (i.e. mewakili tugas inferensi yang lebih kompleks pada pasangan bahasa yang tidak terlihat pada waktu latihan). Lebih spesifik, arah zero-shot kami adalah Dutch$German dan Italian$Romanian (yang berasal dari empat kombinasi bahasa). Meskipun jumlah kecil data paralel yang digunakan untuk melatih sistem-sistem in i, model berbagai bahasa hasilnya efektif, bahkan dibandingkan dengan model yang dilatih secara terpisah untuk setiap pasangan bahasa (i.e. dalam kondisi yang lebih baik). Kami membandingkan dan menunjukkan hasil dari dua model berbagai bahasa melawan sistem dasar sepasang bahasa tunggal. Terutama, kita fokus pada empat arah zero-shot dan menunjukkan bagaimana model berbagai bahasa dilatih dengan data kecil dapat memberikan hasil yang masuk akal. Selain itu, kami menyelidiki bagaimana pivoting (i.e. menggunakan bahasa jembatan/pivot untuk kesimpulan dalam sumber!pivot!target terjemahan) menggunakan model berbeda bahasa dapat menjadi alternatif untuk memungkinkan terjemahan nol dalam pengaturan sumber daya rendah.Abstract
Neural Machine Translation è stato dimostrato che consente l'inferenza e il trasferimento di conoscenze cross-lingual attraverso più direzioni linguistiche utilizzando un unico modello multilingue. Concentrandosi su questo scenario di traduzione multilingue, questo lavoro riassume la partecipazione di FBK al compito condiviso IWSLT 2017. I nostri contributi si basano su due sistemi multilingui formati su cinque lingue (inglese, olandese, tedesco, italiano e rumeno). Il primo è un modello di direzione in 20 lingue, che gestisce tutte le combinazioni possibili delle cinque lingue. Il secondo sistema multilingue è formato solo su 16 direzioni, lasciando le altre come direzioni di traduzione zero-shot (cioè rappresentano un compito di inferenza più complesso sulle coppie linguistiche non viste al momento dell'allenamento). Più specificamente, le nostre indicazioni zero-shot sono Dutch$German e Italian$Roman (con conseguente quattro combinazioni linguistiche). Nonostante la piccola quantità di dati paralleli utilizzati per la formazione di questi sistemi, i modelli multilingui risultanti sono efficaci, anche rispetto ai modelli formati separatamente per ogni coppia linguistica (cioè in condizioni più favorevoli). Confrontiamo e mostriamo i risultati dei due modelli multilingue rispetto a sistemi di base a coppie di lingue singole. In particolare, ci concentriamo sulle quattro direzioni zero-shot e mostriamo come un modello multilingue addestrato con piccoli dati può fornire risultati ragionevoli. Inoltre, esaminiamo come pivoting (cioè utilizzando un linguaggio bridge/pivot per inferenza in una traduzione source!pivot!target) utilizzando un Il modello multilingue può essere un'alternativa per abilitare la traduzione a scatto zero in un'impostazione a basso contenuto di risorse.Abstract
ニューラル・マシン・トランスレーションは、単一の多言語モデルを使用して、複数の言語方向にわたる推論とクロスリンガルの知識伝達を可能にすることが示されている。 この多言語翻訳シナリオに焦点を当てたこの研究では、FBKのIWSLT 2017共有タスクへの参加をまとめています。 当社の提出物は、5つの言語(英語、オランダ語、ドイツ語、イタリア語、ルーマニア語)で訓練された2つの多言語システムに依存しています。 1つ目は、5つの言語のすべての可能な組み合わせを処理する20言語方向モデルです。 第2の多言語システムは、16の方向のみでトレーニングされ、他はゼロショット翻訳方向として残されます(つまり、トレーニング時には見られない言語ペアでのより複雑な推論タスクを表します)。 具体的には、ゼロショットのルートはオランダ語$ドイツ語とイタリア語$ルーマニア語( 4つの言語の組み合わせになります)です。 これらのシステムを訓練するために使用される並列データの量が少ないにもかかわらず、結果として生じる多言語モデルは、(すなわち、より有利な条件で)すべての言語ペアに対して別々に訓練されたモデルと比較しても効果的である。 ベースライン単一言語ペアシステムと比較し、2つの多言語モデルの結果を示す。 特に、4つのゼロショット方向に焦点を当て、小さなデータで訓練された多言語モデルが合理的な結果を提供する方法を示します。 さらに、ソース!ピボット!ターゲット翻訳での推論のためのブリッジ/ピボット言語の使用方法を調べます。 多言語モデルは、低リソース設定でゼロショット翻訳を可能にする代替手段となり得る。Abstract
Nyural Mas Terjamahan kang diputamong karo akeh bantuan karo pak-pakan kelas kuwi tindakan karo alêran langkung sampek uga tindakan Ngawe Perintah kanggo ngerasakno multilengkang seneng nggambar, akeh gunakake diputasane FBK ning mulai nggawe IWSLT 1997. Rasané awak dhéwé kuwi sistem sing karo akeh langkung sampeyan sing tukang limo (Inggris, Pak-alaman, Itilyan, lan rumani). Awak dhéwé éntuk sistem sing sampeyan dudu, sing wis ngerasakno ngono akeh basa luwih. Tulung multilengkang sistem punika dipoleh kanggo 16 sampeyan Wuhanjenengan langkung weruh-wae, kita sampeyan 0$Kemerupan karo Gampang Dolanan karo Itilyan (sing paling upat karo akeh basa). Ngayon ngrebut sistem sing paling-perusahaan nganggo akeh dadi, dadi nggawe sistem iki, dadi supoyo model multilenguang sing dirangkap, dadi kapan karo model sing bisa seperakan kanggo sabên langa sampeyan (ta.d. sakjane kapan supoyo kapan). Awak dhéwé nggerarané karo sistem sing nyeasakno karo sistem sing sampeyan karo perusahaan langgar sampeyan. maneh YB model sing paling-lengkang iso dianggo oleh operasi kanggo ngabah tarjamahan nulAbstract
Name ამ მრავალენგური გადაწყვეტის სენარიოში, ეს სამუშაო სამუშაო დაწყვეტილება FBK-ის გადაწყვეტილება IWSLT 2017 სამუშაო სამუშაო სამუშაოში. ჩვენი მხოლოდ ენერგიური სისტემაში გამოყენებული ორი მრავალური ენერგიური სისტემაში (ანგლისური, ჰოლდენური, გერმანური, თრალიანი და პრომინური). პირველი არის 20 ენის მიერ მოდელი, რომელიც ყველაფერი შესაძლებელი ხუთი ენების კომბიზაციების შესაძლებელება. მეორე მრავალენგური სისტემა მხოლოდ 16 მხარეს დაწყებულია, სხვების გადასვლა როგორც 0-სტრიქტური დაწყება (მაგალითად, უფრო კომპლექტური ინფრენციის რაოდენობა ენგური ზო უფრო განსაკუთრებულია, ჩვენი ნულ სტრიქტის დაწყება დონდენური და იტალიანური დონდენური დონდენური და პრომინური დონდენური დონდენური დ ამ სისტემებში გამოყენებული პარალელური მონაცემების პარალელი რაოდენობაც, შემდეგ მრავალური მოდელები ეფექტიურია, მაგრამ მრავალური მოდელები განსხვავებული მოდელთან განსხვავებულად განსხვავებული ყოველ ჩვენ შემდგომარებით და ჩვენ გამოჩვენებთ ორი მრავალენგური მოდელების შედეგები ერთი ენგური ზოგური სისტემებისთვის. განსაკუთრებით, ჩვენ ფონსკურებთ ოთხი ნულ სტრიქტის მიღებზე და ჩვენ გამოჩვენებთ, როგორ მრავალენგური მოდელი, როგორ მცირე მონაცემებით განაკეთებული დამატებით, ჩვენ განსხვავებთ თუ როგორ კონფიგურაციის გამოყენება (მაგალითად, კონფიგურაციის/pivot ენერგიის გამოყენება ინფრენციაში!pivot!target translations) გამოყენება მრავალენგური მოდელი შეიძლება იყოს ალტენტიფიკაცია, რომელიც 0- სტრიქტის გადაწყვეტილების შესაძლებელია მარტივი რესურსის შესაძლებელად.Abstract
Нейрондық машинаның аудармасы бір көп тіл үлгісін қолдану үшін бірнеше тіл бағыттарына аудару және бірнеше тіл бағыттарына аудару мүмкіндігін қолдануға болады. Бұл көптілік аудармалардың сценариясына көздейтін жұмыс жұмысын 2017 жылдың IWSLT тапсырмасында FBK қатынасын ортақтастырады. Біздің келтіріміз бес тілде оқылған екі көп тіл жүйесіне тәуелді (ағылшын, немецтер, немецтер, итальян және руманша). Біріншісі - 20 тіл бағыттау үлгісі. Бұл бес тілдердің барлық мүмкін жинақтарын басқару үлгісі. Екінші көптілік жүйесі тек 16 бағыттарда оқылған, басқаларды нөл түрінде аудару бағыттары ретінде қалдырылады (мысалы, тіл екеуінде көрілмеген көпшілік тапсырмасы болады). Біздің нөл түрлі бағыттарымыз немецтер және итальян$Румынша (төрт тіл комбинациясы болады). Бұл жүйелерді оқыту үшін қолданылатын параллель деректердің кішкентай саны қарамастан, көптілік үлгілері әрбір тіл жиі үлгілеріне салыстырылған үлгілерімен әртүрлі салыстырылады (мысалы, көп жақсы шарт Біз екі көп тіл моделінің нәтижесін негізгі тіл жүйелеріне қарсы салыстырып көрсетедік. Мәселен, біз төрт нөл түрлі бағыттарына назар аударып, кішкентай деректердің бірнеше тілдік үлгісін қалай оқытуға мүмкін нәтижелерді көрсетуге болады. Қосымша, біз көпшілік көпшілік/pivot тілді көпшілік көпшілігін көпшілік көпшілігін қолданатын (мысалы, көпшілік көпшілігін қолданатын кө көп тілдік үлгісі нөл түрлі ресурстарды төмен орнату үшін альтернативті болуы мүмкін.Abstract
신경기계번역은 단일한 다언어 모델을 사용하여 여러 언어의 방향에서 추리와 다언어 지식의 이동을 할 수 있다는 것이 증명되었다.이 작업은 이런 다국어 번역 장면에 중점을 두고 FBK가 IWSLT 2017 공유 임무에 참여한 상황을 정리했다.우리가 제출한 문서는 두 개의 다중 언어 시스템에 의존하는데, 각각 다섯 가지 언어 (영어, 네덜란드어, 독일어, 이탈리아어, 루마니아어) 의 교육을 받았다.첫 번째는 20개 언어의 방향 모델로 다섯 개 언어의 모든 가능한 조합을 처리한다.두 번째 다중 언어 시스템은 16개 방향에서만 훈련을 하고 다른 방향은 0렌즈 번역 방향(즉 훈련할 때 보지 못한 언어 대조에서 더욱 복잡한 추리 임무를 나타낸다)이다.더 구체적으로 말하자면, 우리의 제로 포 방향은 네덜란드어 $독일어 $이탈리아어 $루마니아어 (네 가지 언어의 조합을 초래한 것) 이다.비록 이러한 시스템을 훈련하는 데 사용되는 병행 데이터량은 매우 작지만 얻은 다중 언어 모델은 효과적이며, 각 언어를 대상으로 각각 훈련하는 모델에 비해 (즉 더욱 유리한 조건에서) 효과적이다.우리는 두 가지 다중 언어 모델과 기본 단일 언어가 시스템에 대한 결과를 비교하고 보여 주었다.특히 우리는 네 개의 영포 방향을 주목하고 작은 데이터로 훈련된 다국어 모델이 합리적인 결과를 어떻게 제공하는지 보여주었다.그 밖에 우리는 어떻게 사용하는지 연구했다 다중 언어 모델은 저자원 환경에서 제로 렌즈 번역을 실현하는 대체 방안이 될 수 있다.Abstract
Nustatyta, kad neurologinis mašinų vertimas leidžia daryti išvadas ir tarpkalbinius žinių perdavimus įvairiomis kalbomis naudojant vieną daugiakalbį model į. Atsižvelgiant į šį daugiakalbį vertimo scenarijų, šiame darbe apibendrinamas FBK dalyvavimas bendroje 2017 m. IWSLT užduotyje. Mūsų pastabos grindžiamos dviem daugiakalbėmis sistemomis, mokomomis penkiomis kalbomis (anglų, olandų, vokiečių, italų ir rumunų kalbomis). Pirmasis yra 20 kalbų krypties model is, kuris apima visus galimus penkių kalbų derinius. Antroji daugiakalbė sistema mokoma tik 16 krypči ų, o kitos – nulinio vertimo krypčių (t. y. yra sudėtingesnė išvadų užduotis kalbų poroms, kurios mokymo metu nenustatytos). More specifically, our zero-shot directions are Dutch$German and Italian$Romanian (resulting in four language combinations). Nepaisant nedidelio lygiagreči ų duomenų, naudojamų mokymui šiose sistemose, gaunami daugiakalbiai modeliai yra veiksmingi, net palyginti su modeliais, parengtais atskirai kiekvienai kalbų porai (t. y. palankesnėmis sąlygomis). Palyginame ir parodysime dviejų daugiakalbių modelių rezultatus su pradinėmis vienos kalbos poros sistemomis. Ypač daugiausia dėmesio skiriame keturioms nulinės nuotraukos kryptims ir parodomi, kaip daugiakalbis modelis, parengtas naudojant mažus duomenis, gali duoti pagrįstų rezultatų. Be to, mes tiriame, kaip apsisukti (t. y. naudoti tilto ir (arba) apsisukti kalbą, kad būtų galima daryti i švadą source!pivot!target vertimuose) naudojant daugiakalbis modelis gali būti alternatyva, leidžianti nulinį vertimą mažai išteklių.Abstract
Се покажа дека неуралната машинска превод овозможува конференција и трансференција на меѓујазичното знаење преку повеќе јазички насоки користејќи еден мултијазичен модел. Со фокус на овој мултијазичен сценарио за превод, оваа работа го резимира учеството на ФБК во заедничката задача на IWSLT 2017 година. Нашите поднесувања зависат од два мултијазични системи обучени на пет јазици (англиски, холандски, германски, италијански и романски). Првиот е модел на насока на 20 јазици, кој ги води сите можни комбинации на петте јазици. Вториот мултијазичен систем е обучен само во 16 насоки, оставајќи ги другите како нуларни насоки за превод (т.е. претставувајќи покомплексна задача за конференција на јазичките парови кои не се гледаат во време на обуката). Поконкретно, нашите нуларни насоки се холандски долари германски и италијански долари романски (што резултира со четири комбинации на јазик). И покрај малата количина паралелни податоци кои се користат за обуката на овие системи, резултатите на мултијазичните модели се ефикасни, дури и во споредба со моделите обучени одделно за секој јазички пар (т.е. во поголеми услови). We compare and show the results of the two multilingual models against a baseline single language pair systems. Особено, се фокусираме на четирите нулта насоки и покажуваме како мултијазичен модел обучен со мали податоци може да обезбеди разумни резултати. Покрај тоа, истражуваме како вртење (т.е. користење јазик на мост/вртење за конференција во извор!pivot!target преводи) користење на мултијазичкиот модел може да биде алтернатива за овозможување на превод со нула снимка во ниско поставување на ресурси.Abstract
ന്യൂറല് മെഷീന് പരിഭാഷപ്പെടുത്തിയിരിക്കുന്നു. ഒരു പല ഭാഷ മോഡല് ഉപയോഗിക്കുന്നതിനുമുള്ള അപരിഹാരം പ്രാവര്ത്തികമാക്കു ഈ പല ഭാഷകങ്ങളുടെ പരിഭാഷയുടെ കാര്യത്തില് ശ്രദ്ധിക്കുന്നു. ഈ ജോലി എഫ്ബിക്കിന്റെ പങ്കെടുക്കുന്നത് ഐഡബിഎസ്എല്ടി 2017 പങ അഞ്ചു ഭാഷകളില് പഠിപ്പിക്കപ്പെട്ട രണ്ടു പല ഭാഷ സിസ്റ്റം നമ്മുടെ കീഴ്പ്പെടുത്തിയിരിക്കുന്നു. ഇംഗ്ലീഷ്, The first one is a 20 language direction model, which handles all possible combinations of the five languages. രണ്ടാമത്തെ മള്ഭാഷാ സിസ്റ്റം 16 ദിശയില് മാത്രമേ പരിശീലിക്കപ്പെടുന്നുള്ളൂ, മറ്റുള്ളവരെ പൂജ്യത്തില് വെടിവെക്കുന്ന വഴികളായി ഉപേക്ഷ കൂടുതല് പ്രത്യേകിച്ച്, ഞങ്ങളുടെ പൂജ്യ വെടിവെക്കപ്പെട്ട വഴികള് ഡച്ച് ഡോളര് ജര്മ്മന് ഡോളര്മാനിയനും ഇറ്റാലിയന് ഡ ഈ സിസ്റ്റം പരിശീലനത്തിനായി ഉപയോഗിക്കുന്ന അളവിലുള്ള ഡേറ്റായിട്ടും സംഭവിച്ചാലും അതിന്റെ ഫലമായി പല ഭാഷ മോഡലുകള് പ്രാവര്ത്തമാകുന്നു. എല്ലാ ഭാഷ ജോ നമ്മള് ഒരു ബേസ്ലൈനിലെ ഒരു ഭാഷ ജോടി സിസ്റ്റമുകള്ക്കെതിരായി രണ്ട് മാള്ട്ടില് ഭാഷ മോഡലുകളുടെ ഫലങ്ങള് താല പ്രത്യേകിച്ച്, നമ്മള് നാല് പൂജ്യത്തിലെ വെടിവെക്കപ്പെട്ട വഴികളിലേക്ക് ശ്രദ്ധിക്കുകയും, ചെറിയ വിവരങ്ങള് കൊണ്ട് പഠിപ് Furthermore, we investigate how pivoting (i.e using a bridge/pivot language for inference in a source!pivot!target translations) using a ഒരു കുറഞ്ഞ വിഭവങ്ങളുടെ സജ്ജീകരണത്തില് സൂക്ഷിപ്പിക്കുന്നതിനുള്ള ഒരു മാറ്റം പല ഭാഷ മാതൃകയാകുന്നു.Abstract
Цөмийн машины хөгжлийн хөгжлийг олон хэл загварыг ашиглан халдвар болон олон хэл загвар руу шилжүүлэх боломжтой болгодог. Энэ олон хэлний орчуулалтын хувилбарын тухай анхаарлаа, энэ ажил 2017 оны IWSLT-д FBK-ын оролцоог хуваалцах ажлыг илтгэдэг. Бидний сургалтыг таван хэл дээр сургалтын хоёр олон хэл системээр үнэлдэг. Эхний нэг бол 20 хэл чиглэлийн загвар юм. Энэ нь таван хэлний бүх боломжтой нийлүүлэлтийг удирддаг. Хоёр дахь олон хэлний систем нь зөвхөн 16 хэлбэрээр суралцагдсан, бусад хүмүүсийг тэгш хэлбэрээр хөрөнгө оруулах загвар болгож байна (яг л суралцах үед харагдахгүй хэлний хоёр дээр илүү нарийн төвөгтэй Илүү тодорхой нь, бидний 0-р зураг нь Герман болон Италиан доллар румын доллар юм. Эдгээр системүүд сургалтын тулд хэрэглэгддэг жижиг параллел өгөгдлийн хэмжээсүүд ч үр дүнтэй олон хэл загварууд нь үр дүнтэй. Хэдийгээр хэл хоёр бүрийн хувьд сургалтын загваруудыг харьцуулахад (яг л илүү сайн нөх Бид олон хэл загварын үр дүнг нэг хэл хоёр системтэй харьцуулж, харуулж байна. Ялангуяа бид дөрвөн зураг зураг дээр анхаарлаа төвлөрүүлж, жижиг өгөгдлийн сургалтын олон хэл загвар хэрхэн боловсруулж чадна гэдгийг харуулж байна. Дараа нь, бид хэрхэн шийдвэрлэхийг шалгаж байна (яг эх үүсвэрт халдварын тулд көп/pivot хэл хэрхэн ашиглаж байгааг шалгаж байна) олон хэл загварын загвар нь бага баялаг боловсруулах боломжтой болгодог.Abstract
Terjemahan Mesin Neural telah dipaparkan untuk membolehkan kesimpulan dan pemindahan pengetahuan saling bahasa melalui arah berbilang bahasa menggunakan model berbilang bahasa tunggal. Berfokus pada skenario terjemahan berbilang bahasa ini, kerja ini mengungkapkan perkongsian FBK dalam tugas kongsi IWSLT 2017. Penghantaran kami bergantung pada dua sistem berbilang bahasa yang dilatih dalam lima bahasa (Bahasa Inggeris, Belanda, Jerman, Itali, dan Romani). Yang pertama adalah model arah 20 bahasa, yang mengendalikan semua kombinasi yang mungkin dari lima bahasa. Sistem berbilang bahasa kedua hanya dilatih pada 16 arah, meninggalkan yang lain sebagai arah terjemahan-sifar (iaitu mewakili tugas kesimpulan yang lebih kompleks pada pasangan bahasa yang tidak dilihat pada masa latihan). Lebih khusus, arah 0-shot kami adalah Dutch$German dan Italian$Romanian (yang menghasilkan empat kombinasi bahasa). Walaupun jumlah kecil data selari yang digunakan untuk melatih sistem in i, model berbilang bahasa yang menghasilkan adalah berkesan, walaupun dibandingkan dengan model yang dilatih secara terpisah untuk setiap pasangan bahasa (iaitu dalam keadaan yang lebih baik). Kami membandingkan dan menunjukkan hasil dua model berbilang bahasa melawan sistem asas pasangan bahasa tunggal. Terutama, kita fokus pada empat arah tembakan sifar dan menunjukkan bagaimana model berbilang bahasa dilatih dengan data kecil boleh memberikan keputusan yang masuk akal. Selain itu, kami menyelidiki bagaimana pivot (iaitu menggunakan bahasa jambatan/pivot untuk kesimpulan dalam sumber!pivot!target terjemahan) menggunakan model berbilang bahasa boleh menjadi alternatif untuk benarkan terjemahan-tembakan sifar dalam tetapan sumber rendah.Abstract
Neural Machine Translation has been shown to enable inference and cross-lingual knowledge transfer across multiple language directions using a single multilingual model. Filwaqt li tiffoka fuq dan ix-xenarju ta’ traduzzjoni multilingwi, dan ix-xogħol jagħti sommarju tal-parteċipazzjoni tal-FBK fil-kompitu kondiviż tal-IWSLT 2017. Is-sottomissjonijiet tagħna jiddependu fuq żewġ sistemi multilingwi mħarrġa fuq ħames lingwi (Ingliż, Olandiż, Ġermaniż, Taljan u Rumen). L-ewwel wieħed huwa mudell ta’ direzzjoni ta’ 20 lingwa, li jimmaniġġja l-kombinazzjonijiet kollha possibbli tal-ħames lingwi. It-tieni sistema multilingwi hija mħarrġa biss f’16-il direzzjoni, u l-oħrajn jitħallew bħala direzzjonijiet ta’ traduzzjoni mingħajr skop (jiġifieri jirrappreżentaw kompitu ta’ inferenza aktar kumpless fuq pari lingwistiċi li ma jidhrux fil-ħin tat-taħriġ). B’mod aktar speċifiku, id-direzzjonijiet tagħna mingħajr skop huma Olandiżi$Ġermaniżi u$Rumeni$Taljani (li jirriżultaw f’erba’ kombinazzjonijiet lingwistiċi). Minkejja l-ammont żgħir ta’ dejta parallela użata għat-taħriġ ta’ dawn is-sistemi, il-mudelli multilingwi li jirriżultaw huma effettivi, anki meta mqabbla ma’ mudelli mħarrġa separatament għal kull par lingwistiku (jiġifieri f’kundizzjonijiet aktar favorevoli). Aħna nqabblu u nuru r-riżultati taż-żewġ mudelli multilingwi ma’ sistemi ta’ pari ta’ lingwa waħda fil-linja bażi. B’mod partikolari, a ħna niffokaw fuq l-erba’ direzzjonijiet mingħajr skop u nuru kif mudell multilingwi mħarreġ b’dejta żgħira jista’ jipprovdi riżultati raġonevoli. Barra minn hekk, ninvestigaw kif il-pivot (jiġifieri l-użu ta’ lingwa ta’ pont/pivot għall-inferenza f’traduzzjonijiet ta’ sors!pivot!target) juża mudell multilingwi jista’ jkun alternattiva biex jippermetti traduzzjoni mingħajr skop f’ambjent baxx ta’ riżorsi.Abstract
Het is aangetoond dat neuronale machinevertaling inferentie en cross-linguale kennisoverdracht in meerdere taalrichtingen mogelijk maakt met behulp van één meertalig model. Dit werk richt zich op dit meertalige vertaalscenario en vat de deelname van FBK aan de gedeelde taak IWSLT 2017 samen. Onze inzendingen zijn gebaseerd op twee meertalige systemen die zijn opgeleid in vijf talen (Engels, Nederlands, Duits, Italiaans en Roemeens). De eerste is een 20-talenrichtingsmodel, dat alle mogelijke combinaties van de vijf talen behandelt. Het tweede meertalige systeem wordt alleen getraind op 16-richtingen, waarbij de andere als nul-shot vertaalrichtingen worden gelaten (d.w.z. een complexere inferentietaak voor taalparen die tijdens de training niet worden gezien). Meer specifiek zijn onze zero-shot richtingen Nederlands$Duits en Italiaans$Roemeens (resulterend in vier taalcombinaties). Ondanks de geringe hoeveelheid parallelle gegevens die voor de training van deze systemen worden gebruikt, zijn de resulterende meertalige modellen effectief, zelfs in vergelijking met modellen die afzonderlijk voor elk taalpaar worden getraind (d.w.z. in gunstigere omstandigheden). We vergelijken en tonen de resultaten van de twee meertalige modellen met een baseline single language pair systemen. We richten ons vooral op de vier zero-shot richtingen en laten zien hoe een meertalig model getraind met kleine data redelijke resultaten kan opleveren. Verder onderzoeken we hoe pivoting (d.w.z. gebruik maken van een bridge/pivot taal voor inferentie in een source!pivot!target vertalingen) met behulp van een Een meertalig model kan een alternatief zijn om zero-shot vertaling mogelijk te maken in een lage resource setting.Abstract
Nøyralmaskineomsetjing er vist for å slå på infeksjon og krysspråk kunnskap over fleire språkkretningar med ein enkelt multispråk modell. Ved å fokusera på denne fleirspråksomsetjingsformasjonen, samanserer dette arbeidet FBK med deltaka i delt oppgåva IWSLT 2017. Våre søknader er er på to fleirspråksystemet trengte på fem språk (engelsk, nederlandsk, tysk, italsk og rumensk). Den første er eit 20 språk retningsmodul, som handterar alle moglege kombinasjonane av fem språk. Den andre fleirspråkssystemet er berre trengd på 16 retningar, og dei andre vert laga som retningar for omsetjingar med null-shot (t.d. som representerer e i meir komplisert inferens oppgåve på språkspar som ikkje er sett på treningstid). Spesifikke er at våre null- retningar er nederlandsk dollar og italiansk dollar romnisk (som følgjer med fire språkkkombinasjonar). Til tross på det lite mengda parallelle data som vert brukte for å trenja desse systema, er det resulterte fleirspråk modelane effektiv, sjølv i sammengd med modelane som vert trenta separe for kvar språk par (dvs. i meir favorittlege vilkåra). Vi sammenliknar og viser resultatet av dei to fleirspråk modelane mot ein grunnlinje enkelt språk-par-systemet. I særskilt kan vi fokusere på fire retningane med nullsatt, og vise korleis ein fleirspråk modell trent med små data kan gje riktige resultat. I tillegg undersøker vi korleis pivoting (t.d. brukar e in britt/pivotspråk for inferens i ein kjelde!pivot!målsetting) med ein Fleirspråk modell kan vera ein alternativ for å slå på omsetjing av null- bilde i ei låg ressursinnstilling.Abstract
Wykazano, że neuronalne tłumaczenie maszynowe umożliwia wnioskowanie i transfer wiedzy między językami w wielu kierunkach językowych za pomocą jednego wielojęzycznego modelu. Koncentrując się na tym wielojęzycznym scenariuszu tłumaczenia, niniejsza praca podsumowuje udział FBK w wspólnym zadaniu IWSLT 2017. Nasze zgłoszenia opierają się na dwóch wielojęzycznych systemach przeszkolonych w pięciu językach (angielskim, holenderskim, niemieckim, włoskim i rumuńskim). Pierwszym z nich jest 20-sty model kierunku językowego, który obsługuje wszystkie możliwe kombinacje pięciu języków. Drugi wielojęzyczny system jest trenowany tylko na 16-kierunkach, pozostawiając pozostałe jako kierunki tłumaczenia zero-shot (tj. reprezentujące bardziej złożone zadanie wnioskowania na pary językowe niewidziane w czasie szkolenia). Dokładniej, nasze kierunki zero-shot to holenderski$niemiecki i włoski$rumuński (skutkując czterema kombinacjami językowymi). Pomimo niewielkiej ilości danych równoległych wykorzystywanych do szkolenia tych systemów, powstałe modele wielojęzyczne są skuteczne, nawet w porównaniu z modelami szkolonymi oddzielnie dla każdej pary językowej (tj. w bardziej korzystnych warunkach). Porównujemy i pokazujemy wyniki dwóch modeli wielojęzycznych z podstawowymi systemami pary jednoosobowej. W szczególności skupiamy się na czterech kierunkach zero-shot i pokazujemy, jak wielojęzyczny model trenowany z małymi danymi może zapewnić uzasadnione rezultaty. Ponadto badamy, jak pivoting (tj. używanie języka bridge/pivot do wnioskowania w tłumaczeniach source!pivot!target) przy użyciu Model wielojęzyczny może być alternatywą umożliwiającą tłumaczenie zero-shot przy niskim poziomie zasobów.Abstract
A tradução automática neural demonstrou permitir a inferência e a transferência de conhecimento em vários idiomas em várias direções de idioma usando um único modelo multilíngue. Com foco nesse cenário de tradução multilíngue, este trabalho resume a participação do FBK na tarefa compartilhada do IWSLT 2017. Nossos envios contam com dois sistemas multilíngues treinados em cinco idiomas (inglês, holandês, alemão, italiano e romeno). O primeiro é um modelo de direção de 20 idiomas, que lida com todas as combinações possíveis dos cinco idiomas. O segundo sistema multilíngue é treinado apenas em 16 direções, deixando os outros como direções de tradução de tiro zero (ou seja, representando uma tarefa de inferência mais complexa em pares de idiomas não vistos no momento do treinamento). Mais especificamente, nossas rotas de tiro zero são holandês$alemão e italiano$romeno (resultando em quatro combinações de idiomas). Apesar da pequena quantidade de dados paralelos usados para treinar esses sistemas, os modelos multilíngues resultantes são eficazes, mesmo em comparação com modelos treinados separadamente para cada par de idiomas (ou seja, em condições mais favoráveis). Comparamos e mostramos os resultados dos dois modelos multilíngues em relação a sistemas de par de idiomas únicos de linha de base. Particularmente, focamos nas quatro direções de tiro zero e mostramos como um modelo multilíngue treinado com dados pequenos pode fornecer resultados razoáveis. Além disso, investigamos como pivotar (ou seja, usar uma linguagem de ponte/pivot para inferência em traduções de origem!pivot!destino) usando um O modelo multilíngue pode ser uma alternativa para habilitar a tradução de tiro zero em uma configuração de poucos recursos.Abstract
S-a demonstrat că traducerea automată neurală permite deducerea și transferul de cunoștințe între limbi în mai multe direcții lingvistice folosind un singur model multilingv. Concentrându-se pe acest scenariu de traducere multilingvă, această lucrare rezumă participarea FBK la sarcina comună IWSLT 2017. Cererile noastre se bazează pe două sisteme multilingve instruite pe cinci limbi (engleză, olandeză, germană, italiană și română). Primul este un model de direcție în 20 de limbi, care gestionează toate combinațiile posibile ale celor cinci limbi. Al doilea sistem multilingv este instruit numai pe 16 direcții, lăsând celelalte ca direcții de traducere zero-shot (adică reprezintă o sarcină de deducere mai complexă asupra perechilor de limbi care nu au fost văzute în timpul antrenamentului). Mai exact, direcțiile noastre zero-shot sunt olandeză$germană și italiană$română (rezultând în patru combinații de limbi). În ciuda cantității mici de date paralele utilizate pentru instruirea acestor sisteme, modelele multilingve rezultate sunt eficiente, chiar și în comparație cu modelele instruite separat pentru fiecare pereche de limbi (adică în condiții mai favorabile). Comparăm și prezentăm rezultatele celor două modele multilingve în raport cu sistemele de bază unice perechi de limbi. În special, ne concentrăm pe cele patru direcții zero-shot și arătăm cum un model multilingv instruit cu date mici poate oferi rezultate rezonabile. Mai mult, investigăm modul în care pivotarea (adică folosirea unui limbaj bridge/pivot pentru inferență într-o traducere sursă!pivot!target) folosind un Modelul multilingv poate fi o alternativă pentru a activa traducerea zero-shot într-o setare cu resurse reduse.Abstract
Было показано, что нейронный машинный перевод позволяет делать выводы и передавать знания на нескольких языках, используя одну многоязычную модель. Ориентируясь на этот многоязычный сценарий перевода, эта работа суммирует участие ФБК в совместной задаче IWSLT 2017. Наши представления основаны на двух многоязычных системах, подготовленных на пяти языках (английском, голландском, немецком, итальянском и румынском). Первый - это модель направления языка 20, которая обрабатывает все возможные комбинации пяти языков. Вторая многоязычная система обучается только по 16 направлениям, оставив остальные как нулевые направления перевода (то есть представляя собой более сложную задачу вывода по языковым парам, которые не видны во время обучения). Более конкретно, нашими направлениями с нулевым выстрелом являются голландский$ немецкий и итальянский$ румынский (что приводит к четырем языковым комбинациям). Несмотря на небольшое количество параллельных данных, используемых для обучения этих систем, полученные многоязычные модели эффективны, даже по сравнению с моделями, обученными отдельно для каждой языковой пары (т.е. в более благоприятных условиях). Мы сравниваем и показываем результаты двух многоязычных моделей с базовыми системами одной языковой пары. В частности, мы сосредоточимся на четырех направлениях с нулевым выстрелом и покажем, как многоязычная модель, обученная с небольшими данными, может обеспечить разумные результаты. Кроме того, мы исследуем, как поворот (т.е. использование языка моста/поворота для вывода в источнике!pivot!целевых переводов) с использованием многоязычная модель может быть альтернативой для обеспечения перевода с нулевым выстрелом в условиях низкого ресурса.Abstract
න්යූරල් මැෂින් පරිවර්තනය පෙන්වන්න පුළුවන් විදියට වැඩි භාෂාවක් පරිවර්තනය සහ වැඩි භාෂාවක් දන මේ ගොඩක් භාෂාවක් වාර්තාවක් සිනාරියෝ, මේ වැඩේ FBK ගේ සම්බන්ධ වැඩක් IWSLT 2017 වාර්තාවේ සම්බන්ධ වැඩක් වෙන් අපේ පිළිබඳුම් විශ්වාස කරන්නේ බොහොම භාෂාවක් පහත් භාෂාවට ප්රධානය කරලා තියෙන්නේ (ඉංග්රීසි මුලින්ම භාෂාව ප්රමාණයක් 20 ක්, ඒකෙන් භාෂාව පහයේ සියළුම සම්බන්ධය කරනවා. දෙවෙනි විශේෂ භාෂාවක් පද්ධතිය ප්රධාන 16 විතරයි ප්රධාන කරලා තියෙන්නේ, අනිත් අනිත් අනිවාර්යාත්මක ප්රධානයක් සුරූ තව විශේෂයෙන්, අපේ ශූර්ණ ශූර්ණ ප්රතික්රියාත්මක ප්රතික්රියාත්මක ජර්මන් ඩොලර්මාන් සහ ඉතාල මේ පද්ධතිය ප්රධානය කරන්න පුළුවන් සාමාන්ය දත්ත ප්රමාණය කරලා තියෙන්නේ නැත්නම්, ප්රතිචාර භාෂාවික මොඩේල් ප්රශ්ණයි, හැම භාෂ අපි මුළු භාෂාවක් දෙකක් ගැන ප්රතිචාරයක් පෙන්වන්න සහ ප්රතිචාරයක් පෙන්වන්න. විශේෂයෙන්ම, අපි සුන්ධ වෙඩි තියෙන පැත්තේ හතරක් අවධානය කරනවා ඒ වගේම පෙන්වන්න පුළුවන් පොඩි භාෂාවක් තවත්, අපි පරීක්ෂණය කරනවා කොච්චර පිවෝට් කරන්නේ කොහොමද කියලා ගොඩක් භාෂාවක් මොඩල් වෙනස් වෙන්න පුළුවන් ශූන්ය- ෂෝට් වාර්තාවක් අවශ්ය කරන්න.Abstract
Pokazano je, da nevralni strojni prevod omogoča sklepanje in medjezični prenos znanja v več jezikovnih smereh z uporabo enega večjezičnega modela. S poudarkom na tem večjezičnem prevajalskem scenariju povzema sodelovanje FBK v skupni nalogi IWSLT 2017. Naše prijave temeljijo na dveh večjezičnih sistemih, usposobljenih v petih jezikih (angleščina, nizozemščina, nemščina, italijanščina in romunščina). Prvi je model 20 jezikovnih smeri, ki obravnava vse možne kombinacije petih jezikov. Drugi večjezični sistem se usposablja samo na 16 smereh, ostali pa ostanejo brez smeri prevajanja (tj. predstavlja bolj zapleteno nalogo sklepanja o jezikovnih parih, ki jih v času treninga niso videli). Natančneje, naša ničelna smer sta nizozemski$nemški in italijanski$romunski (kar pomeni štiri jezikovne kombinacije). Kljub majhni količini vzporednih podatkov, ki se uporabljajo za usposabljanje teh sistemov, so nastali večjezični modeli učinkoviti tudi v primerjavi z modeli, ki se usposabljajo ločeno za vsak jezikovni par (tj. v ugodnejših pogojih). Rezultate dveh večjezičnih modelov primerjamo in prikazujemo z osnovnimi sistemi enojnega jezikovnega pare. Osredotočamo se zlasti na štiri smeri brez strela in pokažemo, kako lahko večjezični model, usposobljen z majhnimi podatki, zagotovi razumne rezultate. Poleg tega raziskujemo, kako pivoting (tj. uporaba bridge/pivot jezika za sklepanje v prevodih source!pivot!target) z uporabo Večjezični model je lahko alternativa za omogočanje ničelnega prevajanja v nastavitvi z nizkimi viri.Abstract
Turjumidda baabuurta naafada ah waxaa lagu muujiyey si uu u fududeeyo in aqoonta luuqadaha lagu soo wareejiyo hagitaanka luuqadaha kala duduwan oo lagu isticmaalo tusaale keliya oo luuqad kala duduwan. Focus on scenarimadan turjumista luuqadaha kala duduwan, kaasi shaqadu wuxuu ku summariyaa qayb-qaadashada FBK ee ka qayb-qaadashada shaqada IWSLT 2017. Suuriyadayadu waxay ku xiran yihiin laba nidaam oo luuqado kala duduwan oo lagu tababaray shan luuqadood (Ingiriis, Dutch, Jarmal, Talyaani iyo Romaniyan). Kii ugu horreeya waa tilmaamo ku hagista 20 luuqadood, kaas oo maamula dhammaan isku xirka shanta luqadood oo suurtagal ah. Tirada labaad oo luuqadaha kala duduwan waxaa lagu tababaraa 16 hagis oo kaliya, kuwa kalena waxaa lagu hagaa hagitaanka turjumidda nuqulka (waa tusaale ahaan shaqo ka kooban oo ku saabsan labo luuqadeed oo aan xilliga waxbarashada lagu arag). Si gaar ah, hagitaanadeenna aan zero lagu dhuftay waa Yuhuud Jarmal iyo Talyaani (sababtoo ah afar luuqadood). Inta kastoo ay tirada u yar yihiin macluumaadka lambarka ah oo lagu isticmaali karo waxbarashada nidaamkan, tusaalaha luuqadaha kala duduwan ayaa faa’iido leh, xitaa isbarbarta modellada loo baro si gooni ah labada luqad oo dhan (tusaale ahaan xaaladaha aad u jecel tahay). Waxaynu isbarbardhignaa oo tusnaynaa resultimaha labada tusaale oo luuqad kala duduwan oo ka gees ah nidaamka labada luqad oo kaliya. Si gaar ah, waxaynu ku kalsoonaynaa afartii hagitaan oo noocyo ah, waxaana tusaynaa siduu qaab u baran karo tusaale luuqad kala duduwan oo macluumaad yaru u sameyn karo resulto macquul ah. Furthermore, waxaynu baaritaan sidoo kale codeynta (tusaale ahaan luqada sawirka/pivot-ka-isticmaalka cudurka!pivot!target turjumaan) Tusaale luuqado kala duduwan waxay noqon kartaa mid bedel ah oo ku habboon tarjumaadda nooca ah oo ku qoran saxda nooca.Abstract
Përkthimi i Makinës Neurale është treguar për të mundësuar përfundimin dhe transferimin e njohurive ndërgjuhësore nëpërmjet drejtimeve të shumëgjuhës duke përdorur një model të vetëm shumëgjuhës. Duke u përqëndruar në këtë skenar përkthimi shumëgjuhës, ky punë përmbledh pjesëmarrjen e FBK në detyrën e përbashkët të IWSLT 2017. Paraqitjet tona mbështeten në dy sisteme shumëgjuhësore të trajnuar në pesë gjuhë (anglisht, hollandez, gjerman, italian dhe rumun). E para është një model drejtimi 20 gjuhësh, i cili trajton të gjitha kombinimet e mundshme të pesë gjuhëve. Sistemi i dytë shumëgjuhës është trajnuar vetëm në 16 drejtime, duke i lënë të tjerët si drejtime përkthimi zero-shot (pra përfaqëson një detyrë më komplekse inference në çiftet gjuhësh që nuk janë parë në kohën e trajnimit). More specifically, our zero-shot directions are Dutch$German and Italian$Romanian (resulting in four language combinations). Pavarësisht nga sasia e vogël e të dhënave paralele të përdorura për trajnimin e këtyre sistemeve, modelet shumëgjuhësore që rezultojnë janë efektive, edhe në krahasim me modelet e trajnuara veçanërisht për çdo çift gjuhësh (pra në kushte më të favorshme). Ne krahasojmë dhe tregojmë rezultatet e dy modeleve shumëgjuhësore me një sistem bazë të një çifti gjuhësh të vetme. Veçanërisht, ne përqëndrohemi në katër drejtimet zero-shot dhe tregojmë se si një model shumëgjuhës i trajnuar me të dhëna të vogla mund të ofrojë rezultate të arsyeshme. Përveç kësaj, ne hetojmë se si pivoting (i.e. duke përdorur një gjuhë urë/pivot për përfundim në një burim!pivot!target përkthime) duke përdorur një modeli shumëgjuhës mund të jetë një alternativë për të mundësuar përkthimin zero-shot në një rregullim të ulët burimesh.Abstract
Pokazano je neuronski prevod mašine kako bi omogućio infekciju i prijenos međujezičkih znanja preko višestrukih jezičkih uputa koristeći jednog multijezičkog model a. Fokusirajući se na ovaj scenario multijezičkog prevoda, ovaj rad sažetuje učešće FBK-a u zajedničkom zadatku IWSLT 2017. Naši podaci se oslanjaju na dva multijezička sistema obučena na pet jezika (engleski, holandski, nemački, italijanski i rumunski). Prvi je 20 jezika usmjeren model, koji vodi sve moguće kombinacije pet jezika. Drugi multijezički sistem je obučen samo na 16 smjera, ostavljajući ostale kao upute za prevođenje nula uputa (tj. predstavljajući kompleksniji zadatak infekcije na jezičke parove koje nisu videle u treningu). Posebnije, naša uputa za nulu pucnjavu su njemački i italijanski rumunski dolari (rezultat četiri jezičke kombinacije). Uprkos malam količinom paralelnih podataka koje se koriste za obuku tih sustava, rezultativni multijezički modeli su efikasni, čak i u usporedbi sa modelima obučenim odvojeno za svaki jezički par (tj. u favorilnijim uslovima). Uspoređujemo i pokazujemo rezultate dva multijezičkog modela protiv početnog jedinstvenog jezičkog parova. Posebno, fokusiramo se na četiri uputstva nula i pokažemo kako multijezički model obučen sa malim podacima može pružiti razumne rezultate. Osim toga, istražujemo kako glasanje (tj. koristeći most/pivot jezik za infekciju u izvoru!pivot!meta prevode) koristeći Mnogi jezički model može biti alternativa da omogućava prevod nula pucnjava u niskom nastavu resursa.Abstract
Neural Machine Translation har visat sig möjliggöra inferens och tvärspråklig kunskapsöverföring över flera språkriktningar med hjälp av en enda flerspråkig modell. Med fokus på detta flerspråkiga översättningsscenario sammanfattar detta arbete FBK:s deltagande i IWSLT 2017 delade uppgift. Våra bidrag bygger på två flerspråkiga system utbildade på fem språk (engelska, nederländska, tyska, italienska och rumänska). Den första är en 20 språkriktning modell, som hanterar alla möjliga kombinationer av de fem språken. Det andra flerspråkiga systemet utbildas endast i 16 riktningar, vilket lämnar de andra som noll-skott översättningsriktningar (dvs. representerar en mer komplex inferensuppgift för språkpar som inte ses vid utbildningstiden). Mer specifikt är våra nollskottsriktningar nederländska$tyska och italienska$rumänska (vilket resulterar i fyra språkkombinationer). Trots den lilla mängden parallella data som används för att träna dessa system, är de resulterande flerspråkiga modellerna effektiva, även i jämförelse med modeller som utbildas separat för varje språkpar (dvs under mer gynnsamma förhållanden). Vi jämför och visar resultaten av de två flerspråkiga modellerna mot ett baslinjesystem för enkelspråkspar. Särskilt fokuserar vi på de fyra nollskottsriktningarna och visar hur en flerspråkig modell utbildad med små data kan ge rimliga resultat. Vidare undersöker vi hur pivoting (dvs att använda ett bridge/pivot språk för inferens i en source!pivot!target översättningar) med hjälp av en Flerspråkig modell kan vara ett alternativ för att aktivera noll-shot översättning med en låg resursinställning.Abstract
Tafsiri ya Mashine ya Kijerumani imeonyesha kuwezesha kuhamisha maarifa yanayotokana na lugha mbalimbali kwa kutumia mifano moja ya lugha. Akiangalia tukio hili la kutafsiri lugha mbalimbali, kazi hii inatoa muhtasari wa ushiriki wa FBK katika juhudi la IWSLT 2017. Makala yetu yanategemea mifumo miwili ya lugha mbalimbali yanayofundishwa kwa lugha tano (Kiingereza, Dutch, Ujerumani, Kiitalia, na KiRomania). Kitu cha kwanza ni mtindo wa mwelekeo wa lugha 20, ambao unakabiliana na muunganiko wa lugha tano. Mfumo wa pili wa lugha wa lugha unafundishwa pekee kwa njia 16, na kuwaacha wengine kama maelekezo ya kutafsiri sifuri (yaani wakiwakiwakilisha kazi ya maambukizi magumu juu ya ndoa za lugha ambazo hazikuonekana wakati wa mafunzo). Zaidi zaidi, maelekezo yetu yasiyo na sifuri ni dola za Kiholanzi na Kiitalia (yanasababisha makusanyiko ya lugha nne). Pamoja na kiasi kidogo cha data tofauti kinachotumiwa kwa ajili ya mafunzo ya mfumo huu, mifano ya lugha mbalimbali ni yenye ufanisi, hata ukilinganishwa na mifano inayofundishwa tofauti kwa kila namna ya lugha (yaani katika hali nzuri zaidi). Tunawalinganisha na kuonyesha matokeo ya mifano miwili ya lugha mbalimbali dhidi ya mfumo wa mbili wa lugha moja. hasa, tunajikita kwenye maelekezo manne yasiyo na sifuri na kuonyesha jinsi mtindo wa lugha ulivyofundishwa na data ndogo unavyoweza kutoa matokeo mazuri. Zaidi ya hayo, tunachunguza namna ya upigaji kura (yaani kwa kutumia lugha ya upigaji kura ya daraja/pivo kwa ajili ya uchunguzi katika chanzo!pivot!target) kwa kutumia tafsiri Mfano wa lugha mbalimbali unaweza kuwa mbadala wa kuwezesha tafsiri yenye risasi sifuri katika mfumo wa rasilimali chini.Abstract
மொழி மொழிமாற்றத்தை பயன்படுத்தி பல மொழிகளின் மாதிரி வழிகளில் மாற்றும் மொழியின் மொழிமாற்றங்களை செயல்படுத்த முடியும் இந்த பல மொழி மொழி மொழிபெயர்ப்பு காட்சியில் கவனம் செலுத்துகிறது, இந்த வேலை பிபிக்கின் பங்கிட்ட பணியில் பங்கிட்ட FBK பக எங்கள் கட்டளைகள் ஐந்து மொழிகளில் பயிற்சி செய்யப்பட்ட இரண்டு பல மொழிமாற்று அமைப்புகளை நம்புகிறது (ஆங்கிலம், டுந்து, ஜெர் முதல் ஒரு 20 மொழி திசை மாதிரி ஆகும், அது ஐந்து மொழிகளின் அனைத்து சாத்தியமான இணைப்புகளையும் கையாளும். இரண்டாவது பல மொழி அமைப்பு 16 திசைகளில் மட்டுமே பயிற்சி செய்யப்படுகிறது, மற்றவர்களை பூஜ்ஜியமாக- ஷாட் மொழிமாற்றி தேர்வுகளாக விட்டுவிடுகிறத மேலும் குறிப்பிட்டு, எங்கள் பூஜ்ஜியம் சுட்ட திசைகள் டெச்ச் $ஜெர்மன் மற்றும் இத்தாலியன் $ரோமானியன் (நான்கு மொழ இந்த அமைப்புகளை பயிற்சிக்க பயன்படுத்தப்படும் இணைப்பு தரவுகள் சிறிய அளவும், முடிவு பல மொழி மாதிரிகள் செயல்படுகிறது, ஒவ்வொரு மொழி ஜோடிக்கும் தனியாக பயிற்ச நாம் ஒரு மொழி ஜோடி அமைப்புகளுக்கு எதிராக இரு பல மொழி மாதிரிகளின் முடிவுகளை ஒப்பிட்டு காட்டுகிறோம். குறிப்பாக, நாம் நான்கு பூஜ்ஜியத்தின் தேர்வுகளை கவனம் செலுத்தி சிறிய தரவுடன் பயிற்சி மாதிரி எவ்வாறு கொடுக்கப்பட்டு மேலும், நாம் எவ்வாறு பைவோட்டின் மொழி (அதாவது மூலத்தில் பிரஜ்/பிவாட் மொழியை உபயோகிக்கும் மூலம்! pivot!target மொழிபெயர்ப்புகள மொழிமூலத்தை குறைந்த மூலத்தின் அமைப்பில் பூஜ்ஜியமாக மொழிமாற்றம் செயல்படுத்த ஒரு மாற்றாக இருக்கலாம்.Abstract
Nural Maşynyň terjimesini birnäçe dil modinde çykyş we owadan dil bilgi transferlerini etkinleştirmek üçin görkezildi. Bu multi dilli terjime senaryýasyna üns bermek üçin bu işi FBK'iň 2017 IWSLT zadynda paýlaşýan işi goşulýar. Biziň görnüşlerimiz beş dilde bilim sistemalara (iňlisçe, holandiýa, nemes, italiýa we rumança) guruldy. Ilkinji adam 20 dil görniş nusgasy, beş dilleriň mümkin kombinasyonlaryny çykýar. Ikinji köp dilli sistemasy diňe 16 görnüşde bilinýär, başgalaryny 0-görnüş terjime edilýän çykyşlar ýaly terjime edilýär (öýdýän, okuwçylyk wagtynda görülmeýän dil çiftlerde has karmaşık täsiri täsir edip biler). Diňe belli bolsa, biziň 0-atly görnüşlerimiz Holländçe$Almança we italiýa$rumança (dört dil birleşişmäne mejbur). Bu sistemalary okuw etmek üçin ullanýan kiçi parallel maglumaty rağmen, netijeli köp dil nusgalary etkinleýär, hatda her dil çift üçin aýratyn bir nusga bilen guruldyrylýan nusgalar bilen (diýip gowy görýän şertlerde). Biz iki çoklu dil nusgynyň netijesini boýunça çykarýarys we görkez. Aýratyn bolsa, biz dört sany zero görnüş yönlerine üns berýäris we kiçi bir maglumat bilen bilim alýan bir multi dilli modeli nähili makul netijeleri berip biler görkezip bileris. Ynha, birnähili pivot dilini ulanmak üçin esasy çykyşyrylýarys Çoklu dilli nusga çykyş etmek üçin bir seçenek bolup biler.Abstract
نئورل ماشین ترجمہ دکھائی گئی ہے کہ ایک متعدد زبان موڈل کے مطابق ضرورت اور کروس زبان علم ترجمہ کو بہت سی زبان کی طرف سے فعال کرے۔ اس multilingual translation scenario پر تمرکز کیا جاتا ہے، اس کام نے FBK کا حصہ IWSLT 2017 میں شریک کام کی ہے. ہمارے مسلمانوں نے پانچ زبانوں پر تعلیم کی دو چند زبان کی سیستم پر اعتماد کیا ہے۔ سب سے پہلے ایک 20 زبان دئیرسی موڈل ہے، جو پانچ زبانوں کی تمام امکانات کی جمع کرتی ہے۔ دوسری ملتی زبان سیسٹم صرف 16 دقیق پر آموزش کی جاتی ہے اور دوسروں کو صفر-شٹ ترجمہ دقیق کے طور پر چھوڑ دیتا ہے اور زیادہ مشخص ہے، ہماری صفر-شٹ کی طرف ڈچ ڈالر ڈالر اور ایتالیایی ڈالر رومین ہیں (چار زبان اتحادیوں کے نتیجہ میں) ۔ ان سیسٹموں کی تعلیم کے لئے استعمال کیے جاتے ہیں، بہت سی زبان کی مدلکوں کے مطابق بھی موجود ہیں، اگرچہ ہر زبان جوڑے کے لئے مختلف طریقے کی آموزش کی مدلکوں کے مطابق بھی موجود ہیں (یعنی بہت اچھی شرایط میں). ہم ان دو ملتی زبان مدل کے نتیجے کو بنیاس لین کی ایک زبان جوڑی سیستم سے دکھاتے ہیں۔ مخصوصاً ہم چار صفر-شٹ کی طرف متمرکز ہوتے ہیں اور دکھاتے ہیں کہ چھوٹے ڈاٹے کے ساتھ تعلیم کی ایک بہت سی زبان مدل کس طرح قابل نتیجے دے سکتا ہے۔ اور اس کے بعد ہم تحقیق کرتے ہیں کہ کس طرح pivoting (i.e. using a bridge/pivot language for inference in a source!pivot!target translations) using a بہت سی زبان موڈل کم رسورس تنظیمات میں صفر-شٹ کی ترجمہ کو فعال کرنے کے لئے ایک alternativa ہو سکتا ہے.Abstract
Name Bu bir necha tillar tarjima scenarida fokuslash mumkin, bu ishni IWSLT 2017 bilan birlashgan vazifani FBK'ning qismlariga qisqaradi. Bizning imkoniyatlarimiz besh tillar tilida o'rganish ikkita tillar tizimga ishlatadi (Inglizcha, Dutch, Olmoncha, Italiya va Rumincha). Birinchi so'zning 20 tilning retori modeli, bu besh tillarda hamma muhim bir birlashtirishni boshqaradi. Ikkinchi xil tillar tizimi faqat 16 yordamda o'rganadi, boshqalarni zero-shog'i tarjima qilish yordamlari sifatida qoladi (balki tilning vaqtda ko'rinadigan vazifani ko'proq murakkab o'zgartiradi). Ko'pchilik, bizning noksiz yordamlarimiz Dutch dollari va Italyancha dollari (to'rt tillar birlashtirilganligi sababli). Bu tizimlarni tahrirlash uchun ishlatilgan parallel maʼlumotlarning kichik qismi bo'lsa, natijada ko'plab tillar modellari effektiv, xato har bir tillar uchun alohida o'rnatilgan modellar bilan birga o'rganadi (balki ko'proq holatda). Biz bir necha til modellarning natijalarini ko'rsamiz va bir necha tilning bir xil tizimi bilan bir xil tizimga ko'ra olamiz. Ko'pchilik, biz to'rtta nuqta yordamlarga foydalanamiz va kichkina maʼlumot bilan bir tildagi model qanday o'rganish mumkin natijalarini yaratadi. Furthermore, we investigate how pivoting (i.e using a bridge/pivot language for inference in a source!pivot!target translations) using a NameAbstract
Dịch về máy thần kinh đã được cho thấy có khả năng gây ra và truyền thông ngôn ngữ khác nhau truyền qua nhiều hướng ngôn ngữ bằng một mô hình chung. Tập trung vào kịch bản dịch đa dạng này, công việc này tổng hợp FBK vào công việc chia s ẻ IWSLT Des7. Phụ đề của chúng tôi dựa vào hai hệ thống đa dạng được đào tạo bằng năm ngôn ngữ (Anh, Dutch, Đức, Ý, Rumani). Cái thứ nhất là một mô hình hướng ngôn ngữ 20, nó giải quyết mọi cách kết hợp có thể của năm ngôn ngữ. Các hệ thống ngôn ngữ thứ hai được đào tạo chỉ theo hướng 16, để các phương pháp khác lại thành hướng dịch chuyển không phát (đại diện cho một nhiệm vụ ám ảnh phức tạp hơn về các cặp ngôn ngữ không được nhìn thấy trong thời gian huấn luyện). Cụ thể hơn, phương pháp bắn không là Dutch-German and Italian., Rumani (kết quả là bốn hợp ngôn ngữ). Mặc dù lượng nhỏ các dữ liệu song song được dùng để đào tạo các hệ thống này, các mô-đun đa dạng đều có hiệu quả, thậm chí so với các mô hình được đào tạo riêng cho mỗi cặp ngôn ngữ (tức thì trong đi ều kiện thích hợp hơn). Chúng tôi so sánh và hiển thị kết quả của hai mô- đun đa dạng với một hệ thống đôi ngôn ngữ đơn cơ bản. Đặc biệt, chúng tôi tập trung vào bốn hướng bắn không và cho thấy cách một mô hình đa dạng được đào tạo với dữ liệu nhỏ có thể cung cấp kết quả hợp lý. Hơn nữa, chúng tôi đi ều tra làm thế nào xoay chuyển (dùng ngôn ngữ cầu/pivot để nhận biết nguồn dịch!pivot!mu) Loại máy phát ngôn có thể là một cách thay đổi để dịch bằng bắn không trong thiết lập ít tài nguyên.Abstract
神经机器翻译已验可用单多语言模样跨数语推理及跨语知识转移。 周旋多言译,此事FBK参IWSLT 2017共同任务。 所交赖两多言语系统,经五语(英语,荷兰语,德语,意大利语与罗马尼亚语)培训。 一曰20言向形,其治五言者可得而合也。 第二多语言系统只在16个向上训练,而他向则为零次译向(即示训练时未见的语言对更杂的推理)。 更具体地说,荷兰语德语与意大利语罗马尼亚语(四语合)。 虽与言为独教(利之所在)。 以两多言模形,与基线单语对系统较显。 专于四零射,示小数之多言。 此外,我们研究了怎么用 多言模形可于资源较少者设中零次译。- Anthology ID:
- 2017.iwslt-1.5
- Volume:
- Proceedings of the 14th International Conference on Spoken Language Translation
- Month:
- December 14-15
- Year:
- 2017
- Address:
- Tokyo, Japan
- Venue:
- IWSLT
- SIG:
- SIGSLT
- Publisher:
- International Workshop on Spoken Language Translation
- Note:
- Pages:
- 35–41
- Language:
- URL:
- https://aclanthology.org/2017.iwslt-1.5
- DOI:
- Bibkey:
- Cite (ACL):
- Surafel M. Lakew, Quintino F. Lotito, Marco Turchi, Matteo Negri, and Marcello Federico. 2017. FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017. In Proceedings of the 14th International Conference on Spoken Language Translation, pages 35–41, Tokyo, Japan. International Workshop on Spoken Language Translation.
- Cite (Informal):
- FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017 (Lakew et al., IWSLT 2017)
- Copy Citation:
- PDF:
- https://aclanthology.org/2017.iwslt-1.5.pdf
- Terminologies:
Export citation
@inproceedings{lakew-etal-2017-fbks, title = "FBK{'}s Multilingual Neural Machine Translation System for IWSLT 2017{FBK}{'}s Multilingual Neural Machine Translation System for {IWSLT} 2017", author = "Lakew, Surafel M. and Lotito, Quintino F. and Turchi, Marco and Negri, Matteo and Federico, Marcello", booktitle = "Proceedings of the 14th International Conference on Spoken Language Translation", month = dec # " 14-15", year = "2017", address = "Tokyo, Japan", publisher = "International Workshop on Spoken Language Translation", url = "https://aclanthology.org/2017.iwslt-1.5", pages = "35--41", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="lakew-etal-2017-fbks"> <titleInfo> <title>FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017</title> </titleInfo> <name type="personal"> <namePart type="given">Surafel</namePart> <namePart type="given">M</namePart> <namePart type="family">Lakew</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Quintino</namePart> <namePart type="given">F</namePart> <namePart type="family">Lotito</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Marco</namePart> <namePart type="family">Turchi</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Matteo</namePart> <namePart type="family">Negri</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Marcello</namePart> <namePart type="family">Federico</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2017-dec 14-15</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 14th International Conference on Spoken Language Translation</title> </titleInfo> <originInfo> <publisher>International Workshop on Spoken Language Translation</publisher> <place> <placeTerm type="text">Tokyo, Japan</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">lakew-etal-2017-fbks</identifier> <location> <url>https://aclanthology.org/2017.iwslt-1.5</url> </location> <part> <date>2017-dec 14-15</date> <extent unit="page"> <start>35</start> <end>41</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017 %A Lakew, Surafel M. %A Lotito, Quintino F. %A Turchi, Marco %A Negri, Matteo %A Federico, Marcello %S Proceedings of the 14th International Conference on Spoken Language Translation %D 2017 %8 dec 14 15 %I International Workshop on Spoken Language Translation %C Tokyo, Japan %F lakew-etal-2017-fbks %U https://aclanthology.org/2017.iwslt-1.5 %P 35-41
Markdown (Informal)
[FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017](https://aclanthology.org/2017.iwslt-1.5) (Lakew et al., IWSLT 2017)
- FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017 (Lakew et al., IWSLT 2017)
ACL
- Surafel M. Lakew, Quintino F. Lotito, Marco Turchi, Matteo Negri, and Marcello Federico. 2017. FBK’s Multilingual Neural Machine Translation System for IWSLT 2017FBK’s Multilingual Neural Machine Translation System for IWSLT 2017. In Proceedings of the 14th International Conference on Spoken Language Translation, pages 35–41, Tokyo, Japan. International Workshop on Spoken Language Translation.