EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing Comment NTS: A Neural Programmer-Interpreter Model for Sentence Simplification via Explicit Editing EditNTS: نموذج مبرمج-مترجم عصبي لتبسيط الجملة من خلال التحرير الصريح EditNTS: S칬zl칲k D칲zenleme vasit톛sil톛 S칬zl칲k Basizl톛m톛si 칲칞칲n N칬ral Proqramc캼-Interpreter Modeli Модел на неврален програмист-интерпретатор за опростяване на изреченията чрез изрично редактиране সম্পাদক: এক্সপ্লিকেট সম্পাদকের মাধ্যমে শাস্তি সহজ করার জন্য নিউরাল প্রোগ্রামার- Interpreter মডেল ཞུན་དག་པ NTS: ཕྱོགས་སྟོན་པའི་བསྒྱུར་བཅོས་དང་བྱ་རིམ་པ་གནད་སྡུད་མ་དབྱིབས EditNTS: Model Neuralnog programera-prevoditelja za pojednostavljenje kazne kroz eksplicitno uredjenje EditNTS: Un model neuroprogramador-interpretador de simplificació de sentences a través d'edició explícita EditNTS: Neurální programátor-interpretační model pro zjednodušení vět prostřednictvím explicitní editace EditNTS: En Neural Programmer-Tolkmodel til sætningsfornkling gennem eksplicit redigering EditNTS: Ein neuronales Programmierer-Interpreter-Modell zur Satzvereinfachung durch explizite Bearbeitung Ένα Νευρικό Μοντέλο Προγραμματισμού-Διερμηνευτή για την απλοποίηση των προτάσεων μέσω ρητής επεξεργασίας EditNTS: un modelo de programador-intérprete neuronal para la simplificación de oraciones a través de la edición explícita EditNTS: Neuraalne programmeerija-tõlgendaja mudel lausete lihtsustamiseks selgesõnalise redigeerimise kaudu NTS: یک مدل برنامهنویسکنندهی تغییردهندهی عصبی برای سادهسازی کلمهها از طریق ویرایش خاصی EditNTS: Neuraalinen ohjelmoija-tulkki malli lauseiden yksinkertaistamiseen eksplisiittisen muokkauksen avulla EditNTS : un modèle de programmeur-interprète neuronal pour la simplification des phrases grâce à l'édition explicite EditNTS: Samhail Ríomhchláraitheoir-Ateangaire Néarach le haghaidh Simpliú Pianbhreithe trí Eagarthóireacht Mhear KCharselect unicode block name NTS: דוגמא מתכנן-מתרגם נוירואלי להפשטת גזרים באמצעות עורך ברור EditNTS: स्पष्ट संपादन के माध्यम से वाक्य सरलीकरण के लिए एक तंत्रिका प्रोग्रामर-दुभाषिया मॉडल EditNTS: Model neuronskog programera-interpretera za pojednostavljanje kazne kroz eksplicitno uredjenje EditNTS: Neurális programozó-tolmácsmodell a mondatok egyszerűsítéséhez explicit szerkesztéssel Նյարդային ծրագրավորողի-թարգմանիչների մոդելը արտահայտության պարզաբանման համար բացահայտ խմբագրման միջոցով EditNTS: Model Programer-Interpreter Neural for Sentence Simplification through Explicit Editing EditNTS: un modello neurale di programmatore-interprete per la semplificazione delle frasi attraverso l'editing esplicito EditNTS :明示的な編集による文章の簡略化のためのニューラルプログラマインタプリタモデル textattr Comment Өңдеу EditNTS: 문장을 명시적으로 편집하여 간소화하는 신경 프로그램 해석기 모형 EditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing Уредувач എഡിറ്റെന്ട്സ്: എക്സ്പ്ലിക്റ്റ് എഡിറ്റ് ചെയ്യുന്നതിലൂടെ ഒരു നെയുറല് പ്രോഗ്രാമീറ്റര് - വിവരമറ മോ Өөрчлөлтүүд NTS: Шагнал Засварлалтаар мэдрэлийн програм-интерпретерийн загвар Edit EditNTS: Mudell ta’ Programmatur-Interpretatur Newrali għas-Simplifikazzjoni tas-Sentenza permezz ta’ Editar Espliċitu EditNTS: Een neuroal programmeer-interpreter model voor zinsvereenvoudiging door expliciete bewerking NTS: Eit nøyralt program- omsetjarmodell for uttrykk gjennom eksplisitt redigering EditNTS: neuronowy programista-interpreter model uproszczenia zdań poprzez wyraźną edycję EditNTS: um modelo de programador-interpretador neural para simplificação de frases por meio de edição explícita EditNTS: Un model neural de programator-interpret pentru simplificarea sentințelor prin editare explicită EditNTS: Модель нейронного программиста-интерпретатора для упрощения предложения посредством явного редактирования Comment EditNTS: Model nevralnega programerja-interpretatorja za poenostavitev stavkov z eksplicitnim urejanjem EditNTS: A Neural Programmer-Interpreter Model for Sentence Simplification via Explicit Editing EditNTS: A Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing EditNTS: Model neurološkog programera-prevoditelja za jednostavljenje kazne kroz Eksplicitno uredjenje EditNTS: En Neural Programmer-Tolkmodell för meningsförklaring genom explicit redigering EditNTS: Mradi wa Mtumiaji wa Kitaifa wa Tafsiri kwa ajili ya Ufuzuizi wa Hukumu kupitia Mhariri wa Matukio தொகுப்பு Edit NTS: صریح ویڈینگ کے ذریعہ ایک نئورال پروگرامر-اینٹرپرٹر موڈل EditNTS: Name Sửa soạn: Một mô hình chương trình tâm thần cho đơn giản cảm xúc qua soạn thảo có vẻ rõ ràng EditNTS:显式辑简句神经程序员-解释器模
Yue Dong, Zichao Li, Mehdi Rezagholizadeh, Jackie Chi Kit Cheung
Abstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. Most current neural sentence simplification systems are variants of sequence-to-sequence models adopted from machine translation. These methods learn to simplify sentences as a byproduct of the fact that they are trained on complex-simple sentence pairs. By contrast, our neural programmer-interpreter is directly trained to predict explicit edit operations on targeted parts of the input sentence, resembling the way that humans perform simplification and revision. Our model outperforms previous state-of-the-art neural sentence simplification models (without external knowledge) by large margins on three benchmark text simplification corpora in terms of SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), and is judged by humans to produce overall better and simpler output sentences.Abstract
Ons stel die eerste seting eenvoudiging model wat leer eksplisiese redigeer operasies (ADD, DELETE en KEEP) deur 'n neurale program- interpreter toegang. Die meeste huidige neurale setelstelsels is veranderinge van sekwensie- na- sekwensie modele wat van masjien vertaling aangeneem word. Hierdie metodes leer om setnings as 'n byprodukt van die feit te eenvoudig dat hulle op kompleks-eenvoudige setningpaar opgelei word. Ons neurale program-interpreter is direk onderwerp om eksplisiese redigeer operasies te voorskou op die doelde dele van die invoer seting, soos die manier wat mense eenvoudiging en hersiening uitvoer. Ons model uitvoer voorige state-of-the-art neural sentence simplification models (sonder eksterne kennis) deur groot marge op drie benchmark teks vereenvoudiging korpora in terms van SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), en word oordeel deur mense om die hele beter en eenvoudiger uitset setinge te produseer.Abstract
የፊተኛውን የቃላት ቀላል ምሳሌ በኔural ፕሮግራም-ተርጓሚዎች ሥርዓት ማስተማርን (ADD, DELETE እና KEEP) እናስቀምጣለን፡፡ የአሁኑ የነጥብ ቃላት ቀላል ሲስተም ከmachine ትርጉም የተለየ የsequence-to-sequence models ናቸው። These methods learn to simplify sentences as a byproduct of the fact that they are trained on complex-simple sentence pairs. በተለይም፣ የናውሬል ፕሮግራም-ተርጓሚያችን አካባቢነት እና ማሰናከል በሚደረገው ግልፅ ማቀናጃ ላይ ግልጽን ማስታወቂያ ያስተምራል፡፡ Our model outperforms previous state-of-the-art neural sentence simplification models (without external knowledge) by large margins on three benchmark text simplification corpora in terms of SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), and is judged by humans to produce overall better and simpler output sentences.Abstract
نقدم نموذج تبسيط الجملة الأول الذي يتعلم عمليات التحرير الصريحة (إضافة ، وحذف ، و KEEP) عبر نهج المبرمج-المترجم العصبي. معظم أنظمة تبسيط الجملة العصبية الحالية هي متغيرات من نماذج التسلسل إلى التسلسل المعتمدة من الترجمة الآلية. تتعلم هذه الأساليب تبسيط الجمل كنتيجة ثانوية لحقيقة أنها مدربة على أزواج جمل معقدة وبسيطة. على النقيض من ذلك ، يتم تدريب مترجمنا العصبي مباشرة على التنبؤ بعمليات التحرير الصريحة على الأجزاء المستهدفة من جملة الإدخال ، على غرار الطريقة التي يقوم بها البشر بالتبسيط والمراجعة. يتفوق نموذجنا على أحدث نماذج تبسيط الجملة العصبية السابقة (بدون معرفة خارجية) بهوامش كبيرة على ثلاث مجموعات تبسيط نص معياري من حيث SARI (+0.95 WikiLarge ، +1.89 WikiSmall ، +1.41 Newsela) ، ويتم الحكم عليه من قبل البشر لإنتاج جمل مخرجة أفضل وأبسط بشكل عام.Abstract
Biz ilk cümlənin basitləşdirmə modelini nöral proqramcı yorumlayıcısı vasitəsilə öyrənirik. Ağımdaki nöral cümlələr basitləşdirmə sistemləri maşın çevirindən alınan sequence-to-sequence modellərin variablarıdır. Bu metodlar cümlələri kompleks-basit cümlələr çiftlərinə təhsil edilməsini öyrənir. Əksinə, nöral proqramçımız təfsilatıcımız doğrudan təhsil edilmişdir ki, giriş cümləsinin məqsədilə müəyyən edilmiş hissələrində açıq-aydın düzəltmə operasyonlarını təxmin etmək üçün, insanların basitləşdirməyi və yeniləşdirməyi bənzəyir. Bizim modellərimiz əvvəlki nöral cümlələrin çoxluğunu (dış bilgi olmadan) SARI tərzində üç benchmark metin çoxluğu ilə öyrənir (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) və insanlar daha yaxşı və daha basit cümlələri ürəkləmək üçün hökmünü verər.Abstract
Представяме модела за опростяване на първото изречение, който изучава изрични операции за редактиране (чрез подход на невронен програмист-интерпретатор). Повечето съвременни системи за опростяване на невронни изречения са варианти на модели последователност към последователност, приети от машинен превод. Тези методи се научават да опростяват изреченията като страничен продукт на факта, че те са обучени върху сложни-прости двойки изречения. За разлика от това, нашият неврален програмист-интерпретатор е директно обучен да предвижда изрични операции за редактиране на целеви части от входното изречение, наподобяващи начина, по който хората извършват опростяване и преразглеждане. Нашият модел превъзхожда предишните най-съвременни модели за опростяване на невронни изречения (без външни познания) с големи граници на три референтни текстови корпора за опростяване по отношение на САР (+0.95 УикиLarge, +1.89 УикиSmall, +1.41 Нюзела), и е преценен от хората като цяло, че произвежда по-добри и по-прости изходни изречения.Abstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. বর্তমান নিউরেল বাক্য সহজেকশন সিস্টেম মেশিন অনুবাদ থেকে নির্ধারণ করা মোডেলের বেশীরভাগ ভিন্ন। এই পদ্ধতিগুলো বায়ুপ্রজাতি হিসেবে সুস্পষ্ট করার জন্য শিক্ষা পায় যে তাদের কমপ্লেক্স-সহজ বাক্যের জোড়ায় প্রশি বিপরীতে, আমাদের নিউরেল প্রোগ্রামার-অনুবাদক সরাসরি প্রশিক্ষণ প্রদান করা হয়েছে ইনপুটের শাস্তির লক্ষ্যবস্তুত অংশে কার্যক্রম সম্পাদন করার জন্য, যেভাব আমাদের মডেল পূর্ববর্তী শিল্পের রাষ্ট্রের নিউরেল শাস্তির সাধারণ মোডেল (বাইরে জ্ঞান ছাড়া) তিনটি বেনম্যার্কের টেক্সট সুস্পষ্ট কোর্পোরার মাধ্যমে বিশাল মার্গিনের মাধ্যমে সারির (+0. 95 উইকিল্যAbstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. མིག་སྔར་ཡོད་པའི་རང་ཆས་དབྱིབས་ཆུང་ལ་ལག་ལེན་པའི་རྣམ་གྲངས ཐབས་ལམ་འདི་དག་གིས་ཚིག་རྟགས་མ་ལག་ལེན་བྱེད་པའི་ཚིག་གྲངས་རྩིས་ཀྱི་ཆ་རྐྱེན་ཅིག་སྦྱར་བྱེད་ཀྱི་ཡོད། ང་ཚོའི་དཔུད་རིས་བྱ་རིམ་དབྱེ་བ་དེ་དག་གི་ཐད་ཀར་ངེས་འཛིན་བྱ་ཚིག Our model outperforms previous state-of-the-art neural sentence simplification models (without external knowledge) by large margins on three benchmark text simplification corpora in terms of SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), and is judged by humans to produce overall better and simpler output sentences.Abstract
Predstavljamo prvi model pojednostavljanja rečenica koji uči eksplicitne operacije editora (ADD, DELETE i KEEP) putem pristupa neurološkim programerima. Većina trenutnih sustava pojednostavljanja neuroloških rečenica su varianti modela sekvence do sekvence usvojene iz prevoda stroja. Ove metode nauče da jednostavljaju rečenice kao obični proizvod činjenice da su obučeni za kompleksno jednostavne rečenice. Uzgred, naš neuralni program-interpreter je direktno obučen da predvidi eksplicitne redikcije operacije na ciljnim dijelovima ulazne rečenice, sličavajući način na koji ljudi čine jednostavnost i reviziju. Naš model iznosi prethodne modele pojednostavljanja neuralne rečenice (bez vanjskih znanja) velikim maržbama na tri korpora za pojednostavljanje teksta u obliku SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) i osuđuje se ljudi da proizvode ukupno bolje i jednostavnije rečenice za izlaz.Abstract
Presentam el primer model de simplificació de frases que aprenen operacions d'edició explícites (ADD, DELETE i KEEP) a través d'un enfocament neuroprogramador-interpretador. La majoria dels sistemes de simplificació de frases neurals actuals són variants de models de seqüència a seqüència adoptats a partir de la traducció automàtica. Aquests mètodes aprenen a simplificar les frases com a subproducte del fet que s'entrenen en parells de frases complexes i simples. By contrast, our neural programmer-interpreter is directly trained to predict explicit edit operations on targeted parts of the input sentence, resembling the way that humans perform simplification and revision. El nostre model supera els models de simplificació de frases neuronals més avançats (sense coneixement extern) amb grans marxes en tres corpores de simplificació de text de referència en termes de SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), i és jutjat pels humans per produir frases de producció globalment millors i més senzilles.Abstract
Představujeme model zjednodušení první věty, který se učí explicitní editační operace (ADD, DELETE a KEEP) pomocí přístupu neuronového programátoru-interpretu. Většina současných systémů zjednodušení neuronových vět jsou varianty modelů sekvence na sekvenci přijatých ze strojového překladu. Tyto metody se naučí zjednodušit věty jako vedlejší produkt skutečnosti, že jsou trénovány na komplexně-jednoduchých větových párech. Naproti tomu náš neuronový programátor-interpret je přímo vyškolen předpovídat explicitní editační operace na cílených částech vstupní věty, připomínající způsob, jakým lidé provádějí zjednodušení a revizi. Náš model překonává předchozí nejmodernější modely zjednodušení neuronových vět (bez externích znalostí) o velké okraje na třech referenčních korpusech pro zjednodušení textu z hlediska SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) a je lidmi hodnocen k produkci celkově lepších a jednodušších výstupních vět.Abstract
Vi præsenterer den første sætning forenkling model, der lærer eksplicitte redigeringsoperationer (ADD, DELETE og KEEP) via en neural programmør-tolk tilgang. De fleste nuværende neurale sætninger forenkling systemer er varianter af sekvens-til-sekvens modeller vedtaget fra maskinoversættelse. Disse metoder lærer at forenkle sætninger som et biprodukt af det faktum, at de er trænet på komplekse-enkle sætningspar. I modsætning hertil er vores neurale programmør-tolk direkte uddannet til at forudsige eksplicitte redigeringsoperationer på målrettede dele af input sætningen, der ligner den måde, mennesker udfører forenkling og revision. Vores model overgår tidligere state-of-the-art neurale sætninger forenkling modeller (uden ekstern viden) med store marginer på tre benchmark tekst forenkling corpora i form af SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), og mennesker bedømmer generelt at producere bedre og enklere output sætninger.Abstract
Wir präsentieren das erste Satzvereinfachungsmodell, das explizite Bearbeitungsoperationen (ADD, DELETE und KEEP) über einen neuronalen Programmierer-Interpreter-Ansatz lernt. Die meisten aktuellen Systeme zur Vereinfachung neuronaler Sätze sind Varianten von Sequenzmodellen, die aus der maschinellen Übersetzung übernommen werden. Diese Methoden lernen, Sätze als Nebenprodukt der Tatsache zu vereinfachen, dass sie auf komplex-einfachen Satzpaaren trainiert werden. Im Gegensatz dazu ist unser neuronaler Programmierer-Interpreter direkt darauf trainiert, explizite Bearbeitungsoperationen an bestimmten Teilen des Eingabesatzes vorherzusagen, ähnlich wie Menschen Vereinfachung und Revision durchführen. Unser Modell übertrifft bisherige neurale Satzvereinfachungsmodelle (ohne externes Wissen) um große Ränder auf drei Benchmark-Textvereinfachungskorpora in Bezug auf SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) und wird von Menschen beurteilt, insgesamt bessere und einfachere Ausgabesätze zu produzieren.Abstract
Παρουσιάζουμε το μοντέλο απλοποίησης της πρώτης πρότασης που μαθαίνει ρητές λειτουργίες επεξεργασίας (Προσθήκη, διαγραφή και διατήρηση) μέσω μιας προσέγγισης νευρωνικού προγραμματιστή-διερμηνέα. Τα περισσότερα σύγχρονα συστήματα απλοποίησης των νευρωνικών προτάσεων είναι παραλλαγές των μοντέλων ακολουθίας σε ακολουθία που υιοθετούνται από τη μηχανική μετάφραση. Αυτές οι μέθοδοι μαθαίνουν να απλοποιούν τις προτάσεις ως υποπροϊόν του γεγονότος ότι εκπαιδεύονται σε ζεύγη σύνθετων-απλών προτάσεων. Αντίθετα, ο νευρωνικός προγραμματιστής-διερμηνέας μας είναι άμεσα εκπαιδευμένος για να προβλέψει ρητές λειτουργίες επεξεργασίας σε στοχευμένα μέρη της πρότασης εισόδου, μοιάζοντας με τον τρόπο με τον οποίο οι άνθρωποι εκτελούν απλοποίηση και αναθεώρηση. Το μοντέλο μας ξεπερνά τα προηγούμενα σύγχρονα μοντέλα απλοποίησης των νευρωνικών προτάσεων (χωρίς εξωτερική γνώση) με μεγάλα περιθώρια σε τρία σώματα απλοποίησης κειμένου αναφοράς όσον αφορά το και κρίνεται από τους ανθρώπους για να παράγει συνολικά καλύτερες και απλούστερες προτάσεις εξόδου.Abstract
Presentamos el modelo de simplificación de la primera oración que aprende operaciones de edición explícitas (ADD, DELETE y KEEP) a través de un enfoque de programador-intérprete neuronal. La mayoría de los sistemas actuales de simplificación de oraciones neuronales son variantes de modelos de secuencia a secuencia adoptados de la traducción automática. Estos métodos aprenden a simplificar las oraciones como un subproducto del hecho de que están entrenados en pares de oraciones complejas-simples. Por el contrario, nuestro programador-intérprete neuronal está directamente entrenado para predecir operaciones de edición explícitas en partes específicas de la oración de entrada, similar a la forma en que los humanos realizan la simplificación y la revisión. Nuestro modelo supera a los modelos anteriores de simplificación de frases neuronales de última generación (sin conocimiento externo) por grandes márgenes en tres cuerpos de simplificación de textos de referencia en términos de SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), y los humanos lo consideran que produce mejor y más simple en general frases de salida.Abstract
Esitleme esimese lause lihtsustamise mudelit, mis õpib selgesõnalisi redigeerimistoiminguid (ADD, DELETE ja KEEP) närviprogrammeerija-tõlgendaja lähenemisviisi kaudu. Enamik praeguseid närvilausete lihtsustamise süsteeme on masintõlkel kasutusele võetud jadast järjestusse mudelite variandid. Need meetodid õpivad lihtsustama lauseid kui kõrvalsaadust asjaolust, et neid koolitatakse keeruliste ja lihtsate lausepaaridega. Seevastu meie närviprogrammeerija-tõlgendaja on otseselt koolitatud ennustama selgeid redigeerimistoiminguid sisendlause sihtotstarbelistel osadel, sarnaselt sellega, kuidas inimesed lihtsustavad ja muudavad. Meie mudel ületab varasemaid tipptasemel neurolausete lihtsustamise mudeleid (ilma välise teadmiseta) suurte marginaalidega kolme võrdlusteksti lihtsustamise korpuse osas SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) ning inimesed hindavad, et see toodab üldiselt paremaid ja lihtsamaid väljundvõtteid.Abstract
ما مدل سادهسازی اولین جمله را پیشنهاد میکنیم که عملیات ویرایش مشخص (ADD, DELETE, و KEEP) را با طریق یک روش برنامهکنندهی نورال یاد میگیرد. بیشتر سیستمهای سادهسازی جملههای عصبی فعلی از مدلهای ترجمه به ترجمهای از ترجمههای ماشین پذیرفته میشوند. این روشها یاد میگیرند که جملهها را به عنوان یک تولید سادهای از حقیقت آموزش داده میشوند. بر خلاف این، ترجمهکنندهی برنامهکنندهی عصبی ما مستقیماً برای پیشبینی عملیات تغییر مشخص در بخشهای هدفشدهی جملهی ورودی آموزش داده میشود، مانند روشی که انسانها ساده و تغییر انجام میدهند. مدل ما مدل سادهسازی مجازات عصبی قبلی (بدون دانش خارجی) را با مرز بزرگ بر سه شرکت سادهسازی متن سنچممارک به عنوان SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) انجام میدهد و توسط انسانها مجازات کلی بهتر و سادهتر از انتقال داده میشود.Abstract
Esittelemme ensimmäisen lauseen yksinkertaistamismallin, joka oppii eksplisiittiset muokkaustoiminnot (ADD, DELETE ja KEEP) neuroohjelmoija-tulkki-lähestymistavan avulla. Useimmat nykyiset neurolauseiden yksinkertaistamisjärjestelmät ovat konekäännöksestä saatujen sekvenssimallien muunnelmia. Nämä menetelmät oppivat yksinkertaistamaan lauseita sivutuotteena siitä, että ne on koulutettu monimutkaisiin yksinkertaisiin lausepareihin. Sen sijaan neuroohjelmoija-tulkkimme on suoraan koulutettu ennustamaan eksplisiittisiä muokkausoperaatioita syöttölauseen kohdeosissa, muistuttaen tapaa, jolla ihmiset suorittavat yksinkertaistamista ja tarkistamista. Mallimme suoriutuu aikaisemmista huippuluokan neurolauseiden yksinkertaistamismalleista (ilman ulkoista tietoa) suurilla marginaaleilla kolmella vertailutekstien yksinkertaistamiskorporalla SARI-arvon suhteen (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), ja ihmisen mielestä se tuottaa yleisesti parempia ja yksinkertaisempia tuloslauseita.Abstract
Nous présentons le premier modèle de simplification de phrase qui apprend les opérations d'édition explicites (ADD, DELETE et KEEP) via une approche de programmeur-interpréteur neuronal. La plupart des systèmes actuels de simplification des phrases neuronales sont des variantes de modèles séquence à séquence issus de la traduction automatique. Ces méthodes apprennent à simplifier les phrases en tant que sous-produit du fait qu'elles sont entraînées sur des paires de phrases complexes et simples. En revanche, notre programmeur-interprète neuronal est directement formé pour prédire des opérations d'édition explicites sur des parties ciblées de la phrase d'entrée, ressemblant à la manière dont les humains effectuent la simplification et la révision. Notre modèle surpasse les modèles de simplification des phrases neuronales de pointe précédents (sans connaissances externes) de grandes marges sur trois corpus de simplification de texte de référence en termes de SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), et est jugé par les humains comme produisant globalement de meilleure qualité et de manière plus simple phrases de sortie.Abstract
Cuirimid i láthair an tsamhail simplithe chéad abairt a fhoghlaimíonn oibríochtaí sainráite eagarthóireachta (ADD, DELETE, agus KEEP) trí chur chuige néar-ríomhchláraitheoir-ateangaire. Is éard atá sa chuid is mó de na córais néaracha simplithe abairtí atá ann faoi láthair ná leaganacha de mhúnlaí seicheamh go seicheamh arna nglacadh ó mheaisín-aistriúchán. Foghlaimíonn na modhanna seo abairtí a shimpliú mar fhotháirge ar an bhfíric go gcuirtear oiliúint orthu ar phéirí abairtí casta-simplí. I gcodarsnacht leis sin, tá ár ríomhchláraitheoir néar-teangaire oilte go díreach chun oibríochtaí eagarthóireachta sainráite a thuar ar chodanna spriocdhírithe den abairt ionchuir, atá cosúil leis an mbealach a dhéanann daoine simpliú agus athbhreithniú. Sáraíonn ár samhail na múnlaí néar-abairtí nua-aimseartha a bhí ann roimhe seo (gan eolas seachtrach) le corrlaigh mhóra ar thrí chorparáid simplithe téacs tagarmhairc i dtéarmaí SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), agus déantar é a mheas. ag daoine chun abairtí aschuir iomlána níos fearr agus níos simplí a tháirgeadh.Abstract
Tuna halatar da misalin na farkon salon mai sauƙi wanda yana sanar aiki na taƙaita bayyananne (ADD, DALET, da KEEP) a sami'a na shiryarwa-fassarar-na-neural. Babu mafi yawan salon maganar kwamfyuta da ke kai yanzu, sune-daban na'ura masu variant na misãlai masu saka-zuwa-sequence da aka amfani da daga fassarar maɓalli. Waɗannan hanyõyin sun yi amfani da su sauƙi ga kalmõmi kamar birnin na'ura da sanna, an sanar da su a kan nau'i-biyu masu sauki. Tsarin da shi, an sanar da fassarar-programmer-neural wajen nuna aikin taƙaita wajen gabatar da shirin editori masu tsari a kanan filin cikin tsarin, kuma yana daidaita kamar yadda mutane ke sami sauri da canza. Modelinmu na samar da motsi masu sauƙaƙewa na zaman-state-of-the-art-neural (bã da wani ilmi ba) na sami marubuci masu girma a kan marubucin matsayin rubutu matacce da tsari uku na SAR (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsel), kuma ana yi hukunci da mutum ga su gabatar da tsarin duk mafi alhẽri kuma mafi sauƙin matsayi.Abstract
אנחנו מציגים את מודל הפשטות המשפט הראשון שלמד פעולות עורכת ברורות (ADD, DELETE, KEEP) באמצעות גישה לתכנן-מתרגם עצבי. רוב מערכות הפשטות המשפטים העצביים הנוכחיות הן שונות של דוגמנים רצף-לרצף מאומצים מתרגום מכונות. These methods learn to simplify sentences as a byproduct of the fact that they are trained on complex-simple sentence pairs. בניגוד לזה, המתכנן-התרגם העצבי שלנו מאומן ישירות לחזות פעולות עורכת ברורות על חלקים ממוקדים של משפט הכניסה, דומה לדרך שבני אדם מבצעים הפשטות ושינוי. המודל שלנו עולה על מודלים של הפשטת משפטים עצביים מוקדמים (ללא ידע חיצוני) על ידי שווים גדולים בשלושה גופורים של הפשטת טקסט בסימון של SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), ומשופטים על ידי בני האדם כדי לייצר משפטים מושלמים יותר טובים ופשוטים יותר.Abstract
हम पहला वाक्य सरलीकरण मॉडल प्रस्तुत करते हैं जो एक तंत्रिका प्रोग्रामर-दुभाषिया दृष्टिकोण के माध्यम से स्पष्ट संपादन संचालन (ADD, DELETE, और KEEP) सीखता है। अधिकांश वर्तमान तंत्रिका वाक्य सरलीकरण प्रणाली मशीन अनुवाद से अपनाए गए अनुक्रम-से-अनुक्रम मॉडल के रूप हैं। ये विधियां वाक्यों को इस तथ्य के उपोत्पाद के रूप में सरल बनाना सीखती हैं कि उन्हें जटिल-सरल वाक्य जोड़े पर प्रशिक्षित किया जाता है। इसके विपरीत, हमारे तंत्रिका प्रोग्रामर-दुभाषिया को सीधे इनपुट वाक्य के लक्षित भागों पर स्पष्ट संपादन संचालन की भविष्यवाणी करने के लिए प्रशिक्षित किया जाता है, जिस तरह से मनुष्य सरलीकरण और संशोधन करते हैं। हमारा मॉडल एसएआरआई (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) के संदर्भ में तीन बेंचमार्क टेक्स्ट सरलीकरण निगम पर बड़े मार्जिन से पिछले अत्याधुनिक तंत्रिका वाक्य सरलीकरण मॉडल (बाहरी ज्ञान के बिना) को बेहतर बनाता है, और समग्र बेहतर और सरल आउटपुट वाक्यों का उत्पादन करने के लिए मनुष्यों द्वारा न्याय किया जाता है।Abstract
Predstavljamo prvi model pojednostavljanja rečenica koji uči izravne operacije u redakciji (ADD, DELETE i KEEP) putem pristupa neuralnog programera. Većina trenutnih sustava pojednostavljanja neuralnih rečenica su varianti modela sekvence do sekvence usvojene iz prevoda stroja. Ove metode nauče jednostaviti rečenice kao obični proizvod činjenice da su obučeni na kompleksno jednostavnim rečenicama. Uspored toga, naš nervni program-interpreter je direktno obučen da predviđa eksplicitne uredne operacije na ciljnim dijelovima ulazne rečenice, sličavajući način na koji ljudi čine jednostavnost i reviziju. Naš model iznosi prethodne modele pojednostavljivanja neuralnih rečenica (bez vanjskih znanja) velikim maržbama na tri korporacije za pojednostavljanje teksta u obliku SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) i osuđuje se ljudi da proizvode ukupno bolje i jednostavnije rečenice za izlaz.Abstract
Bemutatjuk az első mondat egyszerűsítési modellt, amely egy neurális programozó-tolmácsoló megközelítéssel tanul explicit szerkesztési műveleteket (ADD, DELETE, KEEP). A legtöbb jelenlegi neurális mondat-egyszerűsítő rendszer a gépi fordításból alkalmazott szekvencia-szekvencia modellek változatai. Ezek a módszerek megtanulják egyszerűsíteni a mondatokat, mint mellékterméke annak a ténynek, hogy komplex-egyszerű mondatpárokra képezik őket. Ezzel szemben neurális programozó-tolmácsunkat közvetlenül kiképezték arra, hogy megjósolja az explicit szerkesztési műveleteket a bemeneti mondat célzott részein, hasonlítva az emberek egyszerűsítésének és átdolgozásának módját. Modellünk nagy margókkal felülmúlja a korábbi korszerű neurális mondatok egyszerűsítési modelleket (külső ismeretek nélkül), három referencia szöveg egyszerűsítési corpora SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), és az emberek úgy ítélik meg, hogy összességében jobb és egyszerűbb kimeneti mondatokat hoznak létre.Abstract
Մենք ներկայացնում ենք առաջին նախադասությունը պարզաբանելու մոդելը, որը բացահայտ խմբագրման գործողություններ է սովորում (ADD, DELETE, և Keyp) նյարդային ծրագրավորող-թարգմանիչ մոտեցումների միջոցով: Այսօրվա նյարդային նախադասությունների պարզեցման համակարգերի մեծ մասը մեքենայի թարգմանությունից ընդունված հաջորդականության մոդելների տարբերակներ են: Այս մեթոդները սովորում են պարզաբանել նախադասությունները որպես կողմնակի արդյունք այն փաստից, որ նրանք պատրաստված են բարդ պարզ նախադասությունների զույգերի վրա: Ի հակառակ, մեր նյարդային ծրագրավորող-թարգմանիչը ուղղակիորեն պատրաստված է կանխագուշակել բացատրական խմբագրման գործողությունները ներմուծի նախադասության նպատակային մասերի վրա, որոնք նման են մարդկանց պարզաբանության և վերլուծության կատարման ձևին: Մեր մոդելը արտադրում է նախորդ բարձրագույն նյարդային նախադասությունների պարզաբանման մոդելներ (առանց արտաքին գիտելիքների) երեք համեմատական տեքստի պարզաբանման օրգանիզմի վրա, ինչպիսիք են Սարին (+0.95 ՎիքիԼարգ, +1.89 ՎիքիՍլել, +1.41 Նուզելա), և մարդկանց կողմից դատում է, որ արտադրում է ընդհանուր առAbstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. Most current neural sentence simplification systems are variants of sequence-to-sequence models adopted from machine translation. Metode ini belajar untuk menyederhanakan kalimat sebagai produk samping fakta bahwa mereka dilatih pada pasangan kalimat sederhana kompleks. By contrast, our neural programmer-interpreter is directly trained to predict explicit edit operations on targeted parts of the input sentence, resembling the way that humans perform simplification and revision. Model kami melebihi model penyimplifikasi kalimat saraf terbaik sebelumnya (tanpa pengetahuan luar) dengan margin besar pada tiga korpora penyimplifikasi teks benchmark dalam terma SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), dan dihukum oleh manusia untuk menghasilkan kalimat output yang lebih baik dan sederhana secara keseluruhan.Abstract
Presentiamo il modello di semplificazione della prima frase che apprende operazioni esplicite di modifica (ADD, DELETE e KEEP) tramite un approccio neurale programmatore-interprete. La maggior parte degli attuali sistemi di semplificazione delle frasi neurali sono varianti di modelli sequenza-sequenza adottati dalla traduzione automatica. Questi metodi imparano a semplificare le frasi come sottoprodotto del fatto che sono addestrati su coppie di frasi complesse-semplici. Al contrario, il nostro programmatore-interprete neurale è direttamente addestrato a prevedere operazioni di modifica esplicita su parti mirate della frase di input, simile al modo in cui gli esseri umani eseguono la semplificazione e la revisione. Il nostro modello supera i precedenti modelli di semplificazione delle frasi neurali all'avanguardia (senza conoscenze esterne) con ampi margini su tre corpora di semplificazione del testo di riferimento in termini di SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), ed è giudicato dagli esseri umani per produrre frasi di output migliori e più semplici.Abstract
明示的な編集操作(追加、削除、および保持)をニューラルプログラマインタプリタアプローチを介して学習する最初の文の簡略化モデルを提示します。現在のほとんどの神経文簡略化システムは、機械翻訳から採用されているシーケンスツーシーケンスモデルのバリアントである。これらの方法は、複雑で単純な文のペアで訓練されているという事実の副産物として、文を単純化することを学びます。対照的に、当社のニューラルプログラマインタプリタは、入力文のターゲット部分の明示的な編集操作を予測するように直接訓練されており、人間が簡略化と改訂を行う方法に似ています。当社のモデルは、SARI (+0.95 WikiLarge、+1.89 WikiSmall、+1.41 Newsela )に関して、3つのベンチマークテキスト単純化コーパスで、(外部知識なしで)従来の最先端のニューラル文章単純化モデルを大きく上回り、全体的に優れたシンプルな出力文を生成すると人間によって判断されます。Abstract
Awak dhéwé éntukno sistem sampuran nggo Ketokanan sing isih perusahaan nggambar barang nggawe barang nggawe tarjamahan (AdD, DELITTA, lan KEOP) nganggo perusahaan seneng nggo oleh nggambar uwong. Jute Awak dhéwé éntuk karo perusahaan kelangan kelangan kelangan kelangan winih Genjer-Genjer MondayAbstract
ჩვენ პირველი სიტყვების გამოყენება მოდელს, რომელიც გავისწავლის გამოყენებული რედაქტირება (ADD, DELETE, და KEEP) ნეიროლური პროგრამების ინტერპექტირების მიხედვით. მხოლოდ მიმდინარე ნეიროლური სისტემების განსხვავება არის სისტემების განსხვავებები მაქსინური განსხვავებული მოდელების განსხვავებები. ეს მეტი გავისწავლოთ წერტილების განმავლობა როგორც ფაქტის განმავლობაში, რომ ისინი კომპლექსი განმავლობაში გამოყენებულია. ჩვენი ნეიროლური პროგრამების ინტერპექტირები ექსტურად განაკეთებულია, რომ განაკეთებული რედაქტირების პროგრამეტრების მისაღებული ნაწილი წილადზე, რომელიც ადამიანები განაკეთებული და რედაქტი ჩვენი მოდელი უფრო მეტი გავაკეთებს წინ შემდეგი ნეიროლური წესების გამოყენება მოდელები (გარეშე ცნობილება გარეშე) სამი წესების ტექსტის გამოყენება SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) და ადამიანები უფრო მეტი და უკეთესი გამოყენება.Abstract
Біз невралды бағдарламалық интерпретерлердің түсінікті өңдеу әрекеттерін (ADD, DELETE және KEEP) арқылы бірінші сөзді қарапайым үлгісін көрсетедік. Назардағы невралды сөздерді қарапайым жүйелердің көпшілігі - машина аудармасынан қолданылған реттеу үлгілер үлгілері. Бұл әдістер сөздерді комплекс және қарапайым сөздер екеуіне оқыту үшін қарапайым құрылғы ретінде оқытуды үйренеді. Әйтпесе, біздің невралдық бағдарламалық интерпретеріміз қарапайым және қарапайым түзету әрекеттерін таңдау үшін, адамдардың қарапайым және қарапайым түзету әрекеттеріне сәйкес келеді. Біздің үлгіміздің алдыңғы невралдық сөйлемелерді (сыртқы білім жоқ) үш бағыттау мәтінді қарапайым корпорасының үлкен шектері SARI (+0, 95 WikiLarge, +1, 89 WikiSmall, +1, 41 Newsela) үлгілікті жақсы және қарапайым шығыс сөйлемелерді жасау үшін көмектеседі.Abstract
우리는 첫 번째 문장 간소화 모델을 제시했는데 이 모델은 신경 프로그램 해석기 방법을 통해 현식 편집 조작(첨가, 삭제, 보존)을 배운다.현재 대다수의 신경 문장 간소화 시스템은 모두 기계 번역에서 채택한 서열에서 서열 모델까지의 변체이다.이런 방법들은 문장을 간소화하는 것을 배운다. 왜냐하면 그들은 복잡한 간단한 문장을 맞추어 훈련하기 때문이다.이에 비해 우리의 신경프로그래머 해석기는 직접 훈련을 통해 문장의 목표 부분을 입력하는 현식 편집 조작을 예측할 수 있으며 인류가 간소화하고 수정하는 방식과 유사하다.SARI(+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela)에 따르면 우리의 모델은 세 가지 기준 텍스트 간소화 어료 라이브러리에서 이전에 가장 선진적인 신경 문장 간소화 모델(외부 지식이 없음)을 크게 앞질렀고 전체적으로 더 좋고 간단한 출력 문장이 생겼다는 판단을 받았다.Abstract
Pateikiame pirmojo sakinio supaprastinimo model į, kuris mokosi aiškiai redaguoti operacijas (ADD, DELETE ir KEEP) taikant nervų programuotojo ir vertėjo žodžiu metodą. Dauguma dabartinių nervinių sakinių supaprastinimo sistemų yra iš eilės į eilę modelių variantai, priimti iš mašininio vertimo. Šie metodai mokosi supaprastinti sakinius kaip šalutinį produktą, nes jie mokomi sudėtingomis paprastomis sakinių poromis. Priešingai, mūsų nervų programuotojas ir vertėjas yra tiesiogiai apmokyti numatyti aiškias redakcijos operacijas tikslinėse įvadinio sakinio dalyse, panašiai kaip žmonės atlieka supaprastinimą ir peržiūrą. Mūsų model is atitinka ankstesnius pažangiausius nervinių sakinių supaprastinimo modelius (be išorinių žinių) dideliais maržais trijose lyginamojo teksto supaprastinimo korporacijose SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) ir žmonės mano, kad iš esmės parengia geresnius ir paprastesnius išėjimo sakinius.Abstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. Повеќето сегашни системи за поедноставување на нервните реченици се варијанти на модели од секвенца до секвенца усвоени од машински превод. These methods learn to simplify sentences as a byproduct of the fact that they are trained on complex-simple sentence pairs. За разлика од тоа, нашиот невропски програмер-интерпретач е директно обучен да предвиде експлицитни уредувачки операции на целните делови од вводната реченица, слични на начинот на кој луѓето спроведуваат едноставување и ревизија. Нашиот модел ги надминува претходните модели за поедноставување на нервните реченици (без надворешно знаење) со големи маргини на трите реченици за поедноставување на текстот во поглед на САРИ (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), и се смета од страна на луѓето дека произведуваат вкупно подобри и поедноставни излезни реченици.Abstract
ന്യൂറല് പ്രോഗ്രാമേറ്റര് വ്യാഖ്യാപിക്കുന്ന പ്രോഗ്രാമേര് നടപടിയിലൂടെ പഠിക്കുന്ന ആദ്യ വാക്കിന്റെ എളുപ്പമുള്ള മോഡല് ഞങ് ഇപ്പോഴത്തെ നെയൂറല് വാക്ക് എളുപ്പമാക്കുന്ന സിസ്റ്റം മാറ്റങ്ങളാണ് യന്ത്ര പരിഭാഷത്തില് നിന്നും പ്രയോഗിച്ച വാക്കുകള് സുകൃതമാക്കുവാന് ഈ രീതികള് പഠിക്കുന്നത് കുഴപ്പത്തില് സാധാരണ വാക്കുകള് ജോട്ടുകളില് പഠിപ്പിക് By contrast, our neural programmer-interpreter is directly trained to predict explicit edit operations on targeted parts of the input sentence, resembling the way that humans perform simplification and revision. ഞങ്ങളുടെ മോഡല് മൂന്നു ബെന്ച്മാര്ക്ക് ടെക്സ്റ്റ് എളുപ്പമില്ലാത്ത മാര്ഗിനുകളില് മൂന്ന് ബെന്ച്മെക്മാര്ക്ക് ടെക്സ്റ്റ് എളുപ്പമില്ലാത്ത മാര്ഗിനുകള് പ്രവര്ത്തിപ്പിക്കുന്നു. SARI (+0. 95 വAbstract
Бид анхны өгүүлбэр хялбарчлалын загварыг мэддэг нь мэдрэлийн програмчлагчдын зохиолын аргаар тодорхой загвар (ADD, DELETE, KEEP) шинжлэх ухааны арга загварыг үзүүлнэ. Одоогийн ихэнх мэдрэлийн өгүүлбэр хялбарчлалын систем нь машины хөрөнгө оруулсан дарааллаас дарааллаар давтагдсан загваруудын өөрчлөлт юм. Эдгээр арга нь өгүүлбэрийг комплекс энгийн өгүүлбэрийн хоёр дээр сургалтын бүтээгдэхүүний биеийн бүтээгдэхүүнийг хялбарчилж суралцдаг. Харамсалтай нь, бидний мэдрэлийн программ хөгжүүлэгч шууд хөгжүүлэхэд хүн төрөлхтний хялбарчлал болон шинэчлэл хийх арга зэрэг тодорхой тодорхойлдог үйл ажиллагааг тодорхойлдог. Бидний загвар нь өмнө нь урлагийн мэдрэлийн бодлогын хялбарчлалын загварыг (гадаад мэдлэггүй) SARI-ын хувьд гурван багасгах текст хялбарчлалын корпора дээр илүү том загвар гаргадаг (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) болон хүмүүсийн хувьд илүү сайн болон хялбар өгүүлбэл гаргадаг.Abstract
Kami perkenalkan model pemudahan kalimat pertama yang belajar operasi edit eksplicit (ADD, DELETE, dan KEEP) melalui pendekatan pemrogram-interpreter saraf. Kebanyakan sistem penyempurnaan kalimat saraf semasa adalah varian model urutan-ke-urutan yang diterima dari terjemahan mesin. These methods learn to simplify sentences as a byproduct of the fact that they are trained on complex-simple sentence pairs. Sebaliknya, pemrogram-interpreter saraf kita dilatih secara langsung untuk meramalkan operasi edit eksplicit pada bahagian sasaran kalimat input, yang mirip dengan cara manusia melakukan pemudahan dan revisi. Model kami melampaui model penyempurnaan kalimat saraf yang terakhir (tanpa pengetahuan luaran) dengan margin besar pada tiga korpora penyempurnaan teks tanda referensi dalam terma SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), dan dihukum oleh manusia untuk menghasilkan kalimat output yang lebih baik dan mudah secara keseluruhan.Abstract
Aħna nippreżentaw l-ewwel mudell ta’ simplifikazzjoni tas-sentenza li jitgħallem operazzjonijiet ta’ editjar espliċiti (ADD, DELETE, u KEEP) permezz ta’ approċċ ta’ programmar-interpretu newrali. Most current neural sentence simplification systems are variants of sequence-to-sequence models adopted from machine translation. Dawn il-metodi jitgħallmu jissimplifikaw is-sentenzi bħala prodott sekondarju tal-fatt li huma mħarrġa fuq pari ta’ sentenzi kumplessi u sempliċi. B’kuntrast ma’ dan, il-programmator-interpretu newrali tagħna huwa mħarreġ direttament biex jipprevedi operazzjonijiet ta’ editjar espliċiti fuq partijiet immirati tas-sentenza input, li jixbħu l-mod kif il-bnedmin iwettqu simplifikazzjoni u reviżjoni. Our model outperforms previous state-of-the-art neural sentence simplification models (without external knowledge) by large margins on three benchmark text simplification corpora in terms of SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), and is judged by humans to produce overall better and simpler output sentences.Abstract
We presenteren het eerste zinsvereenvoudigingsmodel dat expliciete bewerkingen leert (ADD, DELETE en KEEP) via een neurale programmeur-interpreter benadering. De meeste huidige systemen voor vereenvoudiging van neurale zinnen zijn varianten van sequentiemodellen die zijn overgenomen uit machinevertaling. Deze methoden leren zinnen te vereenvoudigen als bijproduct van het feit dat ze zijn getraind op complex-eenvoudige zinnenparen. Daarentegen is onze neurale programmeur-interpreter direct getraind om expliciete bewerkingsoperaties op gerichte delen van de invoerzin te voorspellen, vergelijkbaar met de manier waarop mensen vereenvoudiging en revisie uitvoeren. Ons model overtreft eerdere state-of-the-art neurale zinsvereenvoudigingsmodellen (zonder externe kennis) met grote marges op drie benchmark tekstvereenvoudigingscorpora in termen van SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), en wordt door mensen beoordeeld om algehele betere en eenvoudigere uitvoerzinnen te produceren.Abstract
Vi viser den første setningsmodulen som lærer eksplisitt redigeringsoperasjonar (ADD, DELETE og KEEP) gjennom ein nøyralprogram-interpreteringstilnærming. Dei fleste nøyrale setningssystemene er variantar av sequence- to- sequence- modeller som er godtatt frå maskineomsetjinga. Desse metodane lærer å forenkla setningar som byprodukt av det faktum at dei er trengd på komplekse enkle setningsplar. I contrast, our neural programmer-interpreter is directly trained to predict explicit edit operations on the targeted parts of the input sentence, similar to the way humans perform simplification and revision. Vårt modell utfører førre modeller for forenklingar av kunsten i nøyralsetningar (utan eksterne kunnskap) med store marginar på tre benchmarktekstforenklingar i forhold til SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), og vert dårlig av mennesker for å produsere overalt bedre og enklare utsetningar.Abstract
Przedstawiamy pierwszy model uproszczenia zdania, który uczy się wyraźnych operacji edycyjnych (ADD, DELETE i KEEP) za pomocą podejścia neuronowego programista-interpretera. Większość obecnych systemów uproszczenia zdań neuronowych to warianty modeli sekwencji-sekwencji przyjętych z tłumaczenia maszynowego. Metody te uczą się uproszczać zdania jako produkt uboczny faktu, że są one trenowane na złożonych-prostych parach zdań. Natomiast nasz neuronowy programista-interpreter jest bezpośrednio przeszkolony do przewidywania wyraźnych operacji edycyjnych na ukierunkowanych częściach zdania wejściowego, przypominając sposób, w jaki ludzie wykonują uproszczenie i rewizję. Nasz model przewyższa poprzednie najnowocześniejsze modele uproszczenia zdań neuronowych (bez wiedzy zewnętrznej) o duże marginesy na trzech korpusach referencyjnych uproszczenia tekstu pod względem SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsel) i jest oceniany przez ludzi w celu tworzenia ogólnie lepszych i prostszych zdań wyjściowych.Abstract
Apresentamos o modelo de simplificação da primeira frase que aprende operações de edição explícitas (ADD, DELETE e KEEP) por meio de uma abordagem de programador-interpretador neural. A maioria dos atuais sistemas de simplificação de sentenças neurais são variantes de modelos de sequência a sequência adotados da tradução automática. Esses métodos aprendem a simplificar frases como um subproduto do fato de serem treinados em pares de frases simples-complexos. Por outro lado, nosso programador-intérprete neural é treinado diretamente para prever operações de edição explícitas em partes específicas da sentença de entrada, assemelhando-se à maneira como os humanos realizam simplificação e revisão. Nosso modelo supera os modelos anteriores de simplificação de sentença neural de última geração (sem conhecimento externo) por grandes margens em três corpora de simplificação de texto de referência em termos de SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela) e é julgado por humanos para produzir sentenças de saída melhores e mais simples.Abstract
Prezentăm modelul de simplificare a primei propoziții care învață operațiuni explicite de editare (ADD, DELETE și KEEP) printr-o abordare neuronal programator-interpret. Cele mai multe sisteme de simplificare a frazelor neurale actuale sunt variante ale modelelor secvență-secvență adoptate din traducerea automată. Aceste metode învață să simplifice propozițiile ca un produs secundar al faptului că sunt instruite pe perechi de propoziții complexe-simple. Prin contrast, programatorul nostru neural-interpret este instruit direct pentru a prezice operațiunile de editare explicite pe părți vizate ale propoziției de intrare, asemănător cu modul în care oamenii efectuează simplificarea și revizuirea. Modelul nostru depășește modelele anterioare de simplificare a propozițiilor neurale de ultimă generație (fără cunoștințe externe) prin marje mari pe trei corpore de simplificare a textului de referință în termeni de SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), și este considerat de oameni pentru a produce propoziții de ieșire mai bune și mai simple.Abstract
Мы представляем модель упрощения первого предложения, которая изучает явные операции редактирования (ДОБАВЛЕНИЕ, УДАЛЕНИЕ и СОХРАНЕНИЕ) с помощью нейронного подхода программист-интерпретатор. Большинство современных нейронных систем упрощения предложений являются вариантами моделей последовательности к последовательности, принятых из машинного перевода. Эти методы учатся упрощать предложения как побочный продукт того, что они обучены сложно-простым парам предложений. Напротив, наш нейронный программист-интерпретатор непосредственно обучен предсказывать явные операции редактирования на целевых частях входного предложения, что напоминает то, как люди выполняют упрощение и пересмотр. Наша модель превосходит предыдущие ультрасовременные модели упрощения нейронных предложений (без внешнего знания) по большим полям на трех тестовых корпусах упрощения текста с точки зрения SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), и оценивается людьми, чтобы произвести в целом лучшие и более простые выходные предложения.Abstract
අපි පලවෙනි වාක්ය සරලීකරණ මොඩේල් එක ප්රශ්නයක් සම්පාදනය කරන්න පුළුවන් වාක්ය (ADD, DELETET, හා KIEP) විදිහට ප්රක්රියාපක ගොඩක් ප්රස්තූත න්යූරාල් වාක්ය සරලීකරණ පද්ධතිය යුතුයි පද්ධතියේ පද්ධතියේ පද්ධතියෙන් ප්රති මේ විධාන වචනය සරල කරන්න ඉගෙන ගන්න පුළුවන් විදිහට එයාලා ප්රශ්නය සම්පූර්ණ වාක්ය දෙන්න පුළුවන් විරුද්ධයෙන්, අපේ න්යූරාල් ප්රොග්රාමර්-අන්තර්පකය ප්රශ්නයක් ප්රශ්නයක් වෙනුවෙන් ප්රශ්නයක් වෙනුවෙන් ප්රශ්නයක් ව අපේ මොඩල් ප්රතිචාර කලින් ස්ථානය-of-the-art neural වාක්ය සම්පූර්ණය මදුල්ය (එහෙම දන්නවක් නැතිව) විශාල පැත්තක් තුනක් සම්පූර්ණය සඳහා SARI (+0.95 WikiLarge, +1.89 WikiLittle, +1.41 Newsela), සහ මිනිස්Abstract
Predstavljamo model poenostavitve prvega stavka, ki se uči eksplicitnih operacij urejanja (ADD, DELETE in KEEP) preko pristopa nevralnega programerja-interpretatorja. Večina sedanjih sistemov za poenostavitev nevronskih stavkov je različice modelov zaporedja v zaporedje, sprejetih iz strojnega prevajanja. Te metode se naučijo poenostaviti stavke kot stranski produkt dejstva, da so usposobljene na kompleksnih preprostih stavkov. Nasprotno pa je naš nevronski programer-tolmač neposredno usposobljen za napovedovanje eksplicitnih operacij urejanja na ciljnih delih vhodnega stavka, ki so podobni načinu, kako ljudje opravljajo poenostavitev in revizijo. Naš model presega prejšnje najsodobnejše modele za poenostavitev nevronskih stavkov (brez zunanjega znanja) z velikimi robovi na treh referenčnih korpusih za poenostavitev besedila v smislu SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), človek pa ocenjuje, da ustvarja boljše in enostavnejše izhodne stavke.Abstract
Tusaale fudud ee ugu horeeyay ee lagu barto waxqabadka hagitaanka (ADD, DELETE, iyo KEEP) waxaa lagu soo bandhigaa qaabab turjubaan neural ah. Inta badan nidaamka fududaada ee muxalada neurada ah waa noocyo kala duduwan oo laga soo qaaday turjumaadda machine. Wadamadaas waxay ku bartaan si ay u fududeeyaan hadallada sida dhaqdhaqaale oo kale, in lagu baro labada noocyo oo adag ah. Isku xiriir, turjubaalka neurada ah waxaa toos loo baraa in lagu sii sheego shuqullada saxda ah oo ku qoran qeybaha lagu qorayo, si u eg qaababka ay dadku sameeyaan fudud iyo beddelin. Tusaalkayaga ayaa ka muuqata qaabab fududaada xafiiska hore ee xiliga neurada (aan aqoonta dibadda lahayn) oo ku qoran saddex maroon oo waaweyn oo ku qoran qoraalka sahlisashada shirkadaha SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), waxaana lagu xukumaa dadka inuu soo saaro ciqaabo ugu wanaagsan oo fudud.Abstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. Shumica e sistemeve aktuale të thjeshtësimit të fjalëve nervore janë variante të modeleve sekuencë-në-sekuencë të miratuar nga përkthimi i makinave. Këto metoda mësojnë të thjeshtojnë fjalët si një subprodukt të faktit se ato janë trajnuar në çifte fjalësh komplekse-të thjeshta. Përkundrazi, programuesi-interpretuesi ynë nervor është trajnuar drejtpërdrejt për të parashikuar operacionet e ndryshimit eksplicit në pjesët e synuara të fjalimit të hyrjes, duke ngjasur me mënyrën se si njerëzit kryejnë thjeshtësimin dhe revizionin. Our model outperforms previous state-of-the-art neural sentence simplification models (without external knowledge) by large margins on three benchmark text simplification corpora in terms of SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), and is judged by humans to produce overall better and simpler output sentences.Abstract
Predstavljamo prvi model pojednostavljanja rečenica koji nauči eksplicitne operacije editora (ADD, DELETE i KEEP) putem pristupa neuralnog programera. Većina trenutnih sistema pojednostavljanja neuralnih rečenica su varianti modela sekvence do sekvence usvojene iz prevoda mašine. Ove metode nauče da jednostavljaju rečenice kao obični proizvod činjenice da su obučeni za kompleksno jednostavne rečenice. Uzgred, naš neuralni program-interpreter je direktno obučen da predvidi eksplicitne redikcije operacije na ciljnim dijelovima ulazne rečenice, sličavajući način na koji ljudi izvršavaju jednostavnost i reviziju. Naš model iznosi prethodne modele pojednostavljanja neuralne rečenice (bez vanjskih znanja) velikim maržbama na tri korpora za pojednostavljanje teksta u obliku SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), a osuđuje se ljudi da proizvode ukupno bolje i jednostavnije rečenice za izlaz.Abstract
Vi presenterar den första meningen förenklingsmodellen som lär sig explicita redigeringsåtgärder (ADD, DELETE och KEEP) via en neural programmerare-tolk ansats. De flesta nuvarande system för förenkling av neurala meningar är varianter av sekvens-till-sekvensmodeller som antagits från maskinöversättning. Dessa metoder lär sig att förenkla meningar som en biprodukt av det faktum att de är utbildade på komplexa-enkla meningspar. Däremot är vår neurala programmerare-tolk direkt utbildad för att förutsäga explicita redigeringsåtgärder på riktade delar av inmatningen, som liknar hur människor utför förenkling och revision. Vår modell överträffar tidigare state-of-the-art neurala meningsförklaringsmodeller (utan extern kunskap) med stora marginaler på tre referenstextförenklingskorpor i termer av SARI (+0,95 WikiLarge, +1,89 WikiSmall, +1,41 Newsela), och bedöms av människor att producera överlag bättre och enklare utmatningsmeningar.Abstract
Tunaonyesha mtindo wa kwanza wa urahisi wa hukumu ambalo unajifunza shughuli za uhariri wazi (ADD, DELETE na KEEP) kupitia mbinu ya utafsiri wa programu ya kiurali. Mfumo wa urahisi wa hukumu ya kisasa wa sasa ni tofauti za mifano ya mfululizo wa mfululizo unaotumiwa kutoka tafsiri ya mashine. Hatua hizi zinajifunza kuboresha hukumu kama uzalishaji wa ukweli kwamba wanafunzwa kwa namna mbili rahisi za hukumu. Tofauti na tofauti, tafsiri wetu wa programu ya kiuchumi inafundishwa moja kwa moja kutabiri shughuli za uhariri kwa maeneo yanayolengwa na hukumu hiyo, ikilinganisha na namna binadamu wanavyofanya urahisi na mabadiliko. Mfano wetu unaonyesha mifano ya urahisi wa hukumu ya zamani ya kisasa (bila ufahamu wa nje) na vigogo vikubwa kwenye kampuni tatu ya urahisi wa simu za bendera kwa mujibu wa SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela), na inahukumiwa na binadamu kutengeneza hukumu bora zaidi na rahisi za matokeo.Abstract
We present the first sentence simplification model that learns explicit edit operations (ADD, DELETE, and KEEP) via a neural programmer-interpreter approach. பெரும்பாலான நடப்பு புதிய வாக்கு எளிதாக்கு அமைப்பு இந்த முறைகள் சிக்கலான வாக்கியத்தின் ஜோடியில் அவர்களுக்கு பயிற்சி செய்யப்பட்டுள்ளது என்று உண்மையின் பைப்பொரு மாறாக, எங்கள் புதிய நிரல் மொழிபெயர்ப்பாளர் நேரடியாக தொகுப்பு செயல்பாடுகளை வெளிப்படையாக திருத்துவதற்கு பயிற்சி அளிக்கப்பட்டுள்ளது, உள்ளீட எங்கள் மாதிரி முந்தைய நிலையில் இருந்து புதிய புதிய வாக்கு எளிதாக்குதல் மாதிரி செயல்படுத்துகிறது (வெளிப்புற அறிவில்லாமல்) மூன்று பெரிய ஓரங்கள் SARI (+0. 95 WikiLarge, +1. 89 WikiSmall, +1. 41 செய்திகள்) மொத்தமAbstract
Biz ilkinji sözleşme basitleme nusgasyny näyral programçi terjimeleri bilen aydınlaşyk emellerini öwredýäris (ADD, DELETE we KEEP). Iň köp näyral sözlem ýeňlemek sistemleri makine terjimeden kabul edilen sequence-to-sequence modelleriň wariantleri. Bu yöntemler sözlerini kompleks-basit sözleşim çiftlerde öwrenmek üçin bytdir diýip öwrenýärler. Gerçekten, nöral programcımız yorumlayıcımız, insanoğlunun basitleştirmesi ve revisyonu yaptığı şekilde açık düzenleme operasyonlarını tahmin etmek için eğitildir. Biziň nusgamyz SARI (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) hasaplanýar we adamlar tarapyndan ähli gowy we ýeňil çykyş sözlerini üretmek üçin öňki döwletlerde-de-gelen nusgal sözlerini diňleýär.Abstract
ہم پہلی جماعت سفارشی موڈل کو پیش کرتے ہیں جو ایک نئورل پروگرامر کی تعبیر کے ذریعہ سفارشی کی عملیات (ADD, DELETE اور KEEP) سکھاتا ہے۔ بہت سی موجود نیورل جماعت ساده سازی سیسٹم مشین ترجمہ سے قبول کیے جاتے ہیں. یہ طریقے سفارش کرتے ہیں کہ کلمات کو اس حقیقت کے باعث سادھا سادھا سادھا جوڑوں پر آموزش کی جاتی ہیں۔ مخالفت سے، ہمارے نیورال پروگرامر-تربیٹر مستقیماً تعلیم کی جاتی ہے کہ اسے اندازے کے مقرر کردہ حصوں پر مشخص سمجھنے کی سفارش کریں، انسانوں کی طرح سادھایا کریں اور تجویز کریں. ہماری مدل پہلے کی حالت کی نئورل جماعت سازونی موڈل (بیرون علم کے بغیر) کو SARI کے مطابق تین بنچم مارک کے متن سازونی کے قانون سے زیادہ محدود کرتا ہے (+0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela کے مطابق) اور انسانوں نے بہترین اور سادھی آوٹ جماعت بنانے کے لئے فیصلہ کیا ہے۔Abstract
Biz birinchi so'zni soddalash modeli bilan birinchi so'zni tahrirlash amallarini o'rganamiz, neyural dastur tarjima qiluvchi usuli orqali yaxshi o'rganadi. Name Bu usullar so'zlarni bir avlod sifatida o'rganadi, ularning murakkab- sodda soʻzlarda o'rganadi. Ikkinchi tomonda, bizning neyrolik dastur tarjima qiluvchimiz odamlar oddiylik va tahrirlashni bajarishga tayyorlash amallarini tahrirlash uchun ishlatiladi. Biz modelmiz SARI (+0. 95 WikiLarge, +1. 89 WikiSmall, +1. 41 Newsela) bilan uchta benchmark matn simplification kompaniyasidagi birinchi darajada soddalash usullarni bajaradi va oddiy va oddiy natijalarni ishga tushirish mumkin.Abstract
Chúng tôi trình bày mô hình mô phỏng đầu tiên học các thao tác biên bản chính xác (ADD, DelEthan, và GÁC) qua phương pháp dịch lập trình viên thần kinh. Hầu hết hệ thống phân phối dây thần kinh hiện tại là các biến thể của các mô-tơ-nối được chọn từ phiên dịch cỗ máy. Những phương pháp này học cách đơn giản hóa câu như một sản phẩm phụ bởi việc họ được huấn luyện về một cặp câu đơn giản phức tạp. Tuy nhiên, người lập trình viên dây thần kinh của chúng tôi được huấn luyện trực tiếp để dự đoán các thao tác sửa đổi rõ ràng trên các phần của câu nhập, giống với cách con người thực hiện sự đơn giản và sửa đổi. Bản mẫu của chúng tôi hoàn thiện những mô hình nền thần kinh tiên tiến trước đây, mà không có kiến thức bên ngoài, bằng cách mở rộng ngoại lệ với ba biện pháp điêu khắc trên cơ bản theo cách âm tính SarI (+0.95 WikiLLarge, +1.899 WikiLSmall, +1.41 News) và được con người phán quyết để sản xuất ra một câu hoàn to àn tốt hơn và đơn giản hơn.Abstract
首句简模,当神经程序员 - 解释器法学显式辑操(ADD,DELETEKEEP)。 大抵神经句简化系统,皆取机器翻译之序于变体。 其法学简句,以为杂 - 简句之副产品。 比之神经程序员解释器训练,可以占输句显式,类人简修。 吾形在SARI(+0.95 WikiLarge,+1.89 WikiSmall+1.41 Newsela)三准文本简化语料库上先先进者神经句简(无外知)大幅度,而人决以生体,更简输句。- Anthology ID:
- P19-1331
- Volume:
- Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics
- Month:
- July
- Year:
- 2019
- Address:
- Florence, Italy
- Venue:
- ACL
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 3393–3402
- Language:
- URL:
- https://aclanthology.org/P19-1331
- DOI:
- 10.18653/v1/P19-1331
- Bibkey:
- Cite (ACL):
- Yue Dong, Zichao Li, Mehdi Rezagholizadeh, and Jackie Chi Kit Cheung. 2019. EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 3393–3402, Florence, Italy. Association for Computational Linguistics.
- Cite (Informal):
- EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing (Dong et al., ACL 2019)
- Copy Citation:
- PDF:
- https://aclanthology.org/P19-1331.pdf
- Video:
- https://vimeo.com/384771870
- Code
- yuedongP/EditNTS
- Data
- Newsela, TurkCorpus, WikiLarge
- Terminologies:
Export citation
@inproceedings{dong-etal-2019-editnts, title = "EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing{E}dit{NTS}: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing", author = "Dong, Yue and Li, Zichao and Rezagholizadeh, Mehdi and Cheung, Jackie Chi Kit", booktitle = "Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics", month = jul, year = "2019", address = "Florence, Italy", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/P19-1331", doi = "10.18653/v1/P19-1331", pages = "3393--3402", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="dong-etal-2019-editnts"> <titleInfo> <title>EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing</title> </titleInfo> <name type="personal"> <namePart type="given">Yue</namePart> <namePart type="family">Dong</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Zichao</namePart> <namePart type="family">Li</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Mehdi</namePart> <namePart type="family">Rezagholizadeh</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Jackie</namePart> <namePart type="given">Chi</namePart> <namePart type="given">Kit</namePart> <namePart type="family">Cheung</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2019-07</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Florence, Italy</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">dong-etal-2019-editnts</identifier> <identifier type="doi">10.18653/v1/P19-1331</identifier> <location> <url>https://aclanthology.org/P19-1331</url> </location> <part> <date>2019-07</date> <extent unit="page"> <start>3393</start> <end>3402</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing %A Dong, Yue %A Li, Zichao %A Rezagholizadeh, Mehdi %A Cheung, Jackie Chi Kit %S Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics %D 2019 %8 July %I Association for Computational Linguistics %C Florence, Italy %F dong-etal-2019-editnts %R 10.18653/v1/P19-1331 %U https://aclanthology.org/P19-1331 %U https://doi.org/10.18653/v1/P19-1331 %P 3393-3402
Markdown (Informal)
[EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing](https://aclanthology.org/P19-1331) (Dong et al., ACL 2019)
- EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing (Dong et al., ACL 2019)
ACL
- Yue Dong, Zichao Li, Mehdi Rezagholizadeh, and Jackie Chi Kit Cheung. 2019. EditNTS : An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit EditingEditNTS: An Neural Programmer-Interpreter Model for Sentence Simplification through Explicit Editing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 3393–3402, Florence, Italy. Association for Computational Linguistics.