Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework Fet- Shot Tabulêre Data Verrichting gebruik Fine- Tuned Transformer Architectures የመድረክ ስም إثراء البيانات الجدولية لقطات قليلة باستخدام بنى محولات دقيقة الضبط Qısqa-vurulmuş Tərcümə Veriləri Enrichtingi Yaxşı Tərcümə Arhitektürləri Обогатяване на таблицарни данни с помощта на фино настроени архитектури на трансформатори সুন্দর- ট্রান্সভেন্ডের অনুবাদ ব্যবহার করে অল্প-শুট ট ট্যাবুলের তথ্য বিদায় Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures Malo snimanja tabularnih podataka koristeći dobre transformacijske arhitekture Enriqueciment de dades tabulars fets amb poques fotos utilitzant arquitectures de transformació finament adaptades Obohacení tabulkových dat pomocí jemně vyladěných transformátorových architektur Few-Shot tabular databerigelse ved hjælp af finjusterede transformatorarkitekturer Weniger-Shot-Tabellendatenanreicherung mithilfe fein abgestimmter Transformatorarchitekturen Πίνακας εμπλουτισμού δεδομένων με λίγα πλάνα χρησιμοποιώντας τις εκλεπτυσμένες αρχιτεκτονικές μετασχηματιστών Enriquecimiento de datos tabulares de pocos disparos mediante arquitecturas de transformadores ajustadas Vähese pildiga tabeliandmete rikastamine, kasutades peen häälestatud transformaatori arhitektuure افزایش دادههای تابلوی کمی از استفاده از معمارهای تغییردهندههای نیکو Muutaman kuvan taulukkotietojen rikastus hienoviritettyjen muuntajien arkkitehtuurien avulla Enrichissement de données tabulaires en quelques prises à l'aide d'architectures de transformateurs affinées Saibhriú Táblach ar Mhion Urchar ag Úsáid Ailtirí Trasfhoirmeoirí Mionchoigeartaithe KCharselect unicode block name עשירת מידע טבלונית קטנה באמצעות ארכיטקטורות מעברות מתאימות कुछ शॉट सारणीबद्ध डेटा संवर्धन ठीक ट्यून ट्रांसफार्मर आर्किटेक्चर का उपयोग कर Malo snimanja tabularnih podataka koristeći dobre transformacijske arhitekture Néhány felvétel táblázatos adatbővítés finomhangolt transzformátor architektúrákkal Comment Pengkaya Data Tabular Beberapa Tembakan Menggunakan Arkitektur Transformer Tersesuai Terbaik Arricchimento dei dati tabulari in pochi scatti utilizzando architetture di trasformatori perfezionate 微調整された変圧器アーキテクチャを使用した数少ないショット表形式のデータエンリッチメント string" in "context_BAR_stringLink პატარა სტრაბულური მონაცემების გაზრუქმება Кестелер деректерін бағалау 마이크로 변압기 구조의 소렌즈 표 데이터 농축 사용 Name Name കുറച്ചു വെടിവെക്കുന്ന ടാബുള് ഡേറ്റാ എക്സ്മെന്റ് Бага зэрэг хүснэгт өгөгдлийн хөгжүүлэлт Penikmatan Data Tabular Beberapa Tembakan menggunakan Arkitektur Transformer Tertunjukan Terbaik L-arrikkiment ta’ Dejta Tabulari bi Ftit Riżultati bl-Użu ta’ Arkitetturi Trasformativi Mhux Irfinati Enige-shot tabulaire gegevensverrijking met behulp van verfijnde transformatorarchitecturen Få-skytte tabulatoropplysning av data ved bruk av finnstilte transformeringsarkitektur Wzbogacanie danych tabelarnych niewielu ujęć za pomocą precyzyjnie dostrojonych architektur transformatorów Enriquecimento de dados tabulares de poucas fotos usando arquiteturas de transformador ajustadas com precisão Îmbunătățirea datelor tabulare cu puține fotografii utilizând arhitecturi de transformare reglate fin Малоударное табличное обогащение данных с использованием тонко настроенных архитектур трансформаторов ටැබුලර් දත්ත විස්තර කරන්න පුළුවන් විස්තර කරන්න Obogatenje tabelarnih podatkov z uporabo natančno nastavljenih arhitektur transformatorjev Enrichment using Fine-Tuned Transformer Architectures Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures Malo snimanja tabularnih podataka koristeći dobre transformacijske arhitekture Få bilder tabulär databerikning med finjusterade transformatorarkitekturer Ukubwa wa taarifa za Tabulu wenye risasi ndogo kwa kutumia Makasiliano ya Tafsiri zilizotiwa vizuri குறைந்த- வெட்டி அட்டவணை தகவல் மாற்றும் மாற்று உருவாக்கங்களை பயன்படுத்துகிறது Taýdaly Mazmunlar کم شٹ ٹیبلاری ڈاٹا امنیٹ Name Trình nền Truyền hình ảnh ngắn/ ngắn 用微调变压器架构者少镜头表格数广之
Abstract
Simultaneous machine translation (SiMT) starts translating while receiving the streaming source inputs, and hence the source sentence is always incomplete during translating. Different from the full-sentence MT using the conventional seq-to-seq architecture, SiMT often applies prefix-to-prefix architecture, which forces each target word to only align with a partial source prefix to adapt to the incomplete source in streaming inputs. However, the source words in the front positions are always illusoryly considered more important since they appear in more prefixes, resulting in position bias, which makes the model pay more attention on the front source positions in testing. In this paper, we first analyze the phenomenon of position bias in SiMT, and develop a Length-Aware Framework to reduce the position bias by bridging the structural gap between SiMT and full-sentence MT. Specifically, given the streaming inputs, we first predict the full-sentence length and then fill the future source position with positional encoding, thereby turning the streaming inputs into a pseudo full-sentence. The proposed framework can be integrated into most existing SiMT methods to further improve performance. Experiments on two representative SiMT methods, including the state-of-the-art adaptive policy, show that our method successfully reduces the position bias and thereby achieves better SiMT performance.Abstract
Die verrykking van tabulêre datastelle wat eksterne bronne gebruik het, het in onlangse jaar betaling aandag gekry. Bestaande oplossings, egter, of ignoreer eksterne ongestruktureerde data volledig of stel datastel spesifieke oplossings. In hierdie studie het ons voorgestel 'n algemene en sterk raamwerk vir die verryking van tabulêre datastelle met gebruik van onstruktureerde data. Deur onderwerp oor veelvuldige datastelle, kan ons toegang generieke modele ontwikkel wat aan addisionele datastelle met minimaal onderwerp kan word (bv. paar-skoot). Ons toegang is gebaseer op 'n aanpassing van BERT, waarvan ons 'n novele fin-tuning toegang voorsien wat die tuples van die datastelle as setings reformeer. Ons evaluering, wat op 17 datastelle gedoen is, vertoon dat FeSTE in staat kan genereer hoë kwaliteit funksies en betekenlik uitvoer bestaande fine-tuning oplossings.Abstract
በአሁኑ ዓመታት ውስጥ የውጭ ኩነቶች በመጠቀም የአባቢው የዳታ ማሰሪያ ጥቅረት አግኝቷል፡፡ የአሁኑ መፍትሄዎች ግን የውጭው የተመሠረቱትን ዳታ ሙሉ ትተዋል ወይም የዳታ-set-specific መፍትሄዎችን መግለጫ አድርጉ፡፡ በዚህ ትምህርት ውስጥ የተመሳሳይ ዳታዎችን በመጠቀም የጠቅላላ እና የረኀብ ፍሬማርቶችን ለመጠቀም አግኝተናል፡፡ በብዙ ዳታተሮች ላይ በማስተማርነት፣ የሥርዓታችን አካባቢ ሞዴል ማድረግ ይችላል፡፡ አካሄዳችን የዳታ አካባቢዎችን እንደ ፍርድ የሚያደርግ የዘላለም አካሄድ አቀማመጥ ነው፡፡ የ17 ዳታ ሰርቨሮች ውስጥ የተደረገውን ማስታወቂያውን ፍSTE የጥልቅ ጥሩ ምርጫዎችን ማውጣት ይችላል፡፡Abstract
اكتسب إثراء مجموعات البيانات المجدولة باستخدام مصادر خارجية اهتمامًا كبيرًا في السنوات الأخيرة. ومع ذلك ، فإن الحلول الحالية إما أن تتجاهل البيانات الخارجية غير المهيكلة تمامًا أو تبتكر حلولًا خاصة بمجموعة البيانات. في هذه الدراسة ، اقترحنا التخصيب القائم على المحولات (FeSTE) ، وهو إطار عام وقوي لإثراء مجموعات البيانات الجدولية باستخدام بيانات غير منظمة. من خلال التدريب على مجموعات بيانات متعددة ، يكون نهجنا قادرًا على تطوير نماذج عامة يمكن تطبيقها على مجموعات بيانات إضافية بأقل قدر من التدريب (على سبيل المثال ، عدد قليل من الطلقات). يعتمد نهجنا على تكييف BERT ، والذي نقدم له منهجًا جديدًا للضبط الدقيق يعيد صياغة مجموعات مجموعات البيانات كجمل. يُظهر تقييمنا ، الذي تم إجراؤه على 17 مجموعة بيانات ، أن FeSTE قادرة على إنشاء ميزات عالية الجودة وتتفوق بشكل كبير على حلول الضبط الحالية.Abstract
Dərzində mənbələr istifadə edərək tabular veri qurularının genişlənməsi son illərdə möhkəm məlumatları artırdı. Ancaq mövcud çətinləri ya daxilində qurulmadığı məlumatları tamamilə görməyin, ya da verilən quruluş müəyyən çətinləri təyin et. Bu təhsil içində biz FeSTE tabanlı Küçük-Shot Transformer Enrichment (FeSTE) təklif etdik, qurulmadığımız məlumatları istifadə edərək tabular veri qurğularının genişlənməsi üçün çox qüvvətli və qüvvətli frameworklər təklif etdik. Birçox verilən qurğular üzərində təhsil etmək vasitəsilə, bizim metodumuz minimal təhsil ilə istifadə edilə biləcək çoxlu verilən modellərə təhsil edə bilər. Bizim yaxınlığımız BERT'nin uyğunlaşdırmasına dayandırılmışdır. Biz onun üçün yeni təmizləmə yaxınlığını göstəririk ki, verilən quruluşlarını cümlələr kimi dəyişdirir. 17 verilən qurğularda işlədiyimiz değerlendirmək FeSTE yüksək kaliteli xüsusiyyətləri yarada bilər və mövcud mövcud təmizləyici çətinliklərdən çox üstün olar.Abstract
Обогатяването на таблични набори от данни, използващи външни източници, привлече значително внимание през последните години. Съществуващите решения обаче или игнорират напълно външните неструктурирани данни, или разработват специфични решения за набора от данни. В това проучване ние предложихме обогатяване на базата на няколко трансформатора (FeSTE), обща и стабилна рамка за обогатяване на таблични набори от данни, използващи неструктурирани данни. Чрез обучение върху множество набори от данни, нашият подход е в състояние да разработи генерични модели, които могат да бъдат приложени към допълнителни набори от данни с минимално обучение (т.е. няколко кадъра). Нашият подход се основава на адаптация на БРТ, за която представяме нов подход за фина настройка, който реформира туплите на наборите от данни като изречения. Нашата оценка, проведена на 17 набора от данни, показва, че е в състояние да генерира висококачествени функции и значително да превъзхожда съществуващите решения за фина настройка.Abstract
The enrichment of tabular datasets using external sources has gained significant attention in recent years. তবে বিদ্যমান সমাধান, বাইরের অকার্যকর তথ্য পুরোপুরি উপেক্ষা করে অথবা ডাটাসেট-নির্দিষ্ট সমাধান তৈরি করুন। এই গবেষণায় আমরা অক্ষরিত তথ্য ব্যবহার করে ট্যাবুলাল ডাটাসেট সমৃদ্ধ করার জন্য একটি সাধারণ এবং রোবট কাঠামো প্রস্তাব করেছি। বেশ কয়েকটি ডাটাসেটের বেশী প্রশিক্ষণের মাধ্যমে আমাদের পদক্ষেপ সাধারণ মডেল উন্নয়ন করতে পারে যেগুলো কম প্রশিক্ষণের সাথে অতিরিক্ত তথ আমাদের প্রতিযোগিতা বিবেরেটের একটি আপেটপেশনের উপর ভিত্তি করেছে, যার জন্য আমরা একটি উপন্যাস সুন্দর প্রতিযোগিতা উপস্থাপন করি যা ডাটাসেটে আমাদের মূল্য, ১৭ তথ্য সেটে অনুষ্ঠিত হয়েছে, দেখাচ্ছে যে ফেস্টি উচ্চ মানের বৈশিষ্ট্য তৈরি করতে সক্ষম এবং বিদ্যমান সুন্দর সুযোগেরAbstract
ཕྱིར་ཐོན་ཁུངས་སྤྱོད་པའི་ཤོག་བྱང་གི་ཆ་འཕྲིན་སྒྲིག Existing solutions, however, either ignore external unstructured data completely or devise dataset-specific solutions. In this study we proposed Few-Shot Transformer based Enrichment (FeSTE), a generic and robust framework for the enrichment of tabular datasets using unstructured data. Name ང་ཚོའི་ཐབས་ལམ་ལུགས་གནད་སྡུད་ཚན་མང་པོ་ཞིག་གིས་བདེ་སྦྱོར་བྱེད་ཀྱི་ཡོད་པ་དེ་ལས་ཉུང་བའི་མཐུད་སྒྲིག ང་ཚོའི་གཟུགས་སྐོར་ནི་BERT ལ་བཟོ་བཅོས་ཀྱི་ཐབས་ལམ་ལ་གཞི་བྱས་ཡོད། དེ་ལ་ང་ཚོས་གསར་གཏོང་གི་ཐབས་ལམ་ལུགས་ཉེན་བཟོ་བྱེད་ཀྱི་ཡོད་ ང་ཚོའི་དཔྱད་ཚད་ལྡན་ཚན་17 ཡིག་གཟུགས་ཀྱི་ཚད་ལྟར་བཞིན་བྱས་ཡོད་པས། FeSTE ནི་རང་ཉིད་ཀྱི་ཁྱད་ཚད་ལྡན་རིམ་པ་སྒྲིག་འཛུགས་Abstract
Obogaćanje tabularnih seta podataka koristeći vanjske izvore dobilo je značajnu pažnju u posljednjih godina. Međutim, postojeće rješenja ili ignorirati spoljne ne strukture podatke u potpunosti ili smisliti specifične rješenja podataka. U ovom ispitivanju smo predložili objašnjenje na osnovu "FeSTE", generični i snažni okvir za bogatstvo tabularnih seta podataka koristeći neostrukturne podatke. Obučavajući više podataka, naš pristup je u stanju razviti generične modele koje se mogu primjenjivati na dodatne podatake sa minimalnim obukom (t.i., malo snimanja). Naš pristup je baziran na adaptaciji BERT-a, za koju predstavljamo novi pristup ispravnoj prilagodbi koji reformira poklopce podataka kao rečenice. Naša procjena, provedena na 17 podataka, pokazuje da FeSTE može stvoriti visoke kvalitetne funkcije i značajno nadmašiti postojeće rješenje za finaliziranje.Abstract
L'enriqueciment de conjunts de dades tabulars que utilitzen fonts externes ha guanyat una atenció significativa en els últims anys. Però les solucions existents, o ignoren totalment les dades externes no estructuradas, o dissenyen solucions específices del conjunt de dades. En aquest estudi vam proposar un enriqueciment basat en Few-Shot Transformer (FeSTE), un marc genèric i robust per enriquecer conjunts de dades tabulars utilitzant dades no estructuradas. Treinant sobre múltiples conjunts de dades, el nostre enfocament és capaç de desenvolupar models genèrics que es poden aplicar a conjunts de dades adicionals amb una capacitat mínima (és a dir, pocs fotos). El nostre enfocament està basat en una adaptació del BERT, per la qual presentem un enfocament novel d'ajustament que reformula els dobles dels conjunts de dades com a frases. La nostra avaluació, feta amb 17 conjunts de dades, mostra que FeSTE és capaç de generar característiques d'alta qualitat i superar significativament les solucions d'ajustament existents.Abstract
Obohacení tabulkových datových souborů pomocí externích zdrojů získalo v posledních letech významnou pozornost. Stávající řešení však buď úplně ignorují externí nestrukturovaná data, nebo navrhují řešení specifická pro datovou sadu. V této studii jsme navrhli Few-Shot Transformer based Enrichment (FeSTE), obecný a robustní rámec pro obohacení tabulkových datových sad pomocí nestrukturovaných dat. Školením na více datových sadách je náš přístup schopen vytvořit generické modely, které lze aplikovat na další datové sady s minimálním tréninkem (tj. málo záběrů). Náš přístup je založen na adaptaci BERT, pro kterou představujeme nový přístup k jemnému ladění, který přeformuluje vlnky datových sad jako věty. Naše hodnocení provedené na sedmnácti datových sadách ukazuje, že FeSTE je schopen generovat vysoce kvalitní funkce a výrazně překonat stávající řešení jemného ladění.Abstract
Berigelsen af tabeldatasæt ved hjælp af eksterne kilder har fået stor opmærksomhed i de senere år. Eksisterende løsninger ignorerer dog enten eksterne ustrukturerede data fuldstændigt eller udtænker datasætsspecifikke løsninger. I dette studie foreslog vi Few-Shot Transformer Based Enrichment (FeSTE), en generisk og robust ramme for berigelse af tabeldatasæt ved hjælp af ustrukturerede data. Ved at træne over flere datasæt er vores tilgang i stand til at udvikle generiske modeller, der kan anvendes på yderligere datasæt med minimal træning (dvs. få skud). Vores tilgang er baseret på en tilpasning af BERT, hvor vi præsenterer en ny finjusterende tilgang, der omformulerer tuplerne i datasættet som sætninger. Vores evaluering, der er udført på 17 datasæt, viser, at FeSTE er i stand til at generere funktioner af høj kvalitet og betydeligt overgå eksisterende finjusterende løsninger.Abstract
Die Anreicherung von tabellarischen Datensätzen mit externen Quellen hat in den letzten Jahren große Aufmerksamkeit gewonnen. Bestehende Lösungen ignorieren jedoch entweder externe unstrukturierte Daten vollständig oder entwickeln datensatzspezifische Lösungen. In dieser Studie haben wir Few-Shot Transformer based Enrichment (FeSTE) vorgeschlagen, ein generisches und robustes Framework zur Anreicherung von tabellarischen Datensätzen mit unstrukturierten Daten. Durch Training über mehrere Datensätze ist unser Ansatz in der Lage, generische Modelle zu entwickeln, die auf zusätzliche Datensätze mit minimalem Training angewendet werden können (d.h. wenige Aufnahmen). Unser Ansatz basiert auf einer Adaption von BERT, für die wir einen neuartigen Feinabstimmungsansatz vorstellen, der die Tupel der Datensätze als Sätze umformuliert. Unsere Auswertung auf 17-Datensätzen zeigt, dass FeSTE in der Lage ist, qualitativ hochwertige Features zu generieren und bestehende Feinabstimmungslösungen deutlich zu übertreffen.Abstract
Ο εμπλουτισμός των πινάκων δεδομένων με τη χρήση εξωτερικών πηγών έχει κερδίσει σημαντική προσοχή τα τελευταία χρόνια. Ωστόσο, οι υπάρχουσες λύσεις είτε αγνοούν εντελώς τα εξωτερικά μη δομημένα δεδομένα είτε επινοούν λύσεις ειδικά για το σύνολο δεδομένων. Στην παρούσα μελέτη προτείναμε τον εμπλουτισμό με βάση τον μετασχηματιστή λίγα πλάνα (ένα γενικό και ισχυρό πλαίσιο για τον εμπλουτισμό των πινάκων δεδομένων χρησιμοποιώντας μη δομημένα δεδομένα. Με την εκπαίδευση πάνω από πολλαπλά σύνολα δεδομένων, η προσέγγισή μας είναι σε θέση να αναπτύξουμε γενικά μοντέλα που μπορούν να εφαρμοστούν σε πρόσθετα σύνολα δεδομένων με ελάχιστη εκπαίδευση (δηλαδή, λίγες λήψεις). Η προσέγγισή μας βασίζεται σε μια προσαρμογή του BERT, για την οποία παρουσιάζουμε μια νέα προσέγγιση λεπτομέρειας που επαναδιατυπώνει τα τούβλα των συνόλων δεδομένων ως προτάσεις. Η αξιολόγησή μας, που διεξήχθη σε 17σύνολα δεδομένων, δείχνει ότι η FeSTE είναι σε θέση να παράγει χαρακτηριστικά υψηλής ποιότητας και να ξεπερνά σημαντικά τις υπάρχουσες λύσεις βελτιστοποίησης.Abstract
El enriquecimiento de los conjuntos de datos tabulares utilizando fuentes externas ha ganado una atención significativa en los últimos años. Sin embargo, las soluciones existentes ignoran completamente los datos no estructurados externos o diseñan soluciones específicas para conjuntos de datos. En este estudio, propusimos el Enriquecimiento basado en transformadores de pocos disparos (FESTE), un marco genérico y robusto para el enriquecimiento de conjuntos de datos tabulares utilizando datos no estructurados. Mediante la capacitación sobre múltiples conjuntos de datos, nuestro enfoque es capaz de desarrollar modelos genéricos que se pueden aplicar a conjuntos de datos adicionales con una capacitación mínima (es decir, pocos intentos). Nuestro enfoque se basa en una adaptación de BERT, para lo cual presentamos un novedoso enfoque de ajuste que reformula las tuplas de los conjuntos de datos como oraciones. Nuestra evaluación, realizada en 17 conjuntos de datos, muestra que FESTE es capaz de generar funciones de alta calidad y superar significativamente las soluciones de ajuste existentes.Abstract
Viimastel aastatel on märkimisväärset tähelepanu pälvinud tabeliandmekogumite rikastamine välisallikate abil. Olemasolevad lahendused kas ignoreerivad täielikult väliseid struktureerimata andmeid või töötavad välja andmekogumile spetsiifilised lahendused. Selles uuringus pakkusime välja FeSTE (FeSTE-Few-Shot Transformer based Enrichment), üldise ja tugeva raamistiku tabeliandmekogumite rikastamiseks struktureerimata andmete abil. Koolitades mitme andmekogumi, on meie lähenemisviis võimeline välja töötama üldised mudelid, mida saab rakendada täiendavatele andmekogumitele minimaalse koolitusega (st vähese võimalusega). Meie lähenemisviis põhineb BERT-i kohandamisel, mille jaoks esitame uudset peenhäälestuslikku lähenemisviisi, mis vormistab andmekogumite tuplid lausetena. Meie 17 andmekogumi põhjal läbi viidud hindamine näitab, et FeSTE suudab luua kvaliteetseid funktsioone ja oluliselt ületada olemasolevaid peenhäälestuslahendusi.Abstract
افزایش مجموعههای اطلاعات تابلوری با استفاده از منابع خارجی در سالهای اخیر توجه بسیار زیادی به دست آورده است. ولی راه حلهای موجود، یا دادههای خارجی که ساخته نشدهاند کاملاً نادیده بگیرید یا راهحلهای ویژهای برای مجموعه دادهها را تغییر دهید. در این مطالعه ما پیشنهاد دادیم که تغییردهندهی تغییردهندهی کم شلیک بر اساس تغییردهنده (FeSTE) یک چهارچهارچهارچهارچهارچهارچهارچهارچهارچهارچهارچهارچهارچهار با تمرین روی مجموعههای اطلاعات متعدد، دستور ما قادر است برای توسعه مدلهای ژنرالی که میتوانند به مجموعههای اطلاعات اضافهای با تمرین minimal (یعنی چند شلیک) استفاده کنند. دستور ما بر اساس تعادل BERT است که برای آن یک دستور نیکوترین تنظیمات نویسی را پیشنهاد میکنیم که پارچههای مجموعههای دادهها را به عنوان جملهها تغییر میدهد. ارزیابی ما، که روی 17 مجموعه دادهها انجام شده، نشان میدهد که FeSTE قادر است ویژههای کیفیت بالا تولید کند و به شدت بیشتر از راه حلهای خوب تنظیم موجود باشد.Abstract
Taulukkotietojen rikastaminen ulkoisten lähteiden avulla on saanut viime vuosina merkittävää huomiota. Olemassa olevat ratkaisut kuitenkin joko sivuuttavat ulkoisen rakenteettoman datan kokonaan tai kehittävät aineistokohtaisia ratkaisuja. Tässä tutkimuksessa ehdotimme Few-Shot Transformer based Enrichment (FeSTE), geneeristä ja vankkaa kehystä taulukkoaineistojen rikastamiseen strukturoimattomalla datalla. Kouluttamalla useita datakokonaisuuksia lähestymistapamme pystyy kehittämään geneerisiä malleja, joita voidaan soveltaa ylimääräisiin datakokonaisuuksiin minimaalisella harjoittelulla (eli muutamalla laukauksella). Lähestymistapamme perustuu BERT:n mukautukseen, johon esittelemme uudenlaisen hienosäätömenetelmän, joka muotoilee aineistojen tuplat lauseiksi. 17 aineistosta tehty arviointi osoittaa, että FeSTE pystyy tuottamaan laadukkaita ominaisuuksia ja ylittämään merkittävästi olemassa olevat hienosäätöratkaisut.Abstract
L'enrichissement des ensembles de données tabulaires à l'aide de sources externes a fait l'objet d'une attention particulière ces dernières années. Les solutions existantes, cependant, ignorent complètement les données externes non structurées ou conçoivent des solutions spécifiques aux ensembles de données. Dans cette étude, nous avons proposé FeW-Shot Transformer based Enrichment (FeSte), un cadre générique et robuste pour l'enrichissement d'ensembles de données tabulaires à l'aide de données non structurées. En s'entraînant sur plusieurs ensembles de données, notre approche est capable de développer des modèles génériques qui peuvent être appliqués à des ensembles de données supplémentaires avec un minimum de formation (c'est-à-dire, peu de temps). Notre approche est basée sur une adaptation du BERT, pour laquelle nous présentons une nouvelle approche de réglage fin qui reformule les tuples des ensembles de données sous forme de phrases. Notre évaluation, menée sur 17 ensembles de données, montre que FeSTE est capable de générer des fonctionnalités de haute qualité et de surpasser de manière significative les solutions de réglage fin existantes.Abstract
Le blianta beaga anuas tá aird shuntasach tarraingthe ar shaibhriú na dtacar sonraí táblaí a úsáideann foinsí seachtracha. Déanann réitigh atá ann cheana féin, áfach, neamhaird iomlán a dhéanamh ar shonraí seachtracha neamhstruchtúrtha nó réitigh a bhaineann go sonrach le tacair shonraí a cheapadh. Sa staidéar seo mholamar Few Shot Transformer Saibhriú (FeSTE), creat cineálach agus láidir chun tacair shonraí táblaí a shaibhriú ag baint úsáide as sonraí neamhstruchtúrtha. Trí oiliúint a chur ar thacair sonraí iolracha, tá ár gcur chuige in ann samhlacha cineálacha a fhorbairt a fhéadfar a chur i bhfeidhm ar thacair sonraí breise le hoiliúint íosta (i.e. cúpla seat). Tá ár gcur chuige bunaithe ar oiriúnú BERT, a gcuirimid i láthair cur chuige nua mionchoigeartaithe ina leith a athfhoirmíonn tuples na dtacar sonraí mar abairtí. Léiríonn ár meastóireacht, a rinneadh ar 17 tacar sonraí, go bhfuil FeSTE in ann gnéithe ardchaighdeáin a ghiniúint agus go sáraíonn sé na réitigh mhionchoigeartaithe atá ann cheana.Abstract
Kujirin danna na tabular data set uses sources na ƙarƙashin, sun nuna muhimmin aikin muhimmi cikin shekara na farko. Babu zama masu shiryuwa da amfani da shi, ko kuma ka ƙẽtare data masu gaban da ba'a tsare shi ba, ko kuma ka ƙayyade masu daidaita masu ƙayyade danne. A cikin wannan littafin nan, muka buɗa'ar da aka ƙayyade Enrichnent (FestuS), wani firam na dama da aka buɗe wa rikitar da data na tabulum da ba'a tsare shi ba. Ga amfani da yin amfani da kowace tsaro masu yawa, hanyoyinmu na iya buɗe misãlai masu motsi na dabam-daban, wanda za'a iya amfani da su ga tsarin data masu ƙarami (misali, masu basu-shot). Mataimakinmu ne a kan adadin BERT, don haka kuma munã gabatar da wata hanyarwa mai kyau wanda ke gyara taskõkin mutane kamar maganar. Anarari kanmu, da aka samar a kan 17 database, yana nũna cewa FestuS na iya iya iya ƙiƙiro wasu sifati masu nau'i da kuma yana mai ƙayyade fassarar masu shiryuwa masu ciki.Abstract
העשירות של קבוצות מידע שולחנות בשימוש במקורים חיצוניים קיבלה תשומת לב משמעותית בשנים האחרונות. לפתרונות קיימות, בכל אופן, או להתעלם מידע חיצוני לא מבושל לחלוטין או לתכנן פתרונות מסויימים לקבוצת מידע. במחקר הזה הצענו עשירה מבוססת מעט תמונות (FeSTE), סגרת גנרלית וחזקה למעשירה של קבוצות נתונים טבלוניות בשימוש נתונים לא מבושלים. By training over multiple datasets, our approach is able to develop generic models that can be applied to additional datasets with minimal training (i.e., few-shot). הגישה שלנו מבוססת על התאמה של BERT, עבור מה שאנחנו מציגים גישה חדשה מתאימה שמפורסמת מחדש את כפול של קבוצת המידע כמשפטים. Our evaluation, conducted on 17 datasets, shows that FeSTE is able to generate high quality features and significantly outperform existing fine-tuning solutions.Abstract
बाहरी स्रोतों का उपयोग करके सारणीबद्ध डेटासेट के संवर्धन ने हाल के वर्षों में महत्वपूर्ण ध्यान आकर्षित किया है। मौजूदा समाधान, हालांकि, या तो बाहरी असंरचित डेटा को पूरी तरह से अनदेखा करते हैं या डेटासेट-विशिष्ट समाधान तैयार करते हैं। इस अध्ययन में हमने कुछ-शॉट ट्रांसफॉर्मर आधारित संवर्धन (FeSTE) का प्रस्ताव दिया, जो असंरचित डेटा का उपयोग करके सारणीबद्ध डेटासेट के संवर्धन के लिए एक सामान्य और मजबूत ढांचा है। कई डेटासेट पर प्रशिक्षण द्वारा, हमारा दृष्टिकोण जेनेरिक मॉडल विकसित करने में सक्षम है जिसे न्यूनतम प्रशिक्षण (यानी, कुछ-शॉट) के साथ अतिरिक्त डेटासेट पर लागू किया जा सकता है। हमारा दृष्टिकोण BERT के अनुकूलन पर आधारित है, जिसके लिए हम एक उपन्यास ठीक-ट्यूनिंग दृष्टिकोण प्रस्तुत करते हैं जो वाक्यों के रूप में डेटासेट के टुपल्स को फिर से तैयार करता है। 17 डेटासेट पर आयोजित हमारे मूल्यांकन से पता चलता है कि FeSTE उच्च गुणवत्ता वाली सुविधाओं को उत्पन्न करने में सक्षम है और मौजूदा ठीक-ट्यूनिंग समाधानों को काफी बेहतर बनाता है।Abstract
Obogaćanje tabularnih seta podataka koristeći vanjske izvore dobilo je značajnu pažnju u posljednjih godina. Međutim, postojeće rješenja ili ignorirati spoljne nestrukturirane podatke potpuno ili smisliti specifične rješenja podataka. U ovom ispitivanju smo predložili osnovu bogatstva (FeSTE) na osnovu malog transformatora, općenitog i snažnog okvira za bogatstvo tabularnih seta podataka s neostrukturovanim podacima. Obučavajući više podataka, naš pristup je u mogućnosti razviti generične modele koje se mogu primjenjivati na dodatne podatake s minimalnim obukom (tj. malo snimanja). Naš pristup je temeljen na adaptaciji BERT-a, za koju predstavljamo novi pristup ispravnoj prilagodbi koji reformira kornjače podataka kao rečenice. Naša procjena, provedena na 17 podataka, pokazuje da FeSTE može stvoriti visoke kvalitetne funkcije i značajno nadmašiti postojeće rješenja za finaliziranje.Abstract
Az elmúlt években jelentős figyelmet kapott a táblázatos adatkészletek külső források felhasználásával történő gazdagítása. A meglévő megoldások azonban vagy teljesen figyelmen kívül hagyják a külső strukturálatlan adatokat, vagy adatkészletspecifikus megoldásokat dolgoznak ki. Ebben a tanulmányban a Few-Shot Transformer based Enrichment (FeSTE) egy általános és robusztus keretrendszert javasoltunk a táblázatos adatkészletek strukturálatlan adatokkal történő gazdagítására. Több adatkészleten végzett képzéssel megközelítésünk olyan általános modelleket fejleszthet ki, amelyek minimális képzéssel (például néhány lövéssel) alkalmazhatók további adatkészletekre. Megközelítésünk a BERT adaptációján alapul, amelyhez egy új finomhangoló megközelítést mutatunk be, amely az adatkészletek tupleteit mondatként formálja át. 17 adatkészleten végzett értékelésünk azt mutatja, hogy a FeSTE képes kiváló minőségű funkciókat generálni és jelentősen felülmúlni a meglévő finomhangoló megoldásokat.Abstract
Վերջին տարիների ընթացքում ուշադրություն դարձրել է արտաքին աղբյուրներից օգտագործվող աղբյուրներից օգտագործվող աղբյուրների հարստացմանը: Գոյություն ունեցող լուծումները, այնուամենայնիվ, կամ ամբողջովին անտեսեք արտաքին անկառուցվածքային տվյալները, կամ որոշեք տվյալների համակարգի մասնավոր լուծումներ: Այս ուսումնասիրության ընթացքում մենք առաջարկեցինք Few-shot Transforme հիմնված հարստացում (FeSte), ընդհանուր և ուժեղ շրջանակ աղյուսակների տվյալների համակարգերի հարստացում օգտագործելով անկառուցվածքային տվյալներ: Մեր մոտեցումը կարող է զարգացնել ընդհանուր մոդելներ, որոնք կարող են կիրառվել ավելացված տվյալների համակարգերի վրա, որոնց միջոցով միմինալ վարժեցում է (այսինքն՝ քիչ լուսանկարներ): Մեր մոտեցումը հիմնված է BER-ի ադապտացիայի վրա, որի համար մենք ներկայացնում ենք նոր բարձրացող մոտեցում, որը վերաձևավորում է տվյալների համակարգերի երկու անգամ որպես նախադասություններ: Մեր գնահատումը, կատարված 17 տվյալների համակարգերի վրա, ցույց է տալիս, որ FeSte-ը կարողանում է ստեղծել բարձր որակային հատկություններ և նշանակալի գերազանցել գոյություն ունեցող բարձրակարգավորման լուծումնAbstract
Pengkaya dataset tabular menggunakan sumber luar telah mendapatkan perhatian yang signifikan dalam tahun-tahun terakhir. Solusi yang ada, bagaimanapun, sama ada mengabaikan data luar yang tidak terstrukturasi sepenuhnya atau merencanakan solusi spesifik dataset. Dalam studi ini kami mengusulkan Few-Shot Transformer based Enrichment (FeSTE), sebuah rangkaian yang generik dan kuat untuk memperkaya dataset tabular menggunakan data yang tidak terstrukturasi. Dengan latihan melalui beberapa set data, pendekatan kita mampu mengembangkan model generik yang dapat diaplikasikan pada set data tambahan dengan latihan minimal (i.e., beberapa tembakan). pendekatan kita berdasarkan adaptasi dari BERT, untuk yang kita persembahkan pendekatan penyesuaian baru yang mengubah dua kali lipat dataset sebagai kalimat. Evaluasi kami, dilakukan pada 17 set data, menunjukkan bahwa FeSTE mampu menghasilkan fitur kualitas tinggi dan meningkatkan jauh lebih dari solusi penyesuaian yang ada.Abstract
L'arricchimento di set di dati tabulari utilizzando fonti esterne ha riscosso notevole attenzione negli ultimi anni. Le soluzioni esistenti, tuttavia, ignorano completamente i dati esterni non strutturati o progettano soluzioni specifiche per il set di dati. In questo studio abbiamo proposto Few-Shot Transformer based Enrichment (FeSTE), un framework generico e robusto per l'arricchimento di set di dati tabulari utilizzando dati non strutturati. Attraverso la formazione su più set di dati, il nostro approccio è in grado di sviluppare modelli generici che possono essere applicati a set di dati aggiuntivi con una formazione minima (cioè pochi scatti). Il nostro approccio si basa su un adattamento di BERT, per il quale presentiamo un nuovo approccio di messa a punto che riformula i tuples dei dataset come frasi. La nostra valutazione, condotta su 17 set di dati, mostra che FeSTE è in grado di generare funzionalità di alta qualità e di superare significativamente le soluzioni di fine tuning esistenti.Abstract
外部ソースを使用した表形式データセットの充実は、近年大きな注目を集めている。ただし、既存のソリューションは、外部の非構造化データを完全に無視するか、データセット固有のソリューションを設計します。この研究では、非構造化データを使用した表形式データセットのエンリッチメントのための一般的で堅牢なフレームワークであるFew - Shot Transformer Based Enrichment ( FeSTE )を提案しました。複数のデータセットにわたるトレーニングを行うことで、当社のアプローチは、最小限のトレーニング(すなわち、少数のショット)で追加のデータセットに適用できる一般的なモデルを開発することができます。私たちのアプローチは、BERTの適応に基づいており、そのために、データセットのタプルを文として再構成する新しい微調整アプローチを提示します。17のデータセットで実施された当社の評価では、FeSTEは高品質の機能を生成し、既存の微調整ソリューションを大幅に上回るパフォーマンスを発揮できることが示されています。Abstract
text-editor-action Where am I Nang barêng-barêng iki kamu ngéwangi "Few-shot Transformer" sing basa Gambar, dadi generic lan akèh dumadhi kanggo nggawe dataset Tabular Nejer Ndheke dhéwé wis basa sak adalah BERT, iki dadi awak dhéwé ngewehku botem sing beraksi dadi nggawe ngubah dhéwé dadi kebebasané perusahaan dataset nganggo dolanan sing beraksi. Isopo sing dipunangé, ditambahak ing 18 dataset, menehi ngomong nik FeSTAE iso nggawe akeh perusahaan sing katya luwih dumadhi lan akeh iso nggawe barang langgar sampeyan winihAbstract
შემდეგ წლის შემდეგ გარეშე გამოიყენებული ტაბულური მონაცემების დამატება გარეშე მნიშვნელოვანია. მაგრამ არსებობს გარეშე, ან გარეშე არსტრუქტურებული მონაცემები უკვე იგნორირება ან გარეშე მონაცემების სპექტიფიკური გარეშე. ამ კვლევაში ჩვენ შეგიძლიათ ცოტა სტრუქტურაციის განზომილება (FeSTE), სხვადასხვა და ძალიან სტრუქტურაციული კონფიგურაცია, რომელიც არსტრუქტურაციული მონაცემების გამოყენებ მრავალ მონაცემების შესაბამისად, ჩვენი პროგრამა შეუძლია განვითარება გენერიკური მოდელები, რომლებიც შეუძლიათ დამატებული მონაცემების შესაბამისათვის მინიმალური განა ჩვენი პროგორმაცია BERT-ის ადაპტიფიკაციის დაბაზია, რომელიც ჩვენ აჩვენებთ პრომენტის კონფიგურაციის პროგორმაცია, რომელიც რეფორმეტურაცია მონაცემების კონტულების გა ჩვენი განსაზღვრება, რომელიც 17 მონაცემების კონფიგურაციაში გავაკეთებულია, რომ FeSTE შეუძლია წარმოიქმნა უფრო კანოლიტური ფუნქციები და ძალიან უფრო გავაკეთებAbstract
Сыртқы көздерді қолданатын кестелер деректер жиындарын бағалау соңғы жылдарда маңызды болды. Бірақ барлық шешімдері, сыртқы құрылмаған деректерді толық елемейді немесе деректер жиынының ерекше шешімдерін құру. Бұл зерттеулерде біз Кейбір түрлендіруші (FeSTE) негіздеген Жақсарту (FeSTE) дегенді ұсындық, құрылмаған деректерді қолдану үшін кестелер деректер қорларын жақсарту жалпы және құпты қорларын қо Бірнеше деректер қорларын оқыту арқылы, біздің тәсіліміз кеміндетті оқыту арқылы қосымша деректер қорларына қолданылатын жалпы моделдерді жасауға болады. Біздің тәсіліміз BERT адаптациясына негізделген, ол үшін біз деректер қорларының тұлбаларын сұлбалар ретінде реформиретін романдық түзету тәсілігін келтіреміз. 17 деректер қорларында орындалған оқиғамыз, FeSTE сапасы жоғары мүмкіндіктерді құрастырып, барлық жақсы түзету шешімдеріне көп жеткізе алады.Abstract
최근 몇 년 동안 외부 데이터 원본을 이용하여 풍부한 표 데이터 집합은 이미 광범위한 관심을 불러일으켰다.그러나 기존의 해결 방안은 외부의 비구조화된 데이터를 완전히 무시하거나 데이터 집합에 특정한 해결 방안을 설계한다.이 연구에서 우리는 소량의 스냅샷 변환기를 바탕으로 하는 확장(FesTE)을 제시했다. 이것은 통용되고 건장한 구조로 비구조화된 데이터로 표 데이터 집합을 풍부하게 하는 데 사용된다.여러 개의 데이터 집합에 대한 훈련을 통해 우리의 방법은 유니버설 모델을 개발할 수 있다. 이런 모델은 추가 데이터 집합에 응용할 수 있고 최소한의 훈련(즉 아주 적은 렌즈)만 할 수 있다.우리의 방법은 BERT의 개편을 바탕으로 데이터 집합의 원조를 문장으로 다시 포맷하는 새로운 마이크로스피커 방법을 제시했다.17개 데이터 세트에서 실시한 평가에 따르면 FESTE는 고품질의 기능을 생성할 수 있으며 기존의 마이크로스피커 솔루션보다 현저히 우수하다.Abstract
The enrichment of tabular datasets using external sources has gained significant attention in recent years. Tačiau esami sprendimai visiškai ignoruoja išorinius nesukurtus duomenis arba kuria konkrečius duomenų rinkiniui skirtus sprendimus. Šiame tyrime pasiūlėme mažai fotografinių transformatorių pagrįstą praturtinimą (FeSTE), bendrą ir tvirtą lentelių duomenų rinkinių, kuriuose naudojami nesustruktūruoti duomenys, praturtinimo sistemą. Mokydami įvairius duomenų rinkinius, mūsų metodas gali sukurti bendruosius modelius, kurie gali būti taikomi papildomiems duomenų rinkiniams, turintiems minimal ų mokymą (t. y. nedidelį mokymą). Mūsų požiūris grindžiamas BERT pritaikymu, kuriam pristatome naują patobulinimo metodą, kuris persvarsto duomenų rinkinių dublius kaip sakinius. Mūsų atliktas 17 duomenų rinkinių vertinimas rodo, kad FeSTE gali sukurti aukštos kokybės savybes ir gerokai viršyti esamus tobulinimo sprendimus.Abstract
Забогатувањето на табуларните податоци кои користат надворешни извори доби значително внимание во последните години. Сепак, постојните решенија или ги игнорираат надворешните неструктурирани податоци целосно или создаваат решенија специфични за податоците. Во оваа студија предложивме „Малку снимки на трансформер базирано богатство“ (FeSTE), генерална и силна рамка за богатство на табуларни податоци користејќи неструктурни податоци. Со обуката во врска со многуте податоци, нашиот пристап е во можност да развие генерални модели кои може да се применат на дополнителни податоци со минимална обука (т.е. неколку снимки). Нашиот пристап е базиран на адаптација на БЕРТ, за која претставуваме нов пристап за финетизирање кој ги реформира двојните податоци како реченици. Our evaluation, conducted on 17 datasets, shows that FeSTE is able to generate high quality features and significantly outperform existing fine-tuning solutions.Abstract
പുറത്തുള്ള സ്രോതസ്സുകള് ഉപയോഗിച്ച് ടാബുള് ഡാറ്റാസറ്റുകളുടെ സമ്പന്നതയില് ഏറ്റവും പ്രധാനപ്പെട്ട ശ്രദ്ധ എന്നാലും നിലവിലുള്ള പരിഹാരങ്ങള്, പുറത്തുള്ള സംഘടിപ്പിക്കപ്പെടാത്ത വിവരങ്ങള് പൂര്ണ്ണമായും ഉപേക്ഷിക്കുക അല് ഈ പഠനത്തില് നമ്മള് കുറച്ച് വെടിയുടെ ട്രാന്സ്ഫോര്മാര് അടിസ്ഥാനത്തിലുള്ള Enrichment (ഫെസ്റ്റെയിന്റെ) പ്രൊദ്ദേശിച്ചു. നിര്മ്മി പല ഡാറ്റാസറ്റുകള്ക്കുമേല് പരിശീലിക്കുന്നതിനാല്, നമ്മുടെ പരിശീലനത്തിന് സാധാരണ മോഡലുകള് നിര്മ്മിക്കാന് സാധിക്കുന്നതാ Our approach is based on an adaptation of BERT, for which we present a novel fine-tuning approach that reformulates the tuples of the datasets as sentences. 17 ഡാറ്റാസറ്റുകളില് നടത്തിയ നമ്മുടെ വിലാസങ്ങള് കാണിക്കുന്നു, ഫെസ്റ്റി ഉയരത്തിലുള്ള വിശേഷതകള് ഉണ്ടാക്കാന് കഴിയുന്നു എന്Abstract
Сүүлийн жилүүд гадаад эх үүсвэрүүдийг ашиглан таблицын өгөгдлийн сангийн багасгал нь маш их анхааралтай болсон. Гэвч Existing шийдэл нь гадаад бүтээгдэхүүний мэдээллийг бүрэн үгүйсгэх эсвэл өгөгдлийн сангийн тодорхой шийдлийг төсөөл. Энэ судалгаанд бид FeSTE-д багтаасан баялаг, хүснэгтийн өгөгдлийн сангуудыг ашиглан баялагдсан шинжлэх ухаан өгөгдлийн сангуудыг нэмэгдүүлэх ерөнхий болон хүчтэй хэлбэрийг санал болгосон. Ихэнх өгөгдлийн сангийн сургалтын тулд бидний арга нь бага сургалтын нэмэлт өгөгдлийн сангийн сургалтыг ашиглаж болох ерөнхий загваруудыг хөгжүүлж чадна. Бидний арга хэмжээ нь БЕРТ-ын адилтгалын тусламжтайгаар суурилсан. Энэ арга хэмжээнд бид өгөгдлийн хэмжээсүүдийг өгүүлбэр шинэчлүүлэх шинэ арга хэмжээг үзүүлдэг. 17 өгөгдлийн санд хийгдсэн оценка нь FeSTE-г өндөр чанартай чанарыг бүтээж, суурь шийдвэрлэх шийдвэрлээс илүү их гаргаж чадна.Abstract
Pengkaya set data tabular menggunakan sumber luaran telah mendapat perhatian yang signifikan dalam tahun-tahun terakhir. Solusi yang wujud, bagaimanapun, sama ada mengabaikan data tidak terstruktur luaran sepenuhnya atau merancang solusi khusus set data. Dalam kajian ini kami melamar Perkaya Berasas Transformer Beberapa Tembakan (FeSTE), kerangka generik dan kuat untuk memperkaya set data tabular menggunakan data tidak terstruktur. Dengan latihan melalui set data berbilang, pendekatan kita mampu mengembangkan model generik yang boleh dilaksanakan pada set data tambahan dengan latihan minimal (iaitu beberapa tembakan). Pendekatan kita berdasarkan penyesuaian BERT, untuk yang mana kita memperkenalkan pendekatan penyesuaian novel yang mengubah dua kali kumpulan data sebagai kalimat. Our evaluation, conducted on 17 datasets, shows that FeSTE is able to generate high quality features and significantly outperform existing fine-tuning solutions.Abstract
L-arrikkiment ta’ settijiet ta’ dejta tabulari li jużaw sorsi esterni kiseb attenzjoni sinifikanti f’dawn l-aħħar snin. Is-soluzzjonijiet eżistenti, madankollu, jew jinjoraw kompletament id-dejta esterna mhux strutturata jew ifasslu soluzzjonijiet speċifiċi għas-sett tad-dejta. F’dan l-istudju pproponejna Enrichment ibbażat fuq Few-Shot Transformer (FeSTE), qafas ġeneriku u robust għall-arrikkiment ta’ settijiet ta’ dejta tabulari bl-użu ta’ dejta mhux strutturata. Permezz ta’ taħriġ fuq settijiet ta’ dejta multipli, l-approċċ tagħna huwa kapaċi jiżviluppa mudelli ġeneriċi li jistgħu jiġu applikati għal settijiet ta’ dejta addizzjonali b’taħriġ minimu (jiġifieri ftit fotografiji). L-approċċ tagħna huwa bbażat fuq adattament tal-BERT, li għalih qed nippreżentaw approċċ ġdid ta’ rfinar li jirriforma d-doppji tas-settijiet tad-dejta bħala sentenzi. L-evalwazzjoni tagħna, imwettqa fuq 17-il sett ta’ dejta, turi li FeSTE huwa kapaċi jiġġenera karatteristiċi ta’ kwalità għolja u jwettaq soluzzjonijiet ta’ rfinar eżistenti b’mod sinifikanti.Abstract
De verrijking van tabelvormige datasets met behulp van externe bronnen heeft de afgelopen jaren veel aandacht gekregen. Bestaande oplossingen negeren echter externe ongestructureerde gegevens volledig of bedenken datasetspecifieke oplossingen. In deze studie hebben we Few-Shot Transformer based Enrichment (FeSTE) voorgesteld, een generiek en robuust raamwerk voor de verrijking van tabelvormige datasets met behulp van ongestructureerde data. Door te trainen over meerdere datasets, is onze aanpak in staat om generieke modellen te ontwikkelen die kunnen worden toegepast op aanvullende datasets met minimale training (d.w.z. few-shot). Onze aanpak is gebaseerd op een aanpassing van BERT, waarvoor we een nieuwe fine-tuning aanpak presenteren die de tupels van de datasets herformuleert als zinnen. Onze evaluatie, uitgevoerd op 17-datasets, toont aan dat FeSTE in staat is hoogwaardige functies te genereren en bestaande fine-tuning oplossingen aanzienlijk te overtreffen.Abstract
Forstørring av tabulatordatasett med eksterne kilder har fått signifikante oppmerksomhet i siste år. Dei eksisterande løysingane er imidlertid anten ignorert eksterne ikkje strukturerte data fullstendig eller opprett datasettspesifikke løysing. I denne studien foreslått vi ein generell og robust rammeverk for å forstørra tabulære datasett ved hjelp av ikkje-strukturerte data. På opplæring over fleire datasett kan tilnærminga vårt utvikle generelle modeller som kan brukast til fleire datasett med minimal opplæring (t.d. få bilete). Tilnærminga vårt er basert på ein tilpassing av BERT, som vi presenterer ein novel fin-tuning tilnærming som reformerer tuplene av dataseta som setningar. Vårt evaluering, gjennomført på 17 datasett, viser at FeSTE kan laga høg kvalitetsfunksjonar og utføre betydelig eksisterande finnstillingsløysing.Abstract
W ostatnich latach znaczącą uwagę zyskało wzbogacanie zbiorów danych tabelarycznych za pomocą źródeł zewnętrznych. Istniejące rozwiązania jednak albo całkowicie ignorują zewnętrzne nieustrukturyzowane dane, albo opracowują rozwiązania specyficzne dla zbioru danych. W niniejszym badaniu zaproponowaliśmy wzbogacenie oparte na transformatorze FeSTE (FeSTE), ogólne i solidne ramy wzbogacania zbiorów danych tabelarycznych przy użyciu danych nieustrukturyzowanych. Dzięki szkoleniu na wielu zbiorach danych, nasze podejście jest w stanie opracować ogólne modele, które mogą być zastosowane do dodatkowych zbiorów danych przy minimalnym szkoleniu (tj. kilku ujęciach). Nasze podejście opiera się na adaptacji BERT, dla którego prezentujemy nowatorskie podejście dostrajające, które przeformułuje kropki zbiorów danych jako zdania. Nasza ocena, przeprowadzona na 17-ciu zbiorach danych, pokazuje, że FeSTE jest w stanie generować wysokiej jakości funkcje i znacznie przewyższać istniejące rozwiązania dostosowania.Abstract
O enriquecimento de conjuntos de dados tabulares usando fontes externas ganhou atenção significativa nos últimos anos. As soluções existentes, no entanto, ignoram completamente os dados externos não estruturados ou criam soluções específicas para conjuntos de dados. Neste estudo propusemos o Enriquecimento baseado em Transformadores de Poucos Tiros (FeSTE), um framework genérico e robusto para o enriquecimento de conjuntos de dados tabulares usando dados não estruturados. Ao treinar em vários conjuntos de dados, nossa abordagem é capaz de desenvolver modelos genéricos que podem ser aplicados a conjuntos de dados adicionais com treinamento mínimo (ou seja, poucos disparos). Nossa abordagem é baseada em uma adaptação do BERT, para a qual apresentamos uma nova abordagem de ajuste fino que reformula as tuplas dos conjuntos de dados como sentenças. Nossa avaliação, realizada em 17 conjuntos de dados, mostra que o FeSTE é capaz de gerar recursos de alta qualidade e superar significativamente as soluções de ajuste fino existentes.Abstract
Îmbogățirea seturilor de date tabelare utilizând surse externe a câștigat o atenție semnificativă în ultimii ani. Cu toate acestea, soluțiile existente fie ignoră complet datele nestructurate externe, fie concep soluții specifice setului de date. În acest studiu am propus FeSTE (FeSTE), un cadru generic și robust pentru îmbogățirea seturilor de date tabelare folosind date nestructurate. Prin instruirea pe mai multe seturi de date, abordarea noastră este capabilă să dezvoltăm modele generice care pot fi aplicate seturilor de date suplimentare cu instruire minimă (adică, câteva lovituri). Abordarea noastră se bazează pe o adaptare a BERT, pentru care prezentăm o nouă abordare de reglare fină care reformulează tuplele seturilor de date ca fraze. Evaluarea noastră, realizată pe 17 seturi de date, arată că FeSTE este capabilă să genereze caracteristici de înaltă calitate și să depășească semnificativ soluțiile existente de reglare fină.Abstract
В последние годы значительное внимание уделяется обогащению табличных наборов данных с использованием внешних источников. Однако существующие решения либо полностью игнорируют внешние неструктурированные данные, либо разрабатывают решения для конкретных наборов данных. В этом исследовании мы предложили обогащение на основе малоподвижного трансформатора (FeSTE), общую и надежную структуру для обогащения табличных наборов данных с использованием неструктурированных данных. Обучаясь по нескольким наборам данных, наш подход способен разработать общие модели, которые могут быть применены к дополнительным наборам данных с минимальным обучением (т. е. малочисленным). Наш подход основан на адаптации БЕРТА, для которой мы представляем новый подход к тонкой настройке, который переформулирует кортежи наборов данных как предложения. Наша оценка, проведенная на 17 массивах данных, показывает, что FeSTE способна генерировать высококачественные характеристики и значительно превосходит существующие решения для тонкой настройки.Abstract
පුරුද්ගලික මුළුවන් භාවිත කරන්නේ ටැබුල් දත්ත සැට් විශාලනය අවස්ථාවක් අවස්ථාවක් විසි හැබැයි තියෙන්නේ විස්තරය, එළියේ නිර්මාණය නැති දත්ත සම්පූර්ණයෙන්ම නැති විස්තර කරන්න, නැත්නම් දත මේ අධ්යානයේ අපි ප්රශ්නයක් කළා FeSTE, සාමාන්යය සහ ශක්තිමත් ප්රශ්නයක් නිර්මාණයක් නිර්මාණය කරනවා ටැබුලර් දත්ත සැකස් ව ගොඩක් දත්ත සැට් වලින් ප්රධානය කරන්න පුළුවන්, අපේ ප්රධානය පුළුවන් සාමාන්ය මොඩේල් විස්තර කරන්න පුළුවන් විදිහ අපේ ප්රවේශනය BERT ගැන සැකසුම් සඳහා අධාරිත වෙනවා, ඒ වගේම අපි ප්රවේශනය කරනවා නියම සැකසුම් ප්රවේශනය සඳහා දත්ත සේට් ටු අපේ විශ්ලේෂණය, දත්ත සේට් 17 වලින්, පෙන්වන්නේ FeSTE පුළුවන් විශේෂ විශේෂතාවක් නිර්මාණය කරන්න සහ විශේෂයෙන් ඉAbstract
V zadnjih letih je pridobila veliko pozornosti obogatitev tabelarnih zbirk podatkov z uporabo zunanjih virov. Vendar obstoječe rešitve bodisi popolnoma ignorirajo zunanje nestrukturirane podatke ali pa oblikujejo rešitve, specifične za nabor podatkov. V tej študiji smo predlagali FeSTE (FeSTE), generičen in robusten okvir za obogatitev tabularnih naborov podatkov z nestrukturiranimi podatki. Z usposabljanjem na več naborih podatkov lahko naš pristop razvije generične modele, ki jih je mogoče uporabiti za dodatne nabore podatkov z minimalnim usposabljanjem (tj. malo strela). Naš pristop temelji na prilagoditvi BERT-a, za katero predstavljamo nov pristop fine-tuning, ki preoblikuje tuple naborov podatkov v stavke. Naša ocena, opravljena na 17 naborih podatkov, kaže, da je FeSTE sposoben ustvariti visokokakovostne funkcije in znatno preseči obstoječe rešitve finega nastavitve.Abstract
Hodantinimada macluumaadka tababarka ee isticmaalka sourceoyinka dibadda ayaa aad u taxaday sanadkii ugu dambeeyey. Si kastaba ha ahaatee, xalal heysta ama ka jeedi karo macluumaadka dibadda oo aan la dhisnayn dhammaan ama ka sameyn xalal gaar ah oo macluumaadka. Waxbarashadan waxaynu soo jeednay qalabka ku saleysan Few-Shot Transformer (FeSTE), taas oo ah qoraal generic iyo robust ah oo lagu hodanayo taariikhda tababarka lagu isticmaalayo macluumaad aan la dhisay. Waxbarashada ku qoran koorasyada macluumaadka kala duduwan ayaa awoodi kara inuu horumariyo tusaalooyin caadiga ah oo lagu codsan karo sawirada macluumaadka dheeraadka ah oo lagu baran karo waxbarashada ugu yaraan (tusaale ahaan dhawr toobad). Dhaqdhaqaalkayagu waxay ku saleysan tahay bedelka BERT, taas oo aynu u keenno qaab wanaagsan oo hagaajiya qalabka macluumaadka sida garsooridda. Qiimeynteena, ee lagu sameeyay 17 databases, wuxuu muujiyaa in FeSTE awoodo inuu soo saaro qalabka tayada sare iyo in uu si weyn u sameeyo xalal aad u wanaagsan oo ay jiraan.Abstract
Përpasuria e të dhënave tabulare që përdorin burime të jashtme ka fituar vëmendje të rëndësishme në vitet e fundit. Zgjidhjet ekzistuese, megjithatë, ose injorojnë plotësisht të dhënat e jashtme të papërstrukturuara ose hartojnë zgjidhje specifike të dataset. Në këtë studim propozuam pasurinë me bazë në Few-Shot Transformer (FeSTE), një kuadër gjenerik dhe të fortë për pasurinë e të dhënave tabulare duke përdorur të dhëna të paistrukturuara. Duke stërvitur mbi grupe të shumta të dhënash, qasja jonë është në gjendje të zhvillojë modele gjenerale që mund të aplikohen në grupe të dhënash shtesë me stërvitje minimal e (pra, pak fotografi). Përqasja jonë është bazuar në një përshtatje të BERT, për të cilën ne paraqesim një përshtatje të re të përshtatshme që reformulon dyfishat e të dhënave si fjalë. Vlerësimi ynë, kryer në 17 grupe të dhënash, tregon se FeSTE është në gjendje të gjenerojë karakteristika të cilësisë së lartë dhe të kalojë në mënyrë të konsiderueshme zgjidhjet ekzistuese të rregullimit.Abstract
Obogaćanje tabularnih seta podataka koristeći vanjske izvore dobilo je značajnu pažnju u poslednjih godina. Međutim, postojeće rješenja ili ignorišu spoljne ne strukture podatke u potpunosti ili smisli specifične rešenja za set podataka. U ovom ispitivanju smo predložili osnovnu bogatstvo na osnovu "FeSTE", generični i robni okvir za bogatstvo tabularnih seta podataka koristeći neostrukturne podatke. Vežbamo više podataka, naš pristup je u stanju da razvijemo generične modele koje se mogu primjenjivati na dodatne podatake sa minimalnim obukom (tj. nekoliko snimaka). Naš pristup je baziran na adaptaciji BERT-a, za koju predstavljamo novi pristup ispravnoj prilagodbi koji reformiše poklopce podataka kao rečenice. Naša procjena, provedena na 17 podataka, pokazuje da FeSTE može stvoriti visoke kvalitetne funkcije i značajno nadmašiti postojeće ispravne rješenja.Abstract
Anrikningen av tabelldataset med hjälp av externa källor har fått stor uppmärksamhet under de senaste åren. Befintliga lösningar ignorerar dock helt och hållet externa ostrukturerade data eller utformar dataspecifika lösningar. I denna studie föreslog vi Few-Shot Transformer based Enrichment (FeSTE), ett generiskt och robust ramverk för berikning av tabelldata med hjälp av ostrukturerad data. Genom att träna över flera datauppsättningar kan vårt tillvägagångssätt utveckla generiska modeller som kan tillämpas på ytterligare datauppsättningar med minimal utbildning (dvs. få skott). Vårt tillvägagångssätt bygger på en anpassning av BERT, där vi presenterar ett nytt finjusterande tillvägagångssätt som omformulerar tuplerna i datauppsättningarna som meningar. Vår utvärdering, utförd på 17 dataset, visar att FeSTE kan generera högkvalitativa funktioner och avsevärt överträffa befintliga finjusterande lösningar.Abstract
Kutajirishwa kwa taarifa za tabia kwa kutumia vyanzo vya nje vimekuwa na hisia kubwa katika miaka ya hivi karibuni. Hata hivyo, suluhisho linalopo, au upuuze taarifa za nje ambazo hazijengwa kabisa au kutengeneza suluhisho maalum za taarifa. In this study we proposed Few-Shot Transformer based Enrichment (FeSTE), a generic and robust framework for the enrichment of tabular datasets using unstructured data. Kwa mafunzo zaidi ya seti za taarifa mbalimbali, mbinu yetu inaweza kuendeleza mifano ya kawaida ambayo inaweza kutumika kwenye seti za taarifa za ziada kwa mafunzo madogo (yaani, picha chache). Hatua yetu inatokana na mabadiliko ya BERT, ambayo tunaweka mbinu nzuri ya usambazaji wa riwaya inayobadili vifaa vya taarifa kama sentensi. Utafiti wetu, uliofanywa katika seti 17 za takwimu, unaonyesha kwamba FeSTE anaweza kutengeneza sifa kubwa za ubora na kwa kiasi kikubwa kutekeleza suluhisho lililopo.Abstract
வெளி மூலங்களை பயன்படுத்தி அட்டவணையான தகவல் அமைப்பு இருக்கும் தீர்வுகள், அல்லது வெளி உருவாக்கப்படாத தகவல் முழுமையாக புறக்கணி இந்த ஆராய்ச்சியில் நாம் சில மாற்று மாற்றும் விண்மீன்மை அடிப்படையான தகவல்களை பயன்படுத்தி உருவாக்கப்படாத தரவுத்தளத்தை செலுத்துவதற்கா பல தரவுத்தளங்கள் மேல் பயிற்சி செய்வதால், எங்கள் முறைமை சிறிய பயிற்சியுடன் கூடுதல் தகவல் அமைப்புகளுக்கு பயன்படுத்தலாம் பொதுவான ம எங்கள் வழிமுறை BERT-ன் ஒதுக்கீட்டை அடிப்படையில் உள்ளது, அதை நாம் ஒரு புதிய புதிய முன்னேற்றம் செய்கிறோம். இது தகவல் அமைப்புகளின் த 17 தரவுத்தளங்களில் செயல்படுத்தப்பட்டது, பெஸ்டி உயர்தரமான குணங்களை உருவாக்க முடியும் மற்றும் இருக்கும் நல்ல தீர்வுAbstract
Daşarydaky çeşmeler ullanýan täblisaň datum setirleriniň baglanmasy soňky ýyllarda has gowy üns aldy. Ýöne bar çözümler, ya daşarydaky düzümlenmeden maglumatlary tamamlandyr ýada harplary takyk çözümleri üýtget. Bu aramda biz FeSTE tabanly Küç Shot Transformer Gymmatylmagy (FeSTE), struktursyz maglumatlary ulanyp täblisaň we güýçli framlary teklip etdik. Birnäçe veri setirlerini ukyp bilen, biziň metodamyz i ň azyndan okuw bilen eklenen seretsel modelleri geliştirebilir. Biziň ýaryşymyz BERT adaptasiýasyna daýan ýar, bu sebäpde we munuň üçin data setirleriniň tupunlaryny sözlem diýip reform eden romanlaryň gowy düzeltmegi ýaryşyny görkeýäris. Biziň çykyşymyz, 17 datasetlerde gedilýär, FeSTE'iň ýokary kaliwatly çözümlerini döredip biljekdigini görkezýär we munyň bar iň täze çözümlerini çözebilir.Abstract
اگلے سالوں میں تبلیل ڈاٹ سٹ کے ثروت کے ذریعہ بیرون سروروں کے مطابق اضافہ ہوا ہے۔ لیکن موجود حل ہیں، یا بیرونی غیر ساختہ ڈاٹ کو کامل غیر نظر انداز کریں یا ڈاٹ سٹ-خاص حل کا طریقہ کریں. اس مطالعہ میں ہم نے کم-Shot Transformer (FeSTE) کی بنیادی تغییرات (FeSTE) کی پیشنهاد کی، ایک عمومی اور ثابت فرمود کے لئے تابلوری ڈاٹ سٹ کے ثابت کرنے کے لئے۔ بہت سی ڈاٹ سٹ پر آموزش کرنا کے ذریعہ، ہمارا طریقہ بہت سی موڈلیاں ایجاد کر سکتا ہے جو کم ترسین کے ساتھ اضافہ ڈاٹ سٹ پر لازم کر سکتے ہیں (یعنی کم شٹ کے ساتھ). ہمارا طریقہ BERT کے ایک سامان پر بنیاد ہے، جس کے لئے ہم ایک نئی نیک تنظیم طریقہ پیش کرتے ہیں جو ڈیٹسٹ کے ٹوپل کو جماعت کے طور پر تغییر دیتا ہے. ہمارا ارزیابی، 17 ڈیٹ سٹ پر کیا گیا ہے، دکھاتا ہے کہ FeSTE بہت سی کیفیت فوائل پیدا کرسکتا ہے اور بہت اچھی طرح موجود بہت سی تنظیم حل کرسکتا ہے۔Abstract
Name Aks holda, tashqi tuzilmagan maʼlumotlarni butunlay eʼtibor berilmasin yoki maʼlumotlar qoidasini aniqlash. Bu tadqida biz asosiy tarjima asosida yaratilgan kuch (FeSTE) yaratishni talab qildik, tuzilmagan maʼlumot yordamida tabulyasi maʼlumotlar sonlarini yoyish uchun umumiy va robot freymi. Koʻp nechta maʼlumotlar satrlaridan o'rganish orqali, bizning usuli yaratish mumkin, qoʻshimcha maʼlumotlar satrlariga qoʻshish mumkin (masalan, kichkina foydalanish mumkin). Bizning fikrimiz BERT ta'minlovchisi asosida, biz bu yerda maʼlumotlar satrlarining tugmasini bir so'zlar sifatida o'zgartirib chiqarishga yordam yaxshi ko'rinishimiz mumkin. Bizning qiymatlarimiz 17 maʼlumotlar saqlarida bajarilgan, FeSTE yuqori sifatini yaratish mumkin va mavjud yaxshi suhbat usullarni juda muhim bajarish mumkin.Abstract
Việc làm giàu các tập tin trên bảng dùng nguồn tin bên ngoài đã gây chú ý nhiều trong những năm gần đây. Tuy nhiên, các giải pháp hiện có hoặc bỏ qua các dữ liệu không xây dựng bên ngoài hoặc tìm ra giải pháp cụ thể. Trong nghiên cứu này, chúng tôi đề xuất một hệ thống làm giàu có có trên cơ sở biến hình "Vài Shot", một cơ sở rộng và vững chắc để làm giàu dữ liệu trên bảng, sử dụng dữ liệu không xây dựng. Bằng việc huấn luyện trên nhiều tập tin, phương pháp của chúng ta có thể phát triển các mô hình mẫu chung có thể được áp dụng cho các tập tin bổ sung với mức độ chuẩn tối thiểu (v.d., ít trường quay). Cách tiếp cận của chúng ta dựa trên một sự thích nghi của BERT, vì đó chúng ta giới thiệu một phương pháp mới tinh chỉnh lại các mặc đồ của các tập tin như các câu. Sự đánh giá của chúng tôi, được tiến hành trên bộ dữ liệu 17, cho thấy FeStevie có khả năng tạo ra các tính năng chất cao và hoàn thiện kết quả.Abstract
近年以来,用外源丰表格数集之法,人情大注。 然今之解决方案,或全忽外非结构化数,或特定于数集之解决方案。 于此论之,盖出于Few-Shot Transformer之扩(FeSTE),此一通强大之框架,用于用非结构化数丰表格数集也。 数集之法,可以通用,可以至少(可以少教)可以数集。 吾法基于BERT改编,为建新声,以数集元组复为句。 吾于17数集之评,FeSTE能成高质量之征,而显优于见调解决方案。- Anthology ID:
- 2022.acl-long.467
- Volume:
- Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)
- Month:
- May
- Year:
- 2022
- Address:
- Dublin, Ireland
- Venue:
- ACL
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 6775–6788
- Language:
- URL:
- https://aclanthology.org/2022.acl-long.467
- DOI:
- Bibkey:
- Cite (ACL):
- Shaolei Zhang and Yang Feng. 2022. Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 6775–6788, Dublin, Ireland. Association for Computational Linguistics.
- Cite (Informal):
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework (Zhang & Feng, ACL 2022)
- Copy Citation:
- PDF:
- https://aclanthology.org/2022.acl-long.467.pdf
- Terminologies:
Export citation
@inproceedings{zhang-feng-2022-reducing, title = "Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework", author = "Zhang, Shaolei and Feng, Yang", booktitle = "Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)", month = may, year = "2022", address = "Dublin, Ireland", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/2022.acl-long.467", pages = "6775--6788", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="zhang-feng-2022-reducing"> <titleInfo> <title>Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework</title> </titleInfo> <name type="personal"> <namePart type="given">Shaolei</namePart> <namePart type="family">Zhang</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Yang</namePart> <namePart type="family">Feng</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2022-05</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Dublin, Ireland</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">zhang-feng-2022-reducing</identifier> <location> <url>https://aclanthology.org/2022.acl-long.467</url> </location> <part> <date>2022-05</date> <extent unit="page"> <start>6775</start> <end>6788</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework %A Zhang, Shaolei %A Feng, Yang %S Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) %D 2022 %8 May %I Association for Computational Linguistics %C Dublin, Ireland %F zhang-feng-2022-reducing %U https://aclanthology.org/2022.acl-long.467 %P 6775-6788
Markdown (Informal)
[Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework](https://aclanthology.org/2022.acl-long.467) (Zhang & Feng, ACL 2022)
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework (Zhang & Feng, ACL 2022)
ACL
- Shaolei Zhang and Yang Feng. 2022. Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 6775–6788, Dublin, Ireland. Association for Computational Linguistics.