Transductive Auxiliary Task Self-Training for Neural Multi-Task Models Oordragtige hulpbron Opdrag Sel-Oefening vir Neural Multi-Task Models ምርጫዎች التدريب الذاتي على المهام المساعدة التحويلية للنماذج العصبية متعددة المهام Nöral çoxlu işlər modellərinin özü təhsil etməsi Трансдуктивна спомагателна задача Самообучение за неврални многозадачи модели নিউরেল বহুল কাজ মোডেলের জন্য স্বয়ংক্রিয়ভাবে প্রশিক্ষণ Transductive Auxiliary Task Self-Training for Neural Multi-Task Models Transduktivna pomoćna obuka za neuronske multitaskske modele Autocapacitació de les tasques auxiliars transduccionals per a models neuronals multitasques Transduktivní pomocný úkol Self-Training pro neuronové multi-úkolové modely Transduktiv hjælpeopgave selvtræning for Neurale Multi-Task modeller Transduktive Hilfsaufgaben Selbsttraining für neuronale Multi-Task Modelle Μεταγωγική Βοηθητική Εργασία Αυτοκατάρτιση για Νευρικά Μοντέλα πολλαπλών εργασιών Autoentrenamiento de tareas auxiliares transductivas para modelos neuronales multitarea Transduktiivne abiülesanne eneseõpe neuraalsete mitme ülesandega mudelite jaoks تطالب خودآموزش کار کمککننده برای مدلهای چندین کار عصبی Transduktiivinen avustava tehtävä Itsekoulutus hermojen monitehtävien malleille Auto-formation aux tâches auxiliaires transductives pour les modèles multitâches neuronaux Féin-Oiliúint ar Thasc Cúnta Trasductive do Mhúnlaí Néaracha Ilthasc @ action אימון עצמי למשימות עזריות מעברות למודלים נוירואלים במשימות רבות तंत्रिका बहु-कार्य मॉडल के लिए ट्रांसडक्टिव सहायक कार्य स्व-प्रशिक्षण Transduktivna pomoćna obuka za neuronske multizadatke Transzduktív kiegészítő feladat önképzés idegi többfunkciós modellekhez Նյարդային բազմախնդիրների մոդելների համար Transductive Auxiliary Task Self-Training for Neural Multi-Task Models Self-training di attività ausiliaria trasduttiva per modelli multi-task neurali ニューラルマルチタスクモデルのためのトランスダクション補助タスク自己訓練 undo-type ნეიროლური მრავალური მოდელებისთვის თავისუფალი დახმარება Нейрондық көп тапсырмалар үлгілерінде аударылған көмектесу тапсырмаларын өз оқыту 신경 다중 임무 모델의 전도 보조 임무 자체 훈련 Neuralinių daugiafunkcinių modelių tarpusavio papildomų užduočių mokymas Самообука за трансдуктивна помошна задача за неурални мултизадачни модели നെയുറല് പല ജോലിയുടെ മോഡലുകള്ക്കുള്ള സ്വയം പരിശീലിപ്പിക്കുന്നതിനു് മാന്ത്രികമാക്കുക Цөмийн олон ажлын загваруудын өөрийн сургалтын тусламжтай ажил Transductive Auxiliary Task Self-Training for Neural Multi-Task Models Taħriġ Awtomatiku Transduttiv ta’ Kompitu Ażiljarju għal Mudelli Newrali Multikompiti Transductieve Hulptaak Zelftraining voor Neurale Multi-Task Modellen Transduktiv hjelpeoppgåve-selvøving for neirale fleire oppgåve-modeller Transdukcyjne zadania pomocnicze samokształcenie dla neuronowych modeli wielozadaniowych Autotreinamento de tarefas auxiliares transdutivas para modelos multitarefas neurais Autoinstruire pentru activități auxiliare transductive pentru modele neuronale multi-sarcină Самообучение трансдуктивных вспомогательных задач для нейронных многозадачных моделей න්යූරාල් ගොඩක් වැඩක් මොඩේල්ස්ට් වෙනුවෙන් ස්වයංක්රියාවක් ස්වයංක්රියාවක් ප්රකාශනය Transduktivna pomožna naloga samousposabljanje za nevralne večopravilne modele Waxbarashada iskuulka ah ee shaqada iskuulka u baahan Transductive Auxiliary Task Self-Training for Neural Multi-Task Models Transduktivna pomoæna obuka za neuronske multitaskske modele Transduktiv hjälpuppgift Självträning för neurala multi-task modeller Tajiri za kujifunza kwa ajili ya Modeli nyingi za Kazi za Kiasili புதிய பல பணி முறைமைகளுக்கான மாற்றுதல் செயல் தானாகவே பயிற்சி Nural Multi-Task Modeller üçin Taýýarlama نئورل Multi-Task موڈل کے لئے ترنسڈوکیٹیو اپنا اپنا ترنینینگ ٹاکس Name Dịch vụ tự đào tạo các chế độ đa tác động thần kinh 神经多任务模则转导佐自训练
Abstract
Multi-task learning and self-training are two common ways to improve a machine learning model’s performance in settings with limited training data. Drawing heavily on ideas from those two approaches, we suggest transductive auxiliary task self-training : training a multi-task model on (i) a combination of main and auxiliary task training data, and (ii) test instances with auxiliary task labels which a single-task version of the model has previously generated. We perform extensive experiments on 86 combinations of languages and tasks. Our results are that, on average, transductive auxiliary task self-training improves absolute accuracy by up to 9.56 % over the pure multi-task model for dependency relation tagging and by up to 13.03 % for semantic tagging.Abstract
Multi-task leer en self-onderwerp is twee gewone maniere om 'n masjien leer model se prestasie te verbeter in instellings met beperkte onderwerp data. Wanneer ons te teken swaar op idees van daardie twee toepassings, voorstel ons transduktiewe hulpbrek self-onderwerp: onderwerp 'n multi-taak model op (i) ' n kombinasie van hoof en hulpbrek taak onderwerp data, en (ii) toets voorbeelde met hulpbrekende taak etikette wat 'n enkel-taak weergawe van die model voorheen genereer het. Ons doen uitbreidige eksperimente op 86 kombinasies van tale en taak. Ons resultate is dat, op gemiddelde, transductive auxiliary task self-training, absolute presisie verbeter tot by 9.56% oor die suiwer multi-task model vir afhanklikheidsverklaring en tot by 13.03% vir semantiese etiketting.Abstract
የብዙ ስራ ትምህርት እና የራሳቸውን ትምህርት ሁለት የተለየ መንገዶች ናቸው፤ የሞክራዊ ትምህርት ሞዴል በሥርዓት ማህበረሰብ ዳታዎችን በማሻሻል፡፡ ከሁለቱ ደረጃዎች በታላቅ ላይ በመጫወት፣ ለራሱ ማስተማርን ለመከላከል እና ለብዙ አድራሻ ሞዴል (i) በመጠቀም እና ማጠቃለያ ዳታዎችን እና (ii) ምሳሌዎችን በመስጠት ስራ ማድረጊያውን እና በጭራሽ ስራ ማህበረሰብ የሞዴል መልዕክት አስቀድሞ የፈጠረውን እና (i) 86 ቋንቋዎች እና ስራዎችን በተለያዩ ብዛት ፈተናዎችን እናደርጋለን፡፡ ፍሬዎቻችን በመካከለኛ ተግባር የራሳቸውን ትምህርት ማድረግ ከ9.56 በመቶ በላይ ጥሩ ለጥሩ ግንኙነት ማሰናከል እና እስከ 13.03 በመቶ የሚያደርገው የስራ ተግባር ማሰናከል ማድረግ ነው፡፡Abstract
يعد التعلم متعدد المهام والتدريب الذاتي طريقتين شائعتين لتحسين أداء نموذج التعلم الآلي في الإعدادات ذات بيانات التدريب المحدودة. بالاعتماد بشكل كبير على الأفكار من هذين النهجين ، نقترح التدريب الذاتي على المهام المساعدة التحويلية: تدريب نموذج متعدد المهام على (1) مجموعة من بيانات تدريب المهام الرئيسية والمساعدة ، و (2) اختبار الحالات مع تسميات المهام المساعدة التي تم إنشاء نسخة مهمة واحدة من النموذج مسبقًا. نجري تجارب مكثفة على 86 مجموعة من اللغات والمهام. نتائجنا هي أنه ، في المتوسط ، يعمل التدريب الذاتي على المهام المساعدة التحويلية على تحسين الدقة المطلقة بنسبة تصل إلى 9.56٪ على النموذج النقي متعدد المهام لوضع علامات على علاقة التبعية وبنسبة تصل إلى 13.03٪ لوضع العلامات الدلالية.Abstract
Çoxlu işin öyrənməsi və özünü təhsil etməsi maşın öyrənməsi modelinin performansını müəyyən etməsi üçün iki ortaq yoldur. Bu iki tərəfdən fikirlərin üstünə a ğır gəlməsini təsdiqləyirik, modelinin əvvəlcə təklif verəcəyi təqdim etiketlərlə birləşdirilməsi üçün çox-i ş model i təhsil edirik. Biz 86 dillərin və işlərin birləşdirilməsi üçün geniş təcrübələr edirik. Bizim sonuçlarımız, ortalamaqla, transduktiv köməkçi təhsil təhsil təhsil təhsil etmək üçün təmiz çoxlu işlər modelinin etiketi üçün və semantik etiketi üçün 13,03%-ə qədər təhsil edilən çoxlu işlər modelinin dəyişikliyini yaxşılaşdırır.Abstract
Многофункционалното обучение и самообучение са два често срещани начина за подобряване на производителността на модела на машинно обучение в настройки с ограничени данни за обучение. Въз основа на идеите от тези два подхода предлагаме трансдуктивно самостоятелно обучение на спомагателни задачи: обучение на многозадачен модел на (i) комбинация от основни и спомагателни данни за обучение на задачи и (ii) тестови инстанции с спомагателни етикети на задачи, които една версия на модела е генерирала преди това. Извършваме обширни експерименти върху 86 комбинации от езици и задачи. Резултатите ни са, че средно трансдуктивната спомагателна задача самообучение подобрява абсолютната точност с до 9.56% спрямо чистия многозадачен модел за маркиране на зависимостта и с до 13.03% при семантично маркиране.Abstract
মাল্টিক কাজ শিক্ষা এবং নিজেকে প্রশিক্ষণের দুটি সাধারণ উপায় যাতে মেশিন শিক্ষা মডেলের কার্যক্রম উন্নতি করতে পারে সীমিত প্ এই দুটি পদক্ষেপ থেকে ভারী চিন্তা নিয়ে আমরা পরামর্শ দিচ্ছি transductive auxiliary task self-train: a multi-task মডেল (i) on a মাধ্যম এবং অনুগ্রহশীল কাজের ডাটা প্রশিক্ষণ এবং (ii) পরীক্ষা কর্মসূচী লেবেলের সাথে যা মডেলের একটি আমরা ৮৬ ভাষা এবং কাজে বিস্তৃত পরীক্ষা করি। আমাদের ফলাফল হচ্ছে সাধারণত ট্যাগ গ্রহণের জন্য ট্যাগগুলোর মাধ্যমে ট্রান্ড্রান্ড্রান্ড্রান্ড্রান্ড্রান্ড্রান্টিক প্রশিক্ষণ নিজেকে প্রশিক্ষণের পরিমাণ সঠAbstract
སྣ་མང་བོའི་སློབ་གྲྭར་དང་རང་ཉིད་གྲྭར་གྱི་ཐབས་ལམ་གཉིས་ཡིན་པས་མ་ལག་གི་སློབ་གྲྭའི་མ་གཟུགས་ལས་སྒྲིག་འགོད Drawing heavily on ideas from those two approaches, we suggest transductive auxiliary task self-training: training a multi-task model on (i) a combination of main and auxiliary task training data, and (ii) test instances with auxiliary task labels which a single-task version of the model has previously generated. ང་ཚོས་སྐད་རིགས་དང་བྱ་འགུལ་གྱི་བསྡུས་བརྗོད་ཆེན་པོ་མང་པོ་ཞིག་ཡོད་པ་རེད། ང་ཚོའི་གྲུབ་འབྲས་འདི་ལྟར་ཕན་ཚུན་གྱིས་ཕན་ཚུན་གྱིས་ལས་ཕན་ཚུན་self-training་གི་ཐོག་ལས་ཉུང་ཚད་ལྡན་སྔར་ནམ།Abstract
Većin a zadataka učenje i samoupravljanje su dva zajednička načina da poboljšaju učenje modela mašine u postavkama sa ograničenim podacima o obuci. Uzimajući teško ideje od tih dva pristupa, predlažemo prevoditeljsku pomoćnu samobuku zadataka: obuku multizadatačnog model a na i) kombinaciju glavnih i pomoćnih podataka obuke zadataka, i ii) test slučajeva s pomoćnim etiketama zadataka koje je prethodno stvorena jedna verzija modela. Izvodimo široke eksperimente na 86 kombinacija jezika i zadataka. Naši rezultati su da, prosječno, transduktivna pomoćna osobna obuka zadataka poboljšava apsolutnu preciznost do 9,56% nad čistim multizadatačnim modelom za označavanje zavisnosti veze i do 13,03% za semantičko označavanje.Abstract
Multi-task learning and self-training are two common ways to improve a machine learning model's performance in settings with limited training data. Drawing heavily on ideas from those two approaches, we suggest transductive auxiliary task self-training: training a multi-task model on (i) a combination of main and auxiliary task training data, and (ii) test instances with auxiliary task labels which a single-task version of the model has previously generated. Fem experiments extensos en 86 combinacions de llengües i tasques. Els nostres resultats són que, en mitjana, l'autocapacitació de la tasca auxiliar transductiva millora la precisió absoluta fins al 9,56% sobre el model pur multitasca per etiquetar relacions de dependencia i fins al 13,03% per etiquetar semàntic.Abstract
Víceúlohové učení a samostatné školení jsou dva běžné způsoby, jak zlepšit výkon modelu strojového učení v nastaveních s omezenými tréninkovými údaji. Na základě nápadů z těchto dvou přístupů navrhujeme transduktivní samotný trénink pomocných úkolů: trénink víceúkolového modelu na (i) kombinaci dat hlavního a pomocného tréninku úkolů a (ii) testovací instance s pomocnými popisky úkolů, které dříve generovala jednotná verze modelu. Provádíme rozsáhlé experimenty na 86 kombinacích jazyků a úkolů. Naše výsledky jsou, že transduktivní samotný trénink pomocných úkolů v průměru zlepšuje absolutní přesnost až o 9,56% oproti čistému multi-úlohovému modelu pro značení závislostních vztahů a o 13,03% pro sémantické značení.Abstract
Multi-task learning og selvtræning er to almindelige måder at forbedre en maskinlæringsmodels ydeevne på i indstillinger med begrænsede træningsdata. Ved at trække stærkt på ideer fra disse to tilgange foreslår vi transduktiv hjælpeopgave selvtræning: træning af en multi-opgavemodel på i) en kombination af hovedopgavedata og hjælpeopgavedata og ii) testforekomster med hjælpeopgavetetiketter, som en enkelt-opgaveversion af modellen tidligere har genereret. Vi udfører omfattende eksperimenter med 86 kombinationer af sprog og opgaver. Vores resultater er, at transduktiv hjælpeopgave selvtræning i gennemsnit forbedrer den absolutte nøjagtighed med op til 9,56% i forhold til den rene multi-task model for afhængighedsrelations tagging og med op til 13,03% i semantisk tagging.Abstract
Multi-Task-Learning und Selbsttraining sind zwei gängige Möglichkeiten, die Leistung eines Machine Learning Modells in Umgebungen mit begrenzten Trainingsdaten zu verbessern. Basierend auf den Ideen dieser beiden Ansätze schlagen wir transduktives Selbsttraining für Hilfsaufgaben vor: Training eines Mehraufgabenmodells auf (i) einer Kombination von Haupt- und Hilfsaufgabentrainingsdaten und (ii) Testinstanzen mit Hilfsaufgabenbeschriftungen, die zuvor eine Einzelaufgabenversion des Modells generiert hat. Wir führen umfangreiche Experimente an 86-Kombinationen von Sprachen und Aufgaben durch. Unsere Ergebnisse sind, dass transduktives Selbsttraining für Hilfsaufgaben im Durchschnitt die absolute Genauigkeit um bis zu 9,56% gegenüber dem reinen Multitask-Modell für Abhängigkeitsbeziehungen Tagging und um bis zu 13,03% für semantisches Tagging verbessert.Abstract
Η εκμάθηση πολλαπλών εργασιών και η αυτοκατάρτιση είναι δύο κοινοί τρόποι βελτίωσης της απόδοσης ενός μοντέλου μηχανικής μάθησης σε ρυθμίσεις με περιορισμένα δεδομένα κατάρτισης. Βασιζόμενοι σε ιδέες από αυτές τις δύο προσεγγίσεις, προτείνουμε μεταγωγική βοηθητική αυτοεκπαίδευση εργασίας: εκπαίδευση ενός μοντέλου πολλαπλών εργασιών (i) σε συνδυασμό δεδομένων εκπαίδευσης κύριων και βοηθητικών εργασιών, και (ii) δοκιμαστικές περιπτώσεις με βοηθητικές ετικέτες εργασιών που έχει δημιουργήσει προηγουμένως μια έκδοση του μοντέλου για μια ενιαία εργασία. Πραγματοποιούμε εκτεταμένα πειράματα σε 86 συνδυασμούς γλωσσών και εργασιών. Τα αποτελέσματά μας είναι ότι, κατά μέσο όρο, η μεταγωγική βοηθητική αυτοεκπαίδευση εργασιών βελτιώνει την απόλυτη ακρίβεια μέχρι 9,56% σε σχέση με το καθαρό μοντέλο πολλαπλών εργασιών για τη σήμανση σχέσεων εξάρτησης και μέχρι 13,03% για τη σημασιολογική σήμανση.Abstract
El aprendizaje multitarea y el autoaprendizaje son dos formas comunes de mejorar el rendimiento de un modelo de aprendizaje automático en entornos con datos de entrenamiento limitados. Basándonos en gran medida en las ideas de esos dos enfoques, sugerimos el autoentrenamiento de tareas auxiliares transductivas: entrenar un modelo multitarea en (i) una combinación de datos de entrenamiento de tareas principales y auxiliares, y (ii) instancias de prueba con etiquetas de tareas auxiliares que una versión de tarea única del modelo ha generado previamente. Realizamos experimentos exhaustivos en 86 combinaciones de idiomas y tareas. Nuestros resultados son que, en promedio, el autoentrenamiento de tareas auxiliares transductivas mejora la precisión absoluta hasta en un 9,56% en comparación con el modelo multitarea puro para el etiquetado de relaciones de dependencia y hasta en un 13,03% para el etiquetado semántico.Abstract
Mitme ülesandega õpe ja eneseõpe on kaks levinud viisi masinõppemudeli jõudluse parandamiseks piiratud koolitusandmetega seadetes. Tuginedes tugevalt nende kahe lähenemisviisi ideedele, soovitame teha transduktiivset abiülesannete eneseõpet: koolitada mitme ülesandega mudelit (i) põhi- ja abiülesannete koolituse andmete kombinatsioonil ning (ii) katsejuhtumid abiülesannete märgistustega, mida mudeli ühe ülesandega versioon on varem loonud. Teostame ulatuslikke eksperimente 86 keelte ja ülesannete kombinatsiooniga. Meie tulemused on, et transduktiivne abiülesannete eneseõpe parandab keskmiselt absoluutset täpsust kuni 9,56% võrreldes puhta mitme ülesandega mudeliga sõltuvussuhtede märgistamise puhul ja kuni 13,03% semantilise märgistamise puhul.Abstract
یادگیری بسیاری از کار و آموزش خودخواهی دو راه معمولی برای تحصیلات مدل یادگیری ماشین در تنظیمات با داده های آموزش محدودیت است. با توجه به شدت روی ایدههایی از این دو دسترسی، ما پیشنهاد میکنیم که خودآموزش کارهای کمککنندهای را ترجمه کنیم: یک مدل چندین کار روی i) ترجمه دادههای آموزش کار اصلی و کمککننده، و (ii) instances آزمایش با برچسبهای کار کمککنندهای که یک نسخهی یک کار از مدل پیش تولید شده است. ما آزمایشهای گستردهای روی 86 ترکیب زبان و وظیفه انجام میدهیم. نتیجههای ما این است که در میانگین، آموزش خودکار کمککنندهی تغییر دادن دقیق کامل را تا 9.56 درصد بیشتر از مدل چندین کاری پاک برای تغییر ارتباط بستگی و تا 13.03 درصد برای تغییر نشانیهای semantic بهتر میکند.Abstract
Monitehtäväoppiminen ja itseopiskelu ovat kaksi yleistä tapaa parantaa koneoppimismallin suorituskykyä tilanteissa, joissa harjoitusdata on rajallinen. Näistä kahdesta lähestymistavasta saatujen ideoiden pohjalta ehdotamme transduktiivista lisätehtävien itsekoulutusta: monitehtävämallin kouluttamista (i) perus- ja lisätehtävien koulutustietojen yhdistelmällä ja (ii) testitapauksia, joissa on lisätehtävien tunnisteet, jotka mallin yhden tehtävän versio on aiemmin tuottanut. Teemme laajoja kokeiluja 86 kielen ja tehtävän yhdistelmällä. Tuloksemme ovat, että transduktiivisen aputehtävän itseharjoittelu parantaa absoluuttista tarkkuutta keskimäärin jopa 9,56% verrattuna puhtaaseen monitehtävämalliin riippuvuussuhteen tagauksessa ja jopa 13,03% semanttisessa tagauksessa.Abstract
L'apprentissage multitâche et l'auto-formation sont deux moyens courants d'améliorer les performances d'un modèle d'apprentissage automatique dans des environnements où les données d'entraînement sont limitées. En nous appuyant largement sur les idées issues de ces deux approches, nous suggérons l'auto-apprentissage des tâches auxiliaires transductives : entraîner un modèle multitâche sur (i) une combinaison de données d'entraînement de tâches principales et auxiliaires, et (ii) des instances de test avec des étiquettes de tâches auxiliaires qu'une version du modèle à tâche unique a précédemment générées. Nous réalisons des expériences approfondies sur 86 combinaisons de langues et de tâches. Nos résultats indiquent qu'en moyenne, l'auto-apprentissage des tâches auxiliaires transductives améliore la précision absolue jusqu'à 9,56 % par rapport au modèle multitâche pur pour le marquage des relations de dépendance et jusqu'à 13,03 % pour le marquage sémantique.Abstract
Is dhá bhealach coitianta iad foghlaim il-tasc agus féin-oiliúint chun feidhmíocht mhúnla meaisínfhoghlama a fheabhsú i suíomhanna le sonraí oiliúna teoranta. Ag tarraingt go mór ar smaointe ón dá chur chuige sin, molaimid féin-oiliúint thasc chúnta thrasductach: múnla ilthasc a oiliúint ar (i) teaglaim de shonraí oiliúna príomhthascanna agus cúnta, agus (ii) cásanna tástála le lipéid thasc chúnta a ghin leagan aontasc den tsamhail roimhe seo. Déanaimid turgnaimh fhairsing ar 86 teaglaim teangacha agus tascanna. Is é ár dtorthaí ná go bhfeabhsaítear, ar an meán, le féinoiliúint tasc cúnta tras-ductach cruinneas iomlán suas le 9.56% thar an tsamhail ilthasc íon do chlibeáil caidreamh spleáchais agus suas le 13.03% do chlibeáil shéimeantach.Abstract
Shirin aiki mai yawa da kuji-aikin su yana da hanyõyi biyu mai ɗabi'a zuwa gyãra wa muhalli na zane-zane cikin kewayen tsaro da data na tsari. Ko nuna kafo masu nau'i daga wannan hanyoyin biyu, tuna shawarar da za'a iya shige aikin mataimaki masu shirya: ka yi amfani da misalin multi-aikin a kan (i) koma mai haɗi da data masu amfani da masu inganci masu aikin aiki da kuma (ii) jarraba misãlai da alama masu lissafa da aka tsare wani aikin aiki da shirin ayuka ya riga ya halin ta. Munã samun jarrabi masu yawa a kan 86 masu cikin harshen da aikin. MatamayinMu ne, a kan zaman aikin da za'a lissafa aikin da ke iya shige, yana ƙara a cikakken tsari zuwa 9.46%, kuma a kan misalin mulki masu tsari ga tagogi da kuma a ƙara 13.03% ga tagogi na semantic.Abstract
לימוד במשימות רבות ואימון עצמי הם שתי דרכים נפוצות לשפר את ההופעה של מודל לימוד מכונות במסדרות עם נתונים אימונים מוגבלים. מציירים על רעיונות משני הגישויות האלה, אנו מציעים שימוש עזרי משימות טרנסודקטיבי אימון עצמי: אימון מודל multi-משימות על (i) שילוב של נתוני אימון משימות ראשיים ועזריים, ו (ii) מקרים מבחנים עם תוויות משימות עזריות שגרסה משימות אחת של המודל יצרה קודם. אנחנו מבצעים ניסויים רחבים על 86 שילובים של שפות ומשימות. התוצאות שלנו הן, במוצע הממוצע, שימוש עזרי טרנסודקטיבי אימון עצמי משפר בדיקת מוחלטת עד 9.56% על מודל המולט של משימות רבות לתגים יחסי תלויות ועד 13.03% לתגים סמנטיים.Abstract
मल्टी-टास्क लर्निंग और स्व-प्रशिक्षण सीमित प्रशिक्षण डेटा के साथ सेटिंग्स में मशीन लर्निंग मॉडल के प्रदर्शन को बेहतर बनाने के दो सामान्य तरीके हैं। उन दो दृष्टिकोणों से विचारों पर भारी ड्राइंग, हम transductive सहायक कार्य स्व-प्रशिक्षण का सुझाव देते हैं: (i) मुख्य और सहायक कार्य प्रशिक्षण डेटा का एक संयोजन, और (ii) सहायक कार्य लेबल के साथ परीक्षण उदाहरणों पर एक बहु-कार्य मॉडल को प्रशिक्षित करना जो मॉडल के एकल-कार्य संस्करण ने पहले उत्पन्न किया है। हम भाषाओं और कार्यों के 86 संयोजनों पर व्यापक प्रयोग करते हैं। हमारे परिणाम यह हैं कि, औसतन, ट्रांसडक्टिव सहायक कार्य स्व-प्रशिक्षण निर्भरता संबंध टैगिंग के लिए शुद्ध बहु-कार्य मॉडल पर 9.56% तक और सिमेंटिक टैगिंग के लिए 13.03% तक पूर्ण सटीकता में सुधार करता है।Abstract
Većin a zadataka učenje i samobuka su dva zajednička načina za poboljšanje učenja modela mašine u nastavama s ograničenim podacima o obuci. Uzimajući teško ideje od tih dva pristupa, predlažemo prevoditeljsku pomoćnu samobuku zadataka: obuku multizadatačnog model a na i) kombinaciju glavnih i pomoćnih podataka o obuci zadataka i ii) test slučajeva s pomoćnim etiketama zadataka koje je prethodno stvorena jedinstvena verzija modela. Izvodimo široke eksperimente na 86 kombinacija jezika i zadataka. Naši rezultati su da, prosječno, transduktivna pomoćna osobna obuka zadataka poboljšava apsolutnu preciznost do 9,56% nad čistim multizadatačnim modelom za označavanje zavisnosti o označavanju odnosa i do 13,03% za semantičko označavanje.Abstract
A többfeladatos tanulás és az önképzés két gyakori módja annak, hogy javítsuk a gépi tanulási modell teljesítményét korlátozott edzési adatokkal rendelkező beállításokban. E két megközelítésből származó ötletekre támaszkodva javasoljuk a transzduktív segédfeladatok önképzését: egy többfeladatos modell képzése (i) a fő- és segédfeladatképzési adatok kombinációjára, és (ii) a segédfeladat címkékkel ellátott tesztpéldányok, amelyeket a modell egy egyfeladatos verziója korábban generált. 86 nyelv és feladat kombinációján átfogó kísérleteket végezünk. Eredményeink szerint a transzduktív kiegészítő feladatok önképzése átlagosan 9,56%-kal javítja az abszolút pontosságot a tiszta többfeladatos modellhez képest a függőségi kapcsolatok címkézésére, és akár 13,03%-kal a szemantikus címkézésre.Abstract
Բազմախնդիրների ուսումնասիրությունը և ինքնավարժումը երկու տարածված միջոց են մեքենավարժման մոդելի արդյունքը բարելավելու համար սահմանափակ վարժման տվյալներով պայմաններում: Այս երկու մոտեցումների գաղափարների վրա խոշորելով, մենք առաջարկում ենք ավելացնող ավելացնող խնդիրների ինքնավարժումը. ավելացնելով բազմախնդիրների մոդելը i) հիմնական և ավելացնող խնդիրների վարժման տվյալների համակցության վրա, և (II) փորձարկումների դեպքերի հետ օգնական խնդիրների պիտակներով, որոնք նախկինում ստե Մենք կատարում ենք հսկայական փորձարկումներ լեզուների և առաջադրանքների 86 համադրման վրա: Մեր արդյունքները նրանում են, որ միջինում, հաղորդակցող օգնական խնդիրը ինքնավարժում բարելավում է բացարձակ ճշմարտությունը մինչև 9.56 տոկոսով կախվածության հարաբերության մաքուր բազմախնդիր մոդելի և մինչև 13.03 տոկոսով սեմանտիկ նշանների համար:Abstract
Pelajaran multitask dan pelatihan diri adalah dua cara umum untuk meningkatkan prestasi model pelatihan mesin dalam pengaturan dengan data pelatihan terbatas. Melukis dengan berat pada ide dari dua pendekatan tersebut, kami menyarankan transduksi tugas bantuan latihan diri: melatih model multi-tugas pada (i) kombinasi data pelatihan tugas utama dan bantuan, dan (ii) kejadian tes dengan label tugas bantuan yang versi tugas tunggal model sebelumnya telah menghasilkan. Kami melakukan eksperimen ekstensif pada 86 kombinasi bahasa dan tugas. Hasil kami adalah bahwa, rata-rata, transduktif tugas bantuan latihan diri meningkatkan akurasi mutlak dengan sampai 9,56% atas model multi-tugas murni untuk pendapatan hubungan tag dan dengan sampai 13,03% untuk pendapatan semantis.Abstract
L'apprendimento multi-task e l'autoapprendimento sono due modi comuni per migliorare le prestazioni di un modello di apprendimento automatico in impostazioni con dati di allenamento limitati. Attingendo fortemente sulle idee di questi due approcci, proponiamo l'auto-addestramento trasttivo delle attività ausiliarie: formazione di un modello multi-task su (i) una combinazione di dati di addestramento delle attività principali e ausiliari, e (ii) istanze di test con etichette di attività ausiliarie che una versione single-task del modello ha precedentemente generato. Eseguiamo esperimenti approfonditi su 86 combinazioni di lingue e compiti. I nostri risultati sono che, in media, l'auto-allenamento trasttivo delle attività ausiliarie migliora l'accuratezza assoluta fino al 9,56% rispetto al modello multi-task puro per il tagging delle relazioni di dipendenza e fino al 13,03% per il tagging semantico.Abstract
マルチタスク学習とセルフトレーニングは、トレーニングデータが限られた環境で機械学習モデルのパフォーマンスを向上させる2つの一般的な方法です。これら2つのアプローチからのアイデアを大きく引き出すと、変換補助タスクの自己訓練を提案します。つまり、(i)主なタスクと補助タスクの訓練データの組み合わせについてのマルチタスクモデルの訓練、および(ii)モデルのシングルタスクバージョンが以前に生成した補助タスクラベルを使用したテストインスタンスです。私たちは、86の言語とタスクの組み合わせに関する広範な実験を行います。私たちの結果は、変換補助タスクセルフトレーニングは、依存関係タグ付けのための純粋なマルチタスクモデルよりも絶対精度を最大9.56%向上させ、セマンティックタグ付けのために最大13.03%向上させるというものです。Abstract
Multi-task olèhmu karo nganggo-suaraning kuwi wis rampun duwé kuwi nggawe sistem penting model nggawe barang pengaturan karo data nggawe Dworongno nggambar luwih nggambar kelalen akeh durung apik, kita suggerne transformative help task Self-curiang: curiang a multi-task model on (i) a combining of primary and help task curiang data, and (i i) test instance with help task label that a single-task version of the model has been generated before. Anyone Rejilawe nambah, ditambang-ngomong, uwong-uwong sing ngerasakno ngerasakno; dadi wis ambang sing dirangkamu kanggo sabên gerakan kanggo sabên gerakan kanggo 9.Abstract
Multi-task learning and self-training are two common ways to improve a machine learning model's performance in settings with limited training data. იდეების შესახებ, ჩვენ გვეძლია გავაკეთებთ გავაკეთებთ გავაკეთებული დახმარებელი დავაკეთებული დავაკეთება: მრავალ დავაკეთებული მოდელს i) მნიშვნელოვანი და დახმარებელი დავაკეთებული მონაცემების კომბინეციაზე, და ii) ტესტის ინსტაციები, რომლებიც მოდე ჩვენ გავაკეთებთ უფრო დიდი ექსპერიმენტები 86 ენების და დავალების კომბიციაზე. ჩვენი წარმოდგენება არის, რომ საშუალოდ, გადატანდექტიური დახმარებელი საქმე საქმე საქმე თავისუფლიო განაკეთება აბსოლუტური წარმოდგენება 9,56% უფრო წარმოდგენებული მრავალ საქმე მოდელზე დადარწმუნAbstract
Көптеген тапсырмаларды оқыту және өзіңізді оқыту - машинаны оқыту үлгісін шектелген оқыту деректерінің орнату үшін екі жалпы жолы. Бұл екі жағдайдан идеяларды қолдану үшін біз көмектесу тапсырмаларды өзімізге көмектесу үлгісін қолданамыз: i) негізгі және көмектесу тапсырмалардың көмектесу деректерін біріктіру үшін көмектесу үлгісін және ii) үлгісінің бір тапсырма нұсқа Біз 86 тіл мен тапсырмаларды жинақтау үшін кеңейтілген тәжірибелерді жасаймыз. Біздің нәтижелеріміз, орташа, көмектесетін тапсырмаларды өзіміздің оқытуымыздың абсолюттік дұрыстығын 9,56% деп, тәуелдік тегтерінің көмектесетін бірнеше тапсырмалардың моделінен, және семантикалық тегтерініңAbstract
훈련 데이터가 제한된 상황에서 다중 임무 학습과 자기 훈련은 기계 학습 모델의 성능을 향상시키는 두 가지 상용 방법이다.이 두 가지 방법을 충분히 참고한 토대에서 우리는 보조임무 자기훈련을 전환하는 건의를 제기했다. (i) 주요 임무와 보조임무 훈련 데이터의 조합에서 다중 임무 모델을 훈련하고 (ii) 보조임무 라벨이 있는 테스트 실례를 제시했다. 이 라벨은 모델의 단일 임무 버전 전에 생성된 것이다.우리는 86가지 언어와 임무의 조합에 대해 광범위한 실험을 진행했다.우리의 결과는 관계 표기에 의존하는 순수한 다중 임무 모델에 비해 평균적으로 보조임무 전환 자기훈련은 절대 정확도를 9.56%, 의미 표기의 절대 정확도를 13.03% 높였다.Abstract
Daugiaužduotis trunkantis mokymasis ir savarankiškas mokymas yra du bendri būdai gerinti mašininio mokymosi modelio veiksmingumą ribotų mokymo duomenų turinčiose aplinkybėse. Labai remdamiesi ši ų dviejų metodų idėjomis, siūlome transdukcinį pagalbinį užduočių savarankišką mokymą: daugiafunkcinio modelio mokymą i) pagrindinių ir pagalbinių užduočių mokymo duomenų derinį ir ii) bandymų atvejus su pagalbinėmis užduočių etiketėmis, kurias anksčiau sukūrė vienos užduočių modelio versija. Eksperimentuojame 86 kalbų ir užduočių derinius. Mūsų rezultatai yra tai, kad vidutiniškai transdukcinis papildomų užduočių savarankiškas mokymas gerina absoliučią tikslumą iki 9,56 proc., palyginti su grynu daugiafunkciniu modeliu priklausomybės santykių žymėjimui ir iki 13,03 proc., palyginti su semantiniu žymėjimu.Abstract
Мултизадачното учење и самообуката се два заеднички начини за подобрување на резултатите на моделот на машинско учење во поставувања со ограничени податоци за обука. Нацртајќи многу на идеите од овие два пристапи, предлагаме трансдуктивна помошна задача самообука: обука на мултизадачен модел на (i) комбинација на податоци за обука на главните и помошните задачи и (ii) тестови со помошни задачи етикети кои претходно ги генерираше една верзија на моделот. Правиме експерименти на 86 комбинации на јазици и задачи. Нашите резултати се дека, во просек, трансдуктивната помошна задача самообука ја подобрува апсолутната точност за 9,56 отсто во однос на чистиот мултизадачен модел за означување на односите на зависност и за 13,03 отсто во однос на семантичното означување.Abstract
കൂടുതല് ജോലി പഠിക്കുകയും സ്വയം പരിശീലിക്കുകയും ചെയ്യുന്നത് പരിശീലനത്തിനുള്ള വിവരങ്ങളുമായി ഒരു യന്ത്ര പഠിക്കുന്ന മ ഈ രണ്ടു സ്ഥിതികളില് നിന്നും കഠിനമായി ആശയങ്ങളെ വരയ്ക്കുന്നതിനാല് ഞങ്ങള് നിര്ദ്ദേശിക്കുന്നു, ട്രാന്ട്രാന്ട്രാന്ട്രാന്ട്രാക്ടിക്കോളിക്കേറ്റീവ് ജോലി സ്വയം പരിശീലിക്കുന്നത് 86 ഭാഷകളുടെയും ജോലികളുടെയും കൂട്ടത്തില് ഞങ്ങള് വിശാലമായ പരീക്ഷണങ്ങള് നടത്തുന്നു. നമ്മുടെ ഫലങ്ങള് എന്താണെന്നാല് സാധാരണ, ട്രാന്ട്രാന്ട്രാന്ഡ്യൂക്ടിക്കേറ്റിവ് കൂടുതല് സ്വയം പരിശീലിപ്പിക്കുന്നത് 9.56% കൂടിയാണ്, ആശ്രയിക്കുന്ന ബന്ധമAbstract
Олон даалгаварын суралцах, өөртөө суралцах нь машин суралцах загварын үйл ажиллагааг хязгаарлагдсан суралцах мэдээллээр сайжруулах хоёр төрлийн арга юм. Тэдгээр хоёр ойлголтын тухай санаануудад хүндрэлтэй зурах нь бид өөрсдийн дасгал хөгжүүлэх тусламжтай ажил: i) дээр олон ажлын загварын гол, тусламжтай ажлын дасгал өгөгдлийн нийлбэр суралцах болон ii) өмнө нь загварын нэг ажлын хувилбар бүтээсэн тусламжтай шалгалт хэрэгтэй Бид 86 хэл болон үйл ажиллагааны холбоотой маш их туршилтыг хийдэг. Бидний үр дүнд дундаж өөрсдийгөө туслах тусламжтай ажиллагааны сургалтын тусламжтайгаар хамааралтай хамааралтай байдлын загвараас 9.56% хүртэл хамааралтай олон ажиллагааны загварын хувьд нэмэгдүүлдэг бөгөөд үр дүнд хамааралтай байдлын туслAbstract
Pembelajaran-tugas berbilang dan latihan-diri adalah dua cara biasa untuk meningkatkan prestasi model pembelajaran mesin dalam tetapan dengan data latihan terbatas. Melukis dengan kuat pada idea dari kedua-dua pendekatan itu, kami cadangkan latihan-diri tugas bantuan transduktif: latihan model multi-tugas pada (i) kombinasi data latihan tugas utama dan bantuan, dan (ii) kes ujian dengan label tugas bantuan yang versi tugas tunggal model telah dijana sebelumnya. Kami melakukan eksperimen luas pada 86 kombinasi bahasa dan tugas. Hasil kami ialah, secara rata-rata, latihan bantuan transduktif meningkatkan ketepatan mutlak dengan sehingga 9.56% atas model berbilang-tugas murni untuk tag hubungan dependensi dan sehingga 13.03% untuk tag semantik.Abstract
It-tagħlim multikompitu u t-taħriġ awtonomu huma żewġ modi komuni biex tittejjeb il-prestazzjoni ta’ mudell ta’ tagħlim bil-magni f’ambjenti b’dejta limitata ta’ taħriġ. Bl-użu qawwi tal-ideat minn dawk i ż-żewġ approċċi, issuġġerixxu tagħlim awżiljarju transduttiv tal-kompiti awżiljarji: taħriġ ta’ mudell multikompiti dwar (i) kombinazzjoni ta’ dejta ta’ taħriġ ta’ kompiti ewlenin u awżiljarji, u (ii) każijiet ta’ ttestjar ma’ tikketti awżiljarji tal-kompiti li verżjoni ta’ kompitu wieħed tal-mudell kienet iġġenerat qabel. Għandna nagħmlu esperimenti estensivi fuq 86 kombinazzjoni ta’ lingwi u kompiti. Ir-riżultati tagħna huma li, bħala medja, it-taħriġ awżiljarju transduttiv tal-kompiti jtejjeb il-preċiżjoni assoluta b’sa 9.56% fuq il-mudell pur multikompiti għat-tikkettar tar-relazzjoni tad-dipendenza u b’sa 13.03% għat-tikkettar semantiku.Abstract
Multi-task learning en zelftraining zijn twee veelvoorkomende manieren om de prestaties van een machine learning model te verbeteren in omgevingen met beperkte trainingsgegevens. We baseren ons sterk op ideeën uit deze twee benaderingen en stellen transductieve zelftraining voor hulptaken voor: het trainen van een multitask model op (i) een combinatie van hoofd- en hulptaaktrainingsgegevens, en (ii) testinstanties met hulptaaklabels die eerder een singletask versie van het model heeft gegenereerd. We voeren uitgebreide experimenten uit op 86-combinaties van talen en taken. Onze resultaten zijn dat transductieve zelftraining voor hulptaken gemiddeld tot 9,56% verbetert ten opzichte van het pure multitask model voor afhankelijkheidsrelaties tagging en tot 13,03% voor semantische tagging.Abstract
Fleiroppgåver læring og selvøving er to vanlege måtar å forbetra utviklinga av maskinelæringsmodellen i innstillingar med begrenset opplæringsdata. Teiknar vi mykje på ideane frå desse to tilnærmingane, så foreslår vi om transduktiv hjelpeoppgåve selvøving: øving av ein fleire oppgåvemodell på i) kombinasjon av hovudoppgåveøvingsdata, og ii) testinstansar med hjelpeoppgåvemerke som ein enkelt oppgåveverksområde i modellen har tidlegare laga. Vi utfører ekstra eksperimenter på 86 kombinasjonar av språk og oppgåver. Resultatet våre er at gjennomsnittlig transduktiv hjelpeoppgåve selvøving forbedrar absolutt nøyaktighet til 9,56% over den reine multioppgåvemodellen for avhengighetsrelasjon og til 13,03% for semantiske merking.Abstract
Wielozadaniowe uczenie się i samodzielne szkolenie to dwa powszechne sposoby poprawy wydajności modelu uczenia maszynowego w ustawieniach o ograniczonych danych szkoleniowych. Opierając się na pomysłach z tych dwóch podejść, proponujemy transdukcyjne samokształcenie zadań pomocniczych: szkolenie modelu wielozadaniowego na (i) kombinacji danych szkoleniowych zadań głównych i pomocniczych oraz (ii) instancje testowe z pomocniczymi etykietami zadań, które wcześniej generowała wersja modelu dla pojedynczego zadania. Przeprowadzamy obszerne eksperymenty na 86 kombinacjach języków i zadań. Nasze wyniki są takie, że transdukcyjny autotrening zadań pomocniczych poprawia średnio dokładność absolutną do 9,56% w porównaniu z czystym modelem wielozadaniowym dla tagowania relacji zależności i do 13,03% dla tagowania semantycznego.Abstract
O aprendizado multitarefa e o autotreinamento são duas maneiras comuns de melhorar o desempenho de um modelo de aprendizado de máquina em configurações com dados de treinamento limitados. Com base nas ideias dessas duas abordagens, sugerimos o autotreinamento de tarefas auxiliares transdutivas: treinar um modelo multitarefa em (i) uma combinação de dados de treinamento de tarefas principais e auxiliares e (ii) instâncias de teste com rótulos de tarefas auxiliares que um versão de tarefa única do modelo foi gerada anteriormente. Realizamos extensos experimentos em 86 combinações de linguagens e tarefas. Nossos resultados são que, em média, o autotreinamento de tarefa auxiliar transdutiva melhora a precisão absoluta em até 9,56% em relação ao modelo multitarefa puro para marcação de relação de dependência e em até 13,03% para marcação semântica.Abstract
Învățarea cu mai multe sarcini și autoinstruirea sunt două modalități comune de a îmbunătăți performanța unui model de învățare automată în setări cu date limitate de instruire. Bazându-se în mare măsură pe ideile din aceste două abordări, sugerăm auto-instruirea transductivă a sarcinilor auxiliare: instruirea unui model multi-sarcină pe (i) o combinație de date de instruire a sarcinilor principale și auxiliare și (ii) instanțe de testare cu etichete de sarcini auxiliare pe care o versiune unică a modelului a generat anterior. Efectuăm experimente extinse pe 86 de combinații de limbi și sarcini. Rezultatele noastre sunt că, în medie, autoinstruirea transductivă a sarcinilor auxiliare îmbunătățește acuratețea absolută cu până la 9,56% față de modelul pur multi-sarcină pentru etichetarea relațiilor de dependență și cu până la 13,03% pentru etichetarea semantică.Abstract
Многозадачное обучение и самообучение являются двумя распространенными способами повышения производительности модели машинного обучения в условиях ограниченных данных обучения. Опираясь в значительной степени на идеи этих двух подходов, мы предлагаем трансдуктивное самообучение вспомогательных задач: обучение многозадачной модели на (i) комбинации основных и вспомогательных данных обучения задач, и (ii) тестовые экземпляры со вспомогательными метками задач, которые ранее генерировались однозадачной версией модели. Мы проводим обширные эксперименты на 86 комбинациях языков и задач. Наши результаты заключаются в том, что в среднем самообучение трансдуктивной вспомогательной задачи улучшает абсолютную точность на 9,56% по сравнению с чистой многозадачной моделью для метки зависимостей и на 13,03% для семантической метки.Abstract
ගොඩක් වැඩක් ඉගෙනගන්න සහ ස්වාම්ප්රේෂණික විදියට යන්ත්රය ඉගෙනගන්න ප්රමාණයක් වැඩි කරන්න ප්රයෝජනයක් අදහස් දෙකක් පිළිබඳින් අදහස් වලින් සැලසුම් වෙනුවෙන්, අපි ප්රශ්නයක් කරන්නේ ප්රධානය සහ උදව් වැඩක් ප්රධානය සඳහා ප්රධානය සහ උදව් වැඩක් ප්රධානය සඳහා පරීක්ෂා ව අපි භාෂාව සහ වැඩක් සම්බන්ධයක් 86 සම්බන්ධ කරනවා. අපේ ප්රතිචාරය තමයි සාමාන්යයෙන්, ප්රතිචාර විශේෂ වැඩක් ස්වාමාන්යය විශේෂ වෙන්නේ 9.56% වෙනුවෙන් ප්රතිචාර විශේෂ විශේෂ විශේෂ විAbstract
Večopravilno učenje in samousposabljanje sta dva pogosta načina za izboljšanje učinkovitosti modela strojnega učenja v nastavitvah z omejenimi podatki o usposabljanju. Na podlagi idej iz teh dveh pristopov predlagamo transduktivno samousposabljanje pomožnih nalog: usposabljanje večopravilnega modela na (i) kombinaciji podatkov o usposabljanju glavnih in pomožnih nalog ter (ii) preskusne primere s pomožnimi nalepkami, ki jih je predhodno ustvarila različica modela za eno opravilo. Izvajamo obsežne eksperimente na 86 kombinacijah jezikov in nalog. Naši rezultati so, da transduktivna pomožna naloga samousposabljanje v povprečju izboljša absolutno natančnost za do 9,56% v primerjavi s čistim večopravilnim modelom označevanja odvisnosti in do 13,03% za semantično označevanje.Abstract
Waxbarashada iyo iskuulaadka shaqo badan waa laba hab oo caadi ah si ay u kordhiso sameynta qaababka waxbarashada maskaxda marka loo dhigo takhasuska waxbarashada xadgudbay. Markaad si weyn ugu muuqaneyso fikradaas labadaas qaab ah, waxaan ku talo galaynaa iskuul-waxbarasho iskuul ah: ku tababarida model shaqo badan (i) oo ka kooban macluumaadka waxbarashada shaqada ee muhiimka ah iyo rasmiga ah, iyo (ii) tusaalaha lagu imtixaamo alaabta shaqada oo keliya, kaas oo horay u dhashay tusaale shaqo oo keliya. Waxaan sameynaa imtixaamo dheeraad ah oo ku qoran 86 noocyo oo luqad ah iyo shaqooyin kala duduwan. Sababyadayada waxaa laga helaa in iskuulka iskuulka iskuulka iskuulka ah uu kordhiyo saxda oo dhan ilaa 9.56% oo ku saabsan qaabka shaqada oo saaxiibada ah ee xiriirka xiriirka xiriirka ku xiran iyo ugu badnaan 13.03 boqolkiiba qoriga semantika.Abstract
Multi-task learning and self-training are two common ways to improve a machine learning model's performance in settings with limited training data. Duke tërhequr në mënyrë të rëndë idetë nga këto dy qasje, sugjerojmë vetëtrajnimin transduktiv të detyrës ndihmëse: trajnimin e një model i me shumë detyra në (i) një kombinim të të dhënave kryesore dhe ndihmëse të trajnimit të detyrave dhe (ii) raste testimi me etiketa ndihmëse të detyrave që një version me një detyrë të vetme të modelit ka gjeneruar më parë. Ne bëjmë eksperimente të gjera në 86 kombinime gjuhësh dhe detyrash. Rezultatet tona janë se, mesatarisht, vetë-trajnimi i detyrës ndihmëse transduktive përmirëson saktësinë absolute me deri në 9.56% mbi modelin e pastër me shumë detyra për etiketat e marrëdhënieve të varësisë dhe deri në 13.03% për etiketat semantike.Abstract
Višestruko učenje i samopovežbanje su dva zajednička način a da poboljšamo učenje modela mašine u nastavama sa ograničenim podacima obuke. Uzimajući teške ideje od tih dva pristupa, predlažemo prevoditeljsku pomoćnu samobuku zadataka: obuku multizadatačnog model a na i) kombinaciju glavnih i pomoćnih podataka o obuci zadataka, i ii) test slučajeva sa pomoćnim etiketama zadataka koje je prethodno stvorena jedinstvena verzija modela. Izvodimo široke eksperimente na 86 kombinacija jezika i zadataka. Naši rezultati su da, u prosjeku, transduktivna pomoćna obuka samoubistva zadataka poboljšava apsolutnu tačnost do 9,56% nad čistim multizadatačnim modelom za označavanje zavisnosti i do 13,03% za semantičko označavanje.Abstract
Multi-task lärande och självträning är två vanliga sätt att förbättra en maskininlärningsmodells prestanda i inställningar med begränsade träningsdata. Med stor utgångspunkt i idéer från dessa två tillvägagångssätt föreslår vi självträning av transduktiv hjälpuppgift: utbildning av en multi-task modell på (i) en kombination av huvuduppgifter och hjälpuppgifter, och (ii) testinstanser med hjälpuppgifter etiketter som en enstaka version av modellen tidigare har genererat. Vi utför omfattande experiment på 86 kombinationer av språk och uppgifter. Våra resultat är att transduktiv hjälpaktivitet självträning i genomsnitt förbättrar den absoluta noggrannheten med upp till 9,56% jämfört med den rena multi-task modellen för beroenderelationsmärkning och med upp till 13,03% för semantisk märkning.Abstract
Kujifunza na kujifunza kwa kazi nyingi ni njia mbili za kawaida kuboresha utendaji wa muundo wa kujifunza mashine katika mazingira yenye taarifa mpya ya mafunzo. Kuvutia mawazo makubwa kutoka kwenye mbili hizo mbili, tunapendekeza kujifunza kwa upatikanaji wa kazi za kujitegemea: mafunzo ya model i ya kazi nyingi juu (i) muunganiko wa mafunzo makubwa na ya upatikanaji wa kazi, na (ii) vipindi vya majaribio kwa alama za kazi za ushirikiano ambazo ni toleo moja la kazi ambalo tayari liliundwa. Tunafanya majaribio mengi kuhusu muunganiko wa lugha na kazi 86. Matokeo yetu ni kuwa, kwa wastani, juhudi za kujifunza kwa kujitegemea kwa ajili ya kujitegemea zinaongezea uhakika kabisa kwa asilimia 9.56 juu ya mtindo wa kazi safi wa kutegemea uhusiano na kufikia asilimia 13.03 kwa ajili ya alama za sekunde.Abstract
பல பணி கற்றல் மற்றும் தன்னாலே பயிற்சி செய்தல் இரண்டு பொதுவான வழிகளாகும் ஒரு இயந்திரம் கற்றல் மாதிரி செயல்பாட்டை மேம்படுத்து இந்த இரண்டு முறைகளிலிருந்து நினைவுகளை கடுமையாக வரைதலாம், நாம் மாற்றும் மாற்றும் கூட்டுதல் செயல் செயல் தன்னியக்பயிற்சியை பரிந்துரைக்கிறோம்: முன்னரே உருவாக்கப்பட்ட ஒரு பல பணி மாதிரி( i) ம 86 மொழிகளையும் பணிகளையும் மொழிகளையும் சேர்த்து விரிவான சோதனைகளைச் செய்கிறோம். நம்முடைய முடிவுகள் என்னவென்றால், சராசரியாக, transductive auxiliary task தன்னியக்கமாக பயிற்சி 9.56% மேலும் முழுமையான சரியானத்தை மேம்படுத்துகிறது சார்பு தொடர்பு ஒட்டும் முறAbstract
Birn채챌e i힊g채r 철wrenmek we 철zi-철wrenmek ma힊yny흫 철wrenmek nusgyny흫 t채zeliklerini 첵체zeltmek 체챌in iki orta 첵oly. Bu iki gola첵dan pikirlere erbet 챌ekmek 체챌in, 철r채n k철mek ta첵첵arlamak 체챌in 철z체ni belle첵채ris: multi-t채blik nusgasyna (i) esasy we k철mek ta첵첵arlamak maglumatyny흫 birle힊igini, we (ii) nusgasyna k철mek ta첵첵arlamak etiketleri bilen test 철흫체nden 철흫ki d철redilen tek-t채blik wersi첵asy bar. 86 diller we zadymyzy흫 birle힊mesinde 철r채n k철p deneyler ed첵채ris. Bizi흫 netijelerimiz ortalama 힊eklinde, ta첵첵arlanan k철mek ta첵첵arlanmagy 철z체ne k철mek ta첵첵arlanmagy 체챌in 9.56% di첵p ta첵첵arlanmagy 체챌in m철h체m bir multi-t채bli modinde we 13.03% di첵p semantik ta첵첵arlanmagy 체챌in 첵체zele첵채r.Abstract
Multi task learning and self-training are two common ways to improve a machine learning model's performance in settings with limited training data. ان دونوں طریقوں سے بہت زیادہ نظریں ڈالا جاتا ہے، ہم نے ترجمہ کی مددگاری تابع کی سفارش کی پیشنهاد کرتا ہے: i) پر بہت سی تابع موڈل کی تعلیم کرتی ہے، اور ii) مددگار تابع لابلوں کے ساتھ آزمائش کی حالتیں جن سے پہلے ایک تابع ویرجن پیدا کی گئی ہیں. ہم 86 زبانوں اور تاسکیوں کی ترکیب میں بڑی آزمائش کرتے ہیں۔ ہمارے نتیجے یہ ہیں کہ متوسط طور پر تبدیل کرنے والی اپنا استعمال صریح دقیقیت کو 9.56% تک پہنچا دیتا ہے اور سیمانٹی ٹاگ کے لئے نیکی کے ساتھ 13.03% تک۔Abstract
Bir necha vazifa o'rganish va o'zimni o'rganish bir ko'plab o'rganish modelining natijasini o'zgartirish uchun ikki oddiy yo'l. Bu ikkita usuldan ko'p fikrlarni chiqarish uchun biz o'zimiz, transduktiv qoʻllanmalar vazifa o'zimni o'rganamiz: muloqat modelini (i) hozir va muhim vazifa maʼlumotini birlashtirish mumkin va (ii) masalan, bu modelning birinchi bir vazifa versiyasi yaratilgan bir bir xil vazifa tugmalari bilan sinov qilish mumkin. Biz 86 tillar va vazifalar bilan katta tajribani bajaramiz. Bizning natijalarimiz esa, o'rtacha, transduktiv foydalanuvchi vazifani o'zgartirish o'zgarishga 9.56% dan ko'p o'zgartiradi, tashkilotni qo'shish uchun bir necha vazifa modelini o'zgartiradi, va semantik tagga 13.03% ko'proq.Abstract
Việc học nhiều nhiệm vụ và tự đào tạo là hai cách phổ biến để cải thiện khả năng của mô hình học cỗ máy trong các thiết lập có ít dữ liệu về tập luyện. Dựa trên ý tưởng dựa trên hai phương pháp này, chúng tôi đề nghị huấn luyện tự động các nhiệm vụ phụ thuộc chuyển động: huấn luyện một mô hình đa nhiệm vụ dựa trên (i) một sự kết hợp dữ liệu huấn luyện các nhiệm vụ chính và phụ thuộc, và (II) các trường thử nghiệm với các nhãn các công tác phụ, mà một phiên bản đơn nhiệm của mô hình đã từng tạo ra. Chúng tôi thực hiện thí nghiệm rộng rãi trên 86 kết hợp ngôn ngữ và công việc. Kết quả của chúng tôi là, trên trung bình, dịch vụ hỗ trợ chuyển động đào tạo tự động cải thiện độ chính xác tuyệt đối cho đến chín.56=. với mô hình các công việc thuần túy cho các mối quan hệ phụ thuộc và cho đến cho tới 13.33=. cho việc theo dõi ngữ pháp.Abstract
多任务学自训练,于训练有限之设机器学模性能之二常也。 大鉴二者,转导佐自练:(i)主、佐教数多任务模形,及(ii)有佐职者试之,此其单任务本先成也。 86言语、任事者博实验。 吾之所以然者,平均而言,孰与托于纯多任务,转导辅其自练者准确性9.56%也,而于语义者准确性13.03%也。- Anthology ID:
- D19-6128
- Volume:
- Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019)
- Month:
- November
- Year:
- 2019
- Address:
- Hong Kong, China
- Venues:
- EMNLP | WS
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 253–258
- Language:
- URL:
- https://aclanthology.org/D19-6128
- DOI:
- 10.18653/v1/D19-6128
- Bibkey:
- Cite (ACL):
- Johannes Bjerva, Katharina Kann, and Isabelle Augenstein. 2019. Transductive Auxiliary Task Self-Training for Neural Multi-Task Models. In Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), pages 253–258, Hong Kong, China. Association for Computational Linguistics.
- Cite (Informal):
- Transductive Auxiliary Task Self-Training for Neural Multi-Task Models (Bjerva et al., EMNLP 2019)
- Copy Citation:
- PDF:
- https://aclanthology.org/D19-6128.pdf
- Data
- Universal Dependencies
- Terminologies:
Export citation
@inproceedings{bjerva-etal-2019-transductive, title = "Transductive Auxiliary Task Self-Training for Neural Multi-Task Models", author = "Bjerva, Johannes and Kann, Katharina and Augenstein, Isabelle", booktitle = "Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019)", month = nov, year = "2019", address = "Hong Kong, China", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/D19-6128", doi = "10.18653/v1/D19-6128", pages = "253--258", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="bjerva-etal-2019-transductive"> <titleInfo> <title>Transductive Auxiliary Task Self-Training for Neural Multi-Task Models</title> </titleInfo> <name type="personal"> <namePart type="given">Johannes</namePart> <namePart type="family">Bjerva</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Katharina</namePart> <namePart type="family">Kann</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Isabelle</namePart> <namePart type="family">Augenstein</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2019-11</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019)</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Hong Kong, China</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">bjerva-etal-2019-transductive</identifier> <identifier type="doi">10.18653/v1/D19-6128</identifier> <location> <url>https://aclanthology.org/D19-6128</url> </location> <part> <date>2019-11</date> <extent unit="page"> <start>253</start> <end>258</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T Transductive Auxiliary Task Self-Training for Neural Multi-Task Models %A Bjerva, Johannes %A Kann, Katharina %A Augenstein, Isabelle %S Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019) %D 2019 %8 November %I Association for Computational Linguistics %C Hong Kong, China %F bjerva-etal-2019-transductive %R 10.18653/v1/D19-6128 %U https://aclanthology.org/D19-6128 %U https://doi.org/10.18653/v1/D19-6128 %P 253-258
Markdown (Informal)
[Transductive Auxiliary Task Self-Training for Neural Multi-Task Models](https://aclanthology.org/D19-6128) (Bjerva et al., EMNLP 2019)
- Transductive Auxiliary Task Self-Training for Neural Multi-Task Models (Bjerva et al., EMNLP 2019)
ACL
- Johannes Bjerva, Katharina Kann, and Isabelle Augenstein. 2019. Transductive Auxiliary Task Self-Training for Neural Multi-Task Models. In Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), pages 253–258, Hong Kong, China. Association for Computational Linguistics.