Augmenting Neural Networks with First-order Logic Name አውቶማቲክ تعزيز الشبكات العصبية بمنطق من الدرجة الأولى İlk sıralı lojik ilə nöral ağları artırmaq Увеличаване на неврални мрежи с логика от първи ред প্রথম- অর্ডার লোগিক দিয়ে নিউরাল নেটওয়ার্ক অ্যাগমেন্ট করা হচ্ছে དང་པོ་གོ་རིམ་གྱི་མིང་དྲ་བ་དང་མཉམ་དུ་བསྐྱེད་པའི་སྒེར་གྱི་རྒྱུ་དངོས Povećavanje neuronskih mreža sa logikom prvog reda augmentant les xarxes neuronals amb la lògica de primer ordre Rozšíření neuronových sítí s logikou prvního řádu Udvidelse af neurale netværk med førsteordens logik Erweiterung neuronaler Netzwerke mit Logik erster Ordnung Ενίσχυση νευρωνικών δικτύων με λογική πρώτης τάξεως Aumentar las redes neuronales con lógica de primer orden Neuraalsete võrkude suurendamine esimese astme loogikaga افزایش شبکههای عصبی با منطقی اولین دستور Hermoverkkojen lisääminen ensimmäisen asteen logiikalla Augmenter les réseaux de neurones avec la logique du premier ordre Líonraí Néaracha a Mhéadú le Loighic den Chéad Ordú Phonon:: MMF:: EffectFactory מגדל רשתות נוירוליות עם לוגיקה בסדר ראשון प्रथम-क्रम तर्क के साथ तंत्रिका नेटवर्क को बढ़ाना Povećavanje neuronskih mreža s logikom prvog reda Neurális hálózatok bővítése elsőrendű logikával Նյարդային ցանցերի աճը առաջին դասակարգով տրամաբանական Meningkatkan Rangkaian Neural dengan Logik Tahap Pertama Aumentare le reti neurali con logica di primo ordine 一次論理によるニューラルネットワークの増強 structural navigation Name Бірінші реттік логикалық түрде нейрондық желілерді көтеру 1 단계 논리로 신경 네트워크를 확충하다 Neuralinių tinklų stiprinimas pirmosios eilės logistika Name ആദ്യ- ഓര്ഡര് ലോഗിക്കുമായി നെയുറല് നെറ്റ്വര്ക്കുകള് ഓഗ്മെന്റ് ചെയ്യുന്നു Эхний дараагийн логикийн мэдрэлийн сүлжээг нэмэгдүүлж Meningkatkan Rangkaian Neural dengan Logik Aras Pertama Żieda fin-Netwerks Newrali b’Loġika tal-Ewwel Ordni Neuronale netwerken uitbreiden met eersteklas logica Augmentar nøyrale nettverk med førstrekkefølgje logikk Rozszerzenie sieci neuronowych z logiką pierwszego rzędu Aumentando Redes Neurais com Lógica de Primeira Ordem Creșterea rețelelor neurale cu logică de prim ordin Расширение нейронных сетей с помощью логики первого порядка මුලින් ක්රමය ලෝජික් එක්ක ප්රමාණය නිර්මාණ ජාලය Povečanje živčnih omrežij z logiko prvega reda Ogeysiinta shabakadda Neural with First Order Logic Rritja e rrjeteve neuronale me logjikën e rendit të parë Povećavanje neuronskih mreža sa logikom prvog reda Förstärkning av neurala nätverk med första ordningens logik Tovuti za Neural zinazohusu Neural Logic முதல்- வரிசைப்படுத்தப்பட்ட நெயுரல் வலைப்பின்னல்களை குறிப்பிடுகிறது Birinci sıradan Mantık ile Ağmentasyon Nöral Ağları نئورل نیٹورک کو پہلی اوردر لوجیک کے ساتھ اگنٹ کیا جاتا ہے Name Tăng các mạng thần kinh với hệ logic thứ nhất 以一阶逻辑增神经网络
Abstract
Today, the dominant paradigm for training neural networks involves minimizing task loss on a large dataset. Using world knowledge to inform a model, and yet retain the ability to perform end-to-end training remains an open question. In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. Our framework systematically compiles logical statements into computation graphs that augment a neural network without extra learnable parameters or manual redesign. We evaluate our modeling strategy on three tasks : machine comprehension, natural language inference, and text chunking. Our experiments show that knowledge-augmented networks can strongly improve over baselines, especially in low-data regimes.Abstract
Vandag, die dominante paradigme vir die onderwerp van neuralnetwerke involvert die minimalisering van taak verlies op 'n groot datastel. Gebruik van wêreld kennis om 'n model te kennis, en tog hou die moontlik om einde-tot-einde onderwerking te doen, bly 'n oopgemaakte vraag. In hierdie papier stel ons 'n nuwe raamwerk voor te introduseer verklaratiewe kennis aan neurale netwerk-arkitektuure om onderwerp en voorskou te lei. Ons raamwerk sistematies kompileer logiese opdragte in rekenaar grafieke wat 'n neuralnetwerk vermeerder sonder ekstra leerbare parameters of hand herstel. Ons evalueer ons modeling strategie op drie taak: masjien verstaan, natuurlike taal inferensie en teksblokking. Ons eksperimente wys dat kennis-vergroot netwerke sterk kan verbeter oor basilyne, veral in lae data rejime.Abstract
ዛሬ፣ የናውሬል መረብ ማጠቃለያ የሥልጣን ተቃውሞ በታላቁ ዳታ ሳጥን የሚያጎድል ነው፡፡ ምሳሌን ለማሳወቅ የዓለምን እውቀት በመጠቀም፣ ነገር ግን መጨረሻ ለመጨረሻ ማስተማርን መግለጫ መቆጣጠር የሚችል ጥያቄ የተከፈተ ነው፡፡ በዚህ ፕሮግራም፣ የጠቅላላ እውቀትን ለመግለጽ እና ማስተማርንና ትንቢት ለመመራት የኔትራዊ መረብ አካውንቶችን ለመግለጥ የዘላለም አዋጅ ፍሬማር እናቀርባታለን፡፡ የፍሬማክቶቻችን በተስማማሚ የሎጂ ቃላትን ለቁጥጥር ቀለሞች እንዲያስጨምር እና በተጨማሪው ተርሚናል ባይታወቂው ማረፊያ ወይም በዕቅድ አካባቢ እንደማድረግ ይጠቅማል፡፡ በሦስት ስራ ላይ የምናስተምር ተቃውሞችንን እናሳውቃለን: መሳሪያን ጉዳይ፣ የፍጥረቱ ቋንቋ ጉዳይ እና የጽሑፍ ጉዳይ፡፡ Our experiments show that knowledge-augmented networks can strongly improve over baselines, especially in low-data regimes.Abstract
اليوم ، يتضمن النموذج السائد لتدريب الشبكات العصبية تقليل فقدان المهام على مجموعة بيانات كبيرة. يظل استخدام المعرفة العالمية لإبلاغ نموذج ما ، مع الاحتفاظ بالقدرة على أداء التدريب الشامل ، سؤالًا مفتوحًا. في هذه الورقة ، نقدم إطارًا جديدًا لإدخال المعرفة التصريحية إلى بنى الشبكات العصبية من أجل توجيه التدريب والتنبؤ. يقوم إطار العمل الخاص بنا بتجميع البيانات المنطقية بشكل منهجي في الرسوم البيانية الحسابية التي تزيد من الشبكة العصبية دون معلمات إضافية قابلة للتعلم أو إعادة تصميم يدوي. نقوم بتقييم إستراتيجية النمذجة الخاصة بنا على ثلاث مهام: فهم الآلة ، واستدلال اللغة الطبيعية ، وتقسيم النص. تُظهر تجاربنا أن الشبكات المعززة بالمعرفة يمكن أن تتحسن بشكل كبير عبر خطوط الأساس ، لا سيما في الأنظمة منخفضة البيانات.Abstract
Bu gün, nöral a ğları təhsil etmək üçün dominant paradigm böyük verilən qurbanlarda işlərin zərərini azaltmağa məcbur edir. Dünya elmi ilə modeli xəbər vermək üçün istifadə etmək, amma sona qədər təhsil etmək bacarılığını saxlamaq a çıq bir soruşdur. Bu kağıtda, təhsil və tədbir göstərmək üçün nəyral a ğ arhitektarlarına bildirmək üçün yeni bir qurğu göstəririk. Bizim sistematik sistematik sistematik lojik ifadələri hesablama grafiklərinə birləşdirir ki, artıq öyrənə bilən parametrlər və əlli təkrarlama olmadan nöral şəbəkəsini artırar. Biz modellik stratejimizi üç iş haqqında değerləşdiririk: maşına anlama, doğal dil aşağılığı və mətn çəkməsi. Bizim təcrübələrimiz bilgi artırılmış şəklilərimiz baz çətinlərindən, özellikle də zəif verilən rejimlərdə çox yaxşılaşdırır.Abstract
Днес доминиращата парадигма за обучение на невронни мрежи включва минимизиране на загубата на задачи върху голям набор от данни. Използването на световните знания за информиране на модела и все пак запазване на способността за извършване на обучение от край до край остава отворен въпрос. В настоящата статия представяме нова рамка за въвеждане на декларативни знания в архитектурите на невронните мрежи с цел насочване на обучението и прогнозирането. Нашата рамка систематично компилира логически изявления в изчислителни графики, които увеличават невронната мрежа без допълнителни усвояеми параметри или ръчно преработване. Ние оценяваме нашата стратегия за моделиране на три задачи: машинно разбиране, извод на естествен език и разделяне на текста. Нашите експерименти показват, че разширените знания мрежи могат силно да се подобрят над базовите линии, особено при режими с ниски данни.Abstract
আজকে, নিউরেল নেটওয়ার্ক প্রশিক্ষণের জন্য প্রধান প্যারাডিভিডিমেন্ট বিশাল ডাটাসেটে কাজের ক্ষতি কমিয়ে দে একটি মডেল জানানোর জন্য বিশ্বের জ্ঞান ব্যবহার করে কিন্তু শেষ পর্যন্ত প্রশিক্ষণের ক্ষমতা শেষ করার ক্ষমতা থাকার ক্ষ In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. আমাদের ফ্রেমের কাঠামো স্বাভাবিকভাবে বৈশিষ্ট্যিক বিবৃতি গণনার গ্রাফে সংগ্রহ করেছে যা এক নিউরেল নেটওয়ার্ক যোগ করে যায়, যা অতির আমরা তিন কাজের উপর আমাদের মডেলিং কৌশলের মূল্যায়ন করি: মেশিন সম্পূর্ণ, প্রাকৃতিক ভাষার অসুস্থ এবং টেক্সট চাঙ্কিং আমাদের পরীক্ষাগুলো দেখাচ্ছে যে জ্ঞান-বৃদ্ধির নেটওয়ার্ক বেসেলাইনের উপর শক্তিশালী উন্নতি পাবে, বিশেষ করে নিম্ন তAbstract
དེ་རིང་དབུས་མཐུད་དྲ་རྒྱ་ལྟ་བུའི་གྲོང་ཁྱེར་གྱི་སྔོན་ཤུགས་ཕྱུར་བ་དེ་ནི་གནས་སྡུད་ཆེན་པོ་ཞིག་ཏུ་ལས་འགན་ འཛམ་གླིང་གི་གནས་ཚུལ་འདི་བེད་སྤྱད་ནས་མིག འུ་ཅག་གིས་ཤོག་བུ་འདིའི་ནང་དུ་གསར་གཏོད་གཞུང་ཞིག་སྟོན་པ་ལས་སྦྲེལ་མཐུད་དྲ་བཟོ་དང་མཉམ་དུ་གཏོང་རྩིས་གཏོང་དང་ས Our framework systematically compiles logical statements into computation graphs that augment a neural network without extra learnable parameters or manual redesign. ང་ཚོའི་རྣམ་པ་དབྱེ་རིམ་གྱི་ཐབས་ལམ་ལ་གནད་དོན་མཁན་གསུམ་ཡོད་པའི་ལྟ་བུ་རྩོལ་ཞིབ་བྱེད་ཀྱི་ཡོད། ང་ཚོའི་བརྟག་ཞིག་གིས་མཐོང་འབྲེལ་ཆེ་ཤོས་ཡར་རྒྱས་འགྲོ་བ་ཡོད་པའི་དྲ་རྒྱ་ནི་རྨས་གཞི་གཞི་རྟེན་ནས་མཐོང་དང་། ཁྱདAbstract
Danas, dominantna paradigm a za obuku neuronskih mreža uključuje minimalizaciju gubitka zadataka na velikom setu podataka. Koristeći svetsko znanje za obavijestiti model, a ipak zadržati sposobnost obavljanja treninga do kraja ostaje otvoreno pitanje. U ovom papiru predstavljamo novi okvir za predstavljanje deklarativnih znanja u arhitekture neuralne mreže kako bi vodili obuku i predviđanje. Naš okvir sistematski sastavlja logičke izjave u računalne grafike koje povećava neuralnu mrežu bez dodatnih učenih parametara ili ručnog preobrazovanja. Procjenjujemo našu strategiju modeliranja na tri zadatka: razumijevanje mašine, infekcija prirodnog jezika i razmjerenje teksta. Naši eksperimenti pokazuju da povećana mreža znanja može jače poboljšati preko početnih linija, posebno u nizim podacima.Abstract
Avui dia, el paradigm a dominant per formar xarxes neurals implica minimitzar la pèrdua de tasques en un gran conjunt de dades. Utilitzar el coneixement mundial per informar un model, i tot i així mantenir l'habilitat de fer entrenament de final a final, encara és una pregunta oberta. In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. El nostre marc compila sistemàticament declaracions lògiques en gràfics de computació que augmenten una xarxa neuronal sense paràmetres adicionals aprensibles o redesenyament manual. Evaluam la nostra estratègia de modelació en tres tasques: comprensió de la màquina, inferència natural del llenguatge i tros de text. Our experiments show that knowledge-augmented networks can strongly improve over baselines, especially in low-data regimes.Abstract
Dnes dominantním paradigmatem pro trénink neuronových sítí je minimalizace ztráty úkolů na velké množině dat. Otázkou zůstává využití světových znalostí k informování modelu a přesto zachování schopnosti provádět komplexní školení. V tomto článku představujeme nový rámec pro zavedení deklarativních znalostí do architektur neuronových sítí s cílem řídit trénink a predikci. Náš framework systematicky sestavuje logické příkazy do výpočetních grafů, které rozšiřují neuronovou síť bez dalších naučitelných parametrů nebo manuálního redesignu. Naši modelovací strategii hodnotíme na třech úlohách: strojové porozumění, inference přirozeného jazyka a fragmentování textu. Naše experimenty ukazují, že znalostně rozšířené sítě se mohou výrazně zlepšit nad základními liniemi, zejména v režimech s nízkými daty.Abstract
I dag indebærer det dominerende paradigme for træning af neurale netværk at minimere opgavetab på et stort datasæt. At bruge verdensviden til at informere en model, og alligevel bevare evnen til at udføre end-to-end træning er stadig et åbent spørgsmål. I denne artikel præsenterer vi en ny ramme for introduktion af deklarativ viden til neurale netværksarkitekturer for at vejlede træning og forudsigelse. Vores ramme samler systematisk logiske udsagn til beregningsgrafer, der øger et neuralt netværk uden ekstra lærbare parametre eller manuel redesign. Vi evaluerer vores modelleringsstrategi på tre opgaver: maskinforståelse, naturlig sproginferens og tekstchunking. Vores eksperimenter viser, at vidensforstørrede netværk kan forbedres stærkt i forhold til basislinjerne, især i lavdataregimer.Abstract
Heute besteht das vorherrschende Paradigma für das Training neuronaler Netzwerke darin, Aufgabenverluste auf einem großen Datensatz zu minimieren. Weltweites Wissen zu nutzen, um ein Modell zu informieren und dennoch die Fähigkeit zu bewahren, End-to-End-Schulungen durchzuführen, bleibt eine offene Frage. In diesem Beitrag stellen wir ein neuartiges Framework vor, um deklaratives Wissen in neuronale Netzwerkarchitekturen einzuführen, um Training und Vorhersage zu leiten. Unser Framework kompiliert systematisch logische Aussagen in Rechengraphen, die ein neuronales Netzwerk ohne zusätzliche erlernbare Parameter oder manuelle Neugestaltung erweitern. Wir evaluieren unsere Modellierungsstrategie anhand von drei Aufgaben: maschinelles Verständnis, natürliche Sprache Inferenz und Text Chunking. Unsere Experimente zeigen, dass wissenserweiterte Netzwerke sich über Basislinien stark verbessern können, insbesondere in datenarmen Regimen.Abstract
Σήμερα, το κυρίαρχο παράδειγμα για την εκπαίδευση νευρωνικών δικτύων περιλαμβάνει την ελαχιστοποίηση της απώλειας εργασιών σε ένα μεγάλο σύνολο δεδομένων. Η χρησιμοποίηση της παγκόσμιας γνώσης για να ενημερώσει ένα μοντέλο, και ωστόσο να διατηρήσει την ικανότητα να εκτελεί εξ ολοκλήρου εκπαίδευση παραμένει ένα ανοικτό ερώτημα. Στην παρούσα εργασία, παρουσιάζουμε ένα νέο πλαίσιο για την εισαγωγή της δηλωτικής γνώσης στις αρχιτεκτονικές νευρωνικών δικτύων με σκοπό την καθοδήγηση της εκπαίδευσης και της πρόβλεψης. Το πλαίσιο μας συγκεντρώνει συστηματικά λογικές δηλώσεις σε γραφήματα υπολογισμού που ενισχύουν ένα νευρωνικό δίκτυο χωρίς επιπλέον μαθησιακές παραμέτρους ή χειροκίνητο επανασχεδιασμό. Αξιολογούμε τη στρατηγική μοντελοποίησης σε τρεις εργασίες: κατανόηση μηχανών, συμπέρασμα φυσικής γλώσσας και απόσπαση κειμένου. Τα πειράματά μας δείχνουν ότι τα δίκτυα εμπλουτισμένης γνώσης μπορούν να βελτιωθούν σημαντικά σε σχέση με τις γραμμές βάσης, ειδικά σε συστήματα χαμηλής περιεκτικότητας δεδομένων.Abstract
Hoy en día, el paradigma dominante para el entrenamiento de redes neuronales implica minimizar la pérdida de tareas en un gran conjunto de datos. El uso del conocimiento mundial para informar un modelo y, sin embargo, conservar la capacidad de realizar una capacitación de principio a fin sigue siendo una cuestión abierta. En este artículo, presentamos un marco novedoso para introducir el conocimiento declarativo en las arquitecturas de redes neuronales con el fin de guiar el entrenamiento y la predicción. Nuestro marco compila sistemáticamente declaraciones lógicas en gráficos de cálculo que aumentan una red neuronal sin parámetros adicionales que se puedan aprender ni rediseñar manualmente. Evaluamos nuestra estrategia de modelado en tres tareas: comprensión automática, inferencia de lenguaje natural y fragmentación de texto. Nuestros experimentos muestran que las redes con conocimiento aumentado pueden mejorar considerablemente por encima de las líneas de base, especialmente en los regímenes de datos bajos.Abstract
Tänapäeval hõlmab neurovõrkude koolitamise domineeriv paradigma suure andmekogumi ülesannete kaotuse minimeerimist. Maailma teadmiste kasutamine mudeli teavitamiseks ja siiski suutlikkuse säilitamine läbi viia täielikku koolitust jääb lahtiseks küsimuseks. Käesolevas töös tutvustame uudset raamistikku deklaratiivsete teadmiste tutvustamiseks neurovõrgu arhitektuurides, et juhtida koolitust ja prognoosi. Meie raamistik kompileerib süstemaatiliselt loogilisi lauseid arvutusgraafikuteks, mis täiendavad neurovõrku ilma täiendavate õppitavate parameetriteta või käsitsi ümberkujundamiseta. Hindame oma modelleerimisstrateegiat kolmel ülesandel: masinateadmine, looduskeele järeldus ja teksti tükkimine. Meie eksperimendid näitavad, et teadmistega täiendatud võrgustikud võivad tugevalt paraneda võrreldes lähtejoontega, eriti madala andmebaasiga režiimides.Abstract
امروز، پارادیگ پادشاهی برای آموزش شبکه های عصبی شامل کاهش کردن کار در یک مجموعه اطلاعات بزرگ است. استفاده از دانش جهانی برای اطلاعات یک مدل، و هنوز توانایی انجام آموزش پایان و پایان را نگه دارد، سوال باز است. در این کاغذ، ما یک چهارچوب نویسی برای معرفی دانش اعلام به معماری شبکه عصبی برای هدایت آموزش و پیش بینی ارائه می کنیم. چهارچوب ما به سیستماتیک اعلام منطقی را در گرافهای محاسبات جمع میکند که شبکه عصبی را بدون پارامترهای بیشتری یاد میگیرد یا بازسازی دستی افزایش میدهد. ما استراتژی مدلسازی خود را بر سه کار ارزیابی میکنیم: درک ماشین، آلودگی زبان طبیعی و قطعه متنسازی. آزمایش های ما نشان می دهند که شبکه های زیادی از دانشها میتوانند بر خطهای پایین، مخصوصا در روشهای دادههای کم بهتر شود.Abstract
Nykyään hallitseva paradigma neuroverkkojen kouluttamisessa on minimoida tehtävien menetys suuressa tietoaineistossa. Maailmantuntemuksen hyödyntäminen malliin ja silti kyky suorittaa kokonaisvaltaista koulutusta on edelleen avoin kysymys. Tässä artikkelissa esitellään uusi viitekehys deklaratiivisen tiedon tuomiseksi neuroverkkoarkkitehtuuriin koulutuksen ja ennustuksen ohjaamiseksi. Kehyksemme kokoaa systemaattisesti loogisia lauseita laskentakaavioiksi, jotka lisäävät neuroverkkoa ilman ylimääräisiä opittavia parametreja tai manuaalista uudelleensuunnittelua. Arvioimme mallinnustrategiaamme kolmella tehtävällä: koneymmärtäminen, luonnollisen kielen päättely ja tekstin kokoaminen. Kokeemme osoittavat, että tietopohjaiset verkot voivat kehittyä merkittävästi perusviivoissa, erityisesti matalan datan järjestelmissä.Abstract
Aujourd'hui, le paradigme dominant pour l'entraînement des réseaux de neurones consiste à minimiser les pertes de tâches sur un ensemble de données volumineux. L'utilisation de la connaissance du monde pour éclairer un modèle tout en conservant la capacité d'effectuer une formation de bout en bout reste une question ouverte. Dans cet article, nous présentons un nouveau cadre pour introduire des connaissances déclaratives dans les architectures de réseaux neuronaux afin de guider la formation et la prédiction. Notre framework compile systématiquement les instructions logiques dans des graphes de calcul qui augmentent un réseau de neurones sans paramètres supplémentaires apprenant ni refonte manuelle. Nous évaluons notre stratégie de modélisation en fonction de trois tâches : la compréhension automatique, l'inférence en langage naturel et le découpage de texte. Nos expériences montrent que les réseaux augmentés par les connaissances peuvent fortement s'améliorer par rapport aux niveaux de référence, en particulier dans les régimes à faible volume de données.Abstract
Sa lá atá inniu ann, is éard atá i gceist leis an bparadigm ceannasach maidir le hoiliúint a chur ar líonraí neural ná íoslaghdú a dhéanamh ar chaillteanas tascanna ar thacar sonraí mór. Is ceist oscailte í eolas an domhain a úsáid chun múnla a chur ar an eolas, ach fós an cumas a choinneáil chun oiliúint ó cheann go ceann a dhéanamh. Sa pháipéar seo, cuirimid creat nua i láthair chun eolas dearbhaithe a thabhairt isteach ar ailtireachtaí líonraí néaracha chun oiliúint agus tuar a threorú. Déanann ár gcreat ráitis loighciúla a thiomsú go córasach i ngraif ríomha a mhéadaíonn líonra néarúil gan paraiméadair bhreise infhoghlama nó athdhearadh láimhe. Déanaimid ár straitéis samhaltaithe a mheas ar thrí thasc: tuiscint meaisín, tátal nádúrtha teanga, agus smután téacs. Léiríonn ár dturgnaimh gur féidir feabhas mór a chur ar líonraí breisithe eolais thar bhunlínte, go háirithe i réimis sonraí íseal.Abstract
A yau, paradigm mai domin wa wa wa'adin zanen neural na aikin su ƙara hasara a kan wani tsarin da aka girma. Yi amfani da kunnuwa na dũniya dõmin ya gaya wani misali, kuma sai ka riƙe awon ya cika ma'anar ta ƙarami yana da wata tambayi bayyananne. Ga wannan takardan, Munã halatar da wani firam na nowaya dõmin ka introduce kunyar da kunnuwa zuwa bakin tarakiki na neura don ya shirya wa tsarin da kuma ka yi gargaɗi. Kirin firam zai ƙiƙiro statements na lojiki cikin graphogi na ƙidãya, wanda za'a ƙara wata shirin neural wanda ba za'a iya amfani da shi ba ko da tsarin da ake iya yin amfani da manuni. Tuna ƙaddara tashin misalinmu a kan aikin uku: makaranti na mashine, kasa cikin harshen asili, da bakin kashi. Kayan jarrabõnmu sun nũna cewa, zane-zane-da ke ƙara zane-zane, za'a iya ƙari mafi girma a kan bincike, haske cikin mutane na ƙari-data.Abstract
היום, הפרדיגמה הדומיננטית לאימון רשתות עצביות כוללת להפחית אובדן משימה על קבוצת נתונים גדולה. להשתמש בידע עולמי כדי להודיע מודל, ובכל זאת לשמור על היכולת לבצע אימון סוף-סוף נשארת שאלה פתוחה. בעיתון הזה, אנו מציגים מסגרת חדשה להציג ידע מוכר לארכיטקטורות רשת עצבית כדי להדריך אימון וחזוי. המסגרת שלנו אוספת באופן שיטתי הצהרות הגיוניות לגרפים מחשבים שמגבירים רשת עצבית ללא פרמטרים נוספים ללמוד או עיצוב מחדש ידני. אנחנו מעריכים את אסטרטגיה הדוגמנית שלנו על שלושה משימות: הבנה מכונת, תוצאה שפה טבעית, וחתיכת טקסט. הניסויים שלנו מראים שרשתות מוגבות בידע יכולות להשתפר באופן חזק מעל קווי הבסיס, במיוחד במשטרות נתונים נמוכים.Abstract
आज, प्रशिक्षण तंत्रिका नेटवर्क के लिए प्रमुख प्रतिमान में एक बड़े डेटासेट पर कार्य हानि को कम करना शामिल है। एक मॉडल को सूचित करने के लिए विश्व ज्ञान का उपयोग करना, और फिर भी एंड-टू-एंड प्रशिक्षण करने की क्षमता को बनाए रखना एक खुला सवाल बना हुआ है। इस पेपर में, हम प्रशिक्षण और भविष्यवाणी का मार्गदर्शन करने के लिए तंत्रिका नेटवर्क आर्किटेक्चर के लिए घोषणात्मक ज्ञान पेश करने के लिए एक उपन्यास ढांचा प्रस्तुत करते हैं। हमारा ढांचा व्यवस्थित रूप से गणना रेखांकन में तार्किक बयानों को संकलित करता है जो अतिरिक्त सीखने योग्य मापदंडों या मैनुअल रीडिज़ाइन के बिना एक तंत्रिका नेटवर्क को बढ़ाते हैं। हम तीन कार्यों पर अपनी मॉडलिंग रणनीति का मूल्यांकन करते हैं: मशीन समझ, प्राकृतिक भाषा अनुमान, और पाठ चंकिंग। हमारे प्रयोगों से पता चलता है कि ज्ञान-संवर्धित नेटवर्क बेसलाइन पर दृढ़ता से सुधार कर सकते हैं, खासकर कम-डेटा शासनों में।Abstract
Danas je dominantna paradigm a za obuku neuronskih mreža uključivala minimizaciju gubitka zadataka na velikoj podaci. Koristeći svjetski znanje za obavijestiti model, a ipak zadržati sposobnost obavljanja treninga kraja do kraja ostaje otvoreno pitanje. U ovom papiru predstavljamo novi okvir za uvođenje deklarativnih znanja arhitekturi neuralne mreže kako bi vodili obuku i predviđanje. Naš okvir sistematski sastavlja logičke izjave u računalne grafike koje povećavaju neuralnu mrežu bez dodatnih učenih parametara ili ručnog preobrazovanja. Procjenjujemo našu strategiju modeliranja na tri zadatka: razumijevanje strojeva, infekcija prirodnog jezika i razmjerenje teksta. Naši eksperimenti pokazuju da povećane mreže znanja mogu jače poboljšati preko početnih linija, posebno u nizim podacima.Abstract
Napjainkban az ideghálózatok kiképzésének domináns paradigmája magában foglalja a feladatveszteség minimalizálását egy nagy adatkészleten. A világ tudásának felhasználása egy modell tájékoztatására, és mégis megőrzi a végpontos képzések végrehajtásának képességét, nyitott kérdés marad. Ebben a tanulmányban bemutatjuk egy új keretrendszert, amely a neurális hálózati architektúrákba történő deklaratív ismeretek bevezetésére irányul a képzés és a predikció irányítása érdekében. Keretrendszerünk szisztematikusan összeállítja a logikai utasításokat számítási grafikonokba, amelyek további tanulható paraméterek vagy manuális újratervezés nélkül bővítik az ideghálózatot. Modellezési stratégiánkat három feladat alapján értékeljük: gépi megértés, természetes nyelvi következtetés és szövegdarabolás. Kísérleteink azt mutatják, hogy a tudásbővített hálózatok erőteljesen javulhatnak az alapvető értékekhez képest, különösen az alacsony adatszintű rendszerekben.Abstract
Այսօր, նյարդային ցանցերի ուսումնասիրության գերիշխող պարադիգմանը ներառում է նվազեցնել խնդիրների կորստը մեծ տվյալների համակարգում: Աշխարհային գիտելիքների օգտագործումը մոդելի տեղեկացնելու համար, բայց միևնույն ժամանակ վերջ-վերջ ուսուցման ունակությունը պահպանելը դեռևս բաց հարց է: Այս թղթի մեջ մենք ներկայացնում ենք նոր հիմք, որպեսզի ներկայացնենք հայտարարական գիտելիքներ նեյրոնային ցանցի ճարտարապետություններին, որպեսզի ուղղություն ունենանք ուսուցման և կանխատեսման համար: Մեր շրջանակը սիստեմատիկ կերպով համակարգչային գրաֆիկներում հավաքում է տրամաբանական հայտարարություններ, որոնք բարձրացնում են նյարդային ցանցը առանց ավելին սովորելի պարամետրերի կամ ձեռքի վերաձևափոխման: We evaluate our modeling strategy on three tasks: machine comprehension, natural language inference, and text chunking. Մեր փորձարկումները ցույց են տալիս, որ գիտելիքով բարձրացված ցանցերը կարող են ուժեղ բարելավվել հիմնական գծերի մեջ, հատկապես ցածր տվյալների ռեժիմներում:Abstract
Hari ini, paradigm a dominan untuk melatih jaringan saraf melibatkan minimalisasi kehilangan tugas pada set data besar. Menggunakan pengetahuan dunia untuk memberitahu model, namun tetap memiliki kemampuan untuk melakukan latihan akhir-akhir tetap pertanyaan terbuka. Dalam kertas ini, kami mempersembahkan cadangan baru untuk memperkenalkan pengetahuan deklaratif kepada arsitektur jaringan saraf untuk memimpin pelatihan dan prediksi. Framework kita secara sistematis mengumpulkan pernyataan logis ke grafik komputasi yang meningkatkan jaringan saraf tanpa parameter yang dapat dipelajari ekstra atau redesign manual. Kami mengevaluasi strategi model kami pada tiga tugas: pemahaman mesin, kesimpulan bahasa alami, dan potongan teks. Eksperimen kami menunjukkan bahwa jaringan yang meningkat pengetahuan dapat meningkat dengan kuat melalui garis dasar, terutama dalam resim data rendah.Abstract
Oggi, il paradigma dominante per la formazione delle reti neurali consiste nel ridurre al minimo la perdita di attività su un set di dati di grandi dimensioni. Utilizzare la conoscenza mondiale per informare un modello, pur mantenendo la capacità di eseguire una formazione end-to-end rimane una questione aperta. In questo articolo, presentiamo un nuovo framework per introdurre conoscenze dichiarative alle architetture di rete neurale al fine di guidare la formazione e la previsione. Il nostro framework compila sistematicamente dichiarazioni logiche in grafici di calcolo che aumentano una rete neurale senza parametri aggiuntivi imparabili o riprogettazione manuale. Valutiamo la nostra strategia di modellazione su tre compiti: comprensione automatica, inferenza del linguaggio naturale e chunking del testo. I nostri esperimenti dimostrano che le reti potenziate dalla conoscenza possono migliorare notevolmente rispetto alle linee di base, soprattutto nei regimi a basso contenuto di dati.Abstract
今日、ニューラルネットワークをトレーニングするための支配的なパラダイムは、大規模なデータセット上のタスクロスを最小限に抑えることを含む。世界の知識を使用してモデルに情報を提供しながら、エンドツーエンドのトレーニングを実施する能力を保持することは、未解決の質問です。本稿では,訓練と予測を導くために,ニューラルネットワークアーキテクチャに宣言的知識を導入するための新たな枠組みを提示する.私たちのフレームワークは、余分な学習可能なパラメータや手動での再設計なしに、ニューラルネットワークを拡張する計算グラフに論理的ステートメントを体系的にコンパイルします。私たちは、機械理解、自然言語推論、テキストチャンキングの3つのタスクに基づいてモデリング戦略を評価します。私たちの実験は、知識拡張されたネットワークが、特に低データの制度において、ベースラインを超えて強力に改善することができることを示しています。Abstract
Saiki, nggambar uwong kuwi wis ana, dadi kapan kuwi tambah kuwi tambah kuwi nggawe nguasai perkoro sing nyimpen kuwi nggawe dataset. Ngawe ngubah berkas ning dunya kanggo ngerasai model, dadi wis ngerasai kapan kanggo ngubah mulai terusani layang kanggo gabung. Nanging kuwi iki, awak dhéwé ngewehi sistem kanggo nyenggawe akeh luwih dumadhi karo architecture netwark alam kanggo nggawe aturan karo pawaran. System Awak dhéwé nggunakake model sing dikarepaké awak dhéwé: sistem luwih-luwih, basa luwih basa lan ijol-ijolan teks. Awak dhéwé éntuk éntuk sing larang-awak kuwi tambah sing bisa luwih nggawe barang maning, ngomong nik kuwi tambah kuwi wis ambang.Abstract
დღეს დომინტური პარადიგმა ნეიროლური ქსელების განაკლებისთვის მინუსიზება სამუშაო დაკავშირება დიდი მონაცემების კონფიგურაციაში. მსოფლიოს მეცნიერების გამოყენება მოდელს ინფორმაციისთვის, და მაგრამ შესაძლებლობა დასრულების შესაძლებლობა დასრულების შესაძლებლობა დასრულების განაკლება ამ დომენტში ჩვენ ახალგაზრდებით პრომენტის ფრამეტრი, რომელიც ახალგაზრდებით ნეიროლური ქსელის აქტიქტიქტიქტურების განვითარებისთვის განახლებელი ცო ჩვენი პარამეტრები სისტემატიკურად ლოგიკური გამოსახულებების კომპუტაციის გრაფიკაში შექმნა, რომელიც ნეიროლური ქსელის გაზრუქმება ექსტრამეტრები დასწავლა ჩვენ მისი მოდელური სტრატიგია სამი დავალების განსაზღვრებით: მაქსინის გაგრძნობა, მისი ენერგიის ინფრენცია და ტექსტის გახსნა. ჩვენი ექსპერიმენტები აჩვენებს, რომ ცნობიერების აზრუმენტირებული ქსელები ძალიან შეუძლიათ გაუქმნელოთ ბაზის ხაზების, განსაკუთრებით მაღალAbstract
Бүгін невралдық желілерді оқыту үшін доминирантты парадигма үлкен деректер жиынында тапсырмаларды жоғалуға мүмкіндік береді. Әлемдік білімдерді үлгілеу үшін қолданып, бірақ соңғы соңғы оқыту мүмкіндігін сақтау мүмкіндігі ашық сұрақ болады. Бұл қағазда, біз невралдық желінің архитектураларына мәліметті келтіру үшін, оқыту және бақылау үшін романдық фреймін таңдаймыз. Біздің қосымша оқылмайтын параметрлері не қолмен қайта сақталмайтын неврал желін есептеу графиктеріне логикалық мәліметтерді жүйелік түрде компиляциялады. Біз үш тапсырма үшін модель стратегиямызды бағалаймыз: машинаның түсініктері, табиғи тілдері және мәтін түсініктері. Біздің тәжірибеміз білім көтерілген желілер негізгі жолдардан, осылай қатар төмен деректер режимінде жақсы жасай алады.Abstract
현재 훈련 신경 네트워크의 주요 모델은 대형 데이터 집합에서 임무 손실을 최소화하는 데 관련된다.세계 지식을 이용하여 모델에 정보를 제공하고 종합적인 교육을 유지하는 능력은 여전히 현안으로 남아 있다.본고에서 우리는 진술적 지식을 신경 네트워크 구조에 도입하여 훈련과 예측을 지도하는 새로운 틀을 제시했다.우리의 프레임워크는 신경 네트워크를 강화하기 위해 논리 문장을 계산도로 체계적으로 컴파일하여 별도의 학습 가능한 매개 변수나 수동으로 재설계할 필요가 없다.우리는 세 가지 임무에서 우리의 모델링 전략인 기계 이해, 자연 언어 추리와 텍스트 블록을 평가했다.우리의 실험은 지식 증강 네트워크가 특히 낮은 데이터 영역에서 기선을 크게 높일 수 있음을 보여 주었다.Abstract
Šiandien pagrindinis neuralinių tinklų mokymo paradigmas – sumažinti užduočių praradimą dideliame duomenų rinkinyje. Naudojant pasaulines žinias modeliui informuoti ir vis dėlto išlaikant gebėjimą vykdyti mokymą nuo pabaigos lieka atviras klausimas. Šiame dokumente pristatome naują sistemą, pagal kurią neuralinių tinklų architektūroms būtų galima įdiegti deklaracines žinias, kad būtų galima vadovauti mokymui ir prognozei. Mūsų sistema sistemingai renka logiškus pareiškimus į skaičiavimo grafikus, kurie didina nervų tinklą be papildomų mokomųjų parametrų ar rankiniu pertvarkymu. Vertiname modeliavimo strategiją trimis uždaviniais: mašinų supratimu, natūralia kalbų išvada ir teksto dalijimu. Mūsų eksperimentai rodo, kad žiniomis pagrįsti tinklai gali gerokai pagerinti bazines linijas, ypač mažai duomenų turinčiuose režimuose.Abstract
Денес, доминантниот парадигм за обука на невровните мрежи вклучува минимизирање на загубата на задачите на голем податок. Using world knowledge to inform a model, and yet retain the ability to perform end-to-end training remains an open question. Во овој весник, претставуваме нова рамка за воведување декларативно знаење на архитектурите на нервната мрежа со цел да го водиме обуката и предвидувањето. Нашата рамка систематски компилира логични изјави во компјутерски графики кои ја зголемуваат нервната мрежа без дополнителни научливи параметри или рачно предизајнирање. Ја проценуваме нашата стратегија за моделирање на три задачи: машинско разбирање, природна инференција на јазикот и делење на текст. Нашите експерименти покажуваат дека мрежите зголемени со знаење можат силно да се подобрат во однос на основните линии, особено во режимите со ниски податоци.Abstract
ഇന്ന്, ന്യൂറല് നെറൂറല് നെറ്റോവര്ക്കുകള് പരിശീലിപ്പിക്കുന്ന പ്രധാനപ്പെട്ട പരിശീലനത്തിന്റെ പ്രധാന ഒരു മാതൃകയെ അറിയിക്കാന് ലോകത്തിന്റെ അറിവ് ഉപയോഗിക്കുന്നു, എന്നിട്ടും അവസാന പരിശീലനം പ്രവര്ത്തിപ്പിക്കാനു ഈ പത്രത്തില്, പരിശീലനത്തിനും പ്രവചനം നടത്തുന്നതിനും ന്യൂറല് നെറ്റര് നെറ്റ്വര്ക്കെറ്റിന്റെ ആര്ക്കിട്ടുകള്ക്ക് വേണ നമ്മുടെ ഫ്രെയിമാര്ക്ക് സ്വയമായി ലോഗിക്കല് വാക്കുകള് കണക്കുകൂട്ടുന്ന ഗ്രാഫുകളിലേക്ക് കൂടുതല് പഠിക്കാവുന്ന പ്രാമീറ് മൂന്നു ജോലികളില് നമ്മുടെ മോഡലിങ്ങ് സ്ട്രായേജിനെ വിലാസപ്പെടുത്തുന്നു നമ്മുടെ പരീക്ഷണങ്ങള് കാണിച്ചു കൊണ്ടിരിക്കുന്നത് അറിവുകള് കൂടുതല് വെളിപ്പെടുത്തിയ നെറ്ററുകള്ക്ക് ബെസ്റ്Abstract
Өнөөдөр сэтгэл мэдрэлийн сүлжээнд давамгайлагч парадигм нь том өгөгдлийн санд ажлын алдагдлыг багасгах болно. Дэлхийн мэдлэг загварыг мэдээллээр ашиглаж, гэхдээ төгсгөлийн сургалт хийх чадварыг хадгалах нь нээлттэй асуулт байдаг. Энэ цаасан дээр бид дасгал болон таамаглалтыг удирдах зорилго болон мэдлэгийг мэдээллийг мэдээллийн сүлжээний архитектуруудыг тайлбарлах шинэ хэлбэрийг тайлбарлаж байна. Бидний систематикийн хувьд логикийн загваруудыг тооцоолох графикаар цуглуулдаг. Энэ нь мэдрэлийн сүлжээг нэмэлт суралцдаг параметр эсвэл гар дахин шинэчлэхгүй. Бид өөрсдийн загварын стратегийг гурван даалгавар дээр үнэлдэг: машины ойлголт, байгалийн хэл халдвар, мөн текст халдвар. Бидний туршилтууд мэдлэг нэмэгдсэн сүлжээнд суурь шугам дээр, ялангуяа бага өгөгдлийн режимүүд дээр хүчтэй сайжруулж чадна.Abstract
Hari ini, paradigm a dominan untuk latihan rangkaian saraf melibatkan mengurangi kehilangan tugas pada set data yang besar. Menggunakan pengetahuan dunia untuk maklumkan model, dan masih menyimpan kemampuan untuk melakukan latihan akhir-akhir tetap soalan terbuka. Dalam kertas ini, kami memperkenalkan kerangka baru untuk memperkenalkan pengetahuan deklaratif kepada arkitektur rangkaian saraf untuk membimbing latihan dan ramalan. kerangka kita secara sistematik kumpil pernyataan logik ke dalam graf komputasi yang menambah rangkaian saraf tanpa parameter yang boleh dipelajari tambahan atau rancangan semula manual. We evaluate our modeling strategy on three tasks: machine comprehension, natural language inference, and text chunking. Eksperimen kami menunjukkan bahawa rangkaian yang meningkat pengetahuan boleh meningkat kuat melalui garis dasar, terutama dalam režim data rendah.Abstract
Illum, il-paradigm a dominanti għat-taħriġ tan-netwerks newrali tinvolvi t-tnaqqis tat-telf tal-kompiti fuq sett ta’ dejta kbir. L-użu tal-għarfien dinji biex jinforma mudell, u madankollu ż-żamma tal-kapaċità li jitwettaq taħriġ minn tarf għal tarf tibqa’ kwistjoni miftuħa. In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. Il-qafas tagħna jikkompila sistematikament dikjarazzjonijiet loġiċi fi grafiċi tal-komputazzjoni li jżidu netwerk newrali mingħajr parametri addizzjonali li jistgħu jitgħallmu jew tfassil mill-ġdid manwali. Aħna jevalwaw l-istrateġija tagħna ta’ mudell fuq tliet kompiti: il-komprensjoni tal-magna, l-inferenza naturali tal-lingwa, u l-qsim tat-test. L-esperimenti tagħna juru li n-netwerks miżjuda bl-għarfien jistgħu jtejbu b’mod qawwi fuq il-linji bażi, speċjalment f’reġimi b’dejta baxxa.Abstract
Tegenwoordig is het dominante paradigma voor het trainen van neurale netwerken het minimaliseren van taakverlies op een grote dataset. Het gebruik van wereldkennis om een model te informeren en toch de mogelijkheid te behouden om end-to-end trainingen uit te voeren blijft een open vraag. In dit artikel presenteren we een nieuw raamwerk voor het introduceren van declaratieve kennis in neuronale netwerkarchitecturen om training en voorspelling te begeleiden. Ons framework compileert systematisch logische uitspraken in rekengrafieken die een neuraal netwerk uitbreiden zonder extra leerbare parameters of handmatig herontwerp. We evalueren onze modelleringsstrategie op drie taken: machinebegrip, natuurlijke taal inferentie en tekst chunking. Onze experimenten tonen aan dat kennisversterkte netwerken sterk kunnen verbeteren ten opzichte van baselines, vooral in low-data regimes.Abstract
I dag er den dominerende paradigmen for opplæring av neuralnettverk med å minimera tap av oppgåver på ein stor dataset. Bruk verdenskunnskap for å informasera eit modell, og likevel beholde kapasiteten for å utføra uttrykk til slutten er eit opna spørsmål. I denne papiret presenterer vi eit nytt rammeverk for å introdusera deklarativ kunnskap til neuralnettverksarkitekturar for å hjelpa opplæring og forhåndsvising. Rammeverket vårt systematisk kompiler logiske uttrykk i datagrafikk som aukar eit neuralnettverk utan ekstra lærbar parametrar eller manuelt omtegning. Vi evaluerer modelleringsstrategien vårt på tre oppgåver: maskineforståelse, naturspråk-infeksjon og tekstbryting. Eksperimentane våre viser at kunnskap-økt nettverk kan sterkt forbedra over baselinjer, spesielt i låg dataregimer.Abstract
Obecnie dominującym paradygmatem szkolenia sieci neuronowych jest minimalizacja strat zadań na dużym zbiorze danych. Wykorzystanie światowej wiedzy do informowania modelu, a jednocześnie zachowanie zdolności do przeprowadzania kompleksowego szkolenia pozostaje pytaniem otwartym. W niniejszym artykule przedstawiamy nowe ramy wprowadzania wiedzy deklaratywnej do architektur sieci neuronowych w celu kierowania szkoleniami i predykcjami. Nasz framework systematycznie kompiluje logiczne instrukcje w wykresy obliczeniowe, które rozszerzają sieć neuronową bez dodatkowych możliwych do nauczenia parametrów lub ręcznego przeprojektowania. Oceniamy naszą strategię modelowania na trzech zadaniach: zrozumienie maszyny, wnioskowanie języka naturalnego i fragmentowanie tekstu. Nasze eksperymenty pokazują, że sieci poszerzone wiedzą mogą znacznie poprawić się nad liniami bazowymi, zwłaszcza w reżimech niskiej ilości danych.Abstract
Hoje, o paradigma dominante para treinar redes neurais envolve minimizar a perda de tarefas em um grande conjunto de dados. Usar o conhecimento do mundo para informar um modelo e ainda manter a capacidade de realizar treinamento de ponta a ponta continua sendo uma questão em aberto. Neste artigo, apresentamos uma nova estrutura para introduzir conhecimento declarativo em arquiteturas de redes neurais para orientar o treinamento e a previsão. Nossa estrutura compila sistematicamente declarações lógicas em gráficos de computação que aumentam uma rede neural sem parâmetros extras que podem ser aprendidos ou redesenho manual. Avaliamos nossa estratégia de modelagem em três tarefas: compreensão de máquina, inferência de linguagem natural e segmentação de texto. Nossos experimentos mostram que as redes aumentadas de conhecimento podem melhorar fortemente em relação às linhas de base, especialmente em regimes de poucos dados.Abstract
Astăzi, paradigma dominantă pentru instruirea rețelelor neurale implică minimizarea pierderii sarcinilor pe un set de date mare. Utilizarea cunoștințelor mondiale pentru a informa un model, și totuși păstrarea capacității de a efectua formare end-to-end rămâne o întrebare deschisă. În această lucrare, prezentăm un cadru nou pentru introducerea cunoștințelor declarative în arhitecturile rețelelor neurale pentru a ghida formarea și predicția. Cadrul nostru compilează sistematic declarații logice în grafice de calcul care măresc o rețea neurală fără parametri suplimentari care pot fi învățați sau reproiectați manual. Evaluăm strategia noastră de modelare pe trei sarcini: înțelegerea mașinii, inferența limbajului natural și chucking text. Experimentele noastre arată că rețelele extinse cu cunoștințe se pot îmbunătăți puternic față de liniile de referință, în special în regimurile cu date scăzute.Abstract
Сегодня доминирующая парадигма обучения нейронных сетей предполагает минимизацию потерь задач на большом наборе данных. Использование мировых знаний для информирования модели, но при этом сохранение способности проводить комплексное обучение остается открытым вопросом. В этой статье мы представляем новую структуру для введения декларативных знаний в архитектуры нейронных сетей, чтобы направлять обучение и прогнозирование. Наша структура систематически компилирует логические утверждения в вычислительные графики, которые увеличивают нейронную сеть без дополнительных изучаемых параметров или ручного перепроектирования. Мы оцениваем нашу стратегию моделирования по трем задачам: машинное понимание, вывод естественного языка и фрагментация текста. Наши эксперименты показывают, что сети с расширением знаний могут значительно улучшаться по сравнению с исходными уровнями, особенно в режимах с низким объемом данных.Abstract
අද, විශාල දත්ත සූදානයේ වැඩි වැඩි වැඩි වැඩි නැති වෙනුවෙන් ප්රධාන පාර්ඩිග්ම්. ලෝකය දන්නවන් ප්රයෝජනය කරනවා මොඩල් එකක් තියාගන්න, ඒත් අවසානයෙන් අවසානය කරන්න පුළුවන් තියාගන්න ප්ර මේ පැත්තේ, අපි ප්රධානය සහ අනතුරු විදියට ප්රතිකාර දැනගන්න පුළුවන් විදියට නියර්ල ජාලය සංවිධානයට ප අපේ පද්ධතිය පද්ධතියෙන් ලෝකික ප්රතිචාරය සම්පූර්ණය කරන්නේ පරිගණනය ග්රාෆ් වලින්. ඒකෙන් ප්රතිචාරය සඳහා ප් අපි අපේ මොඩේලින් සැලසුම් තුනක් වැඩ කරන්නේ: මැෂින් තේරුම්, ස්වභාවික භාෂාව පරික්ෂණය, පාළුවන් චං අපේ පරීක්ෂණය පෙන්වන්නේ දන්නවන් වැඩි ජාලය වලට පුළුවන් විශේෂයෙන්, විශේෂයෙන්ම දත්ත සීමාවට අඩAbstract
Danes prevladujoča paradigma za usposabljanje nevronskih omrežij vključuje zmanjšanje izgube nalog na velikem naboru podatkov. Uporaba svetovnega znanja za informiranje modela in ohranitev sposobnosti izvajanja usposabljanja od konca do konca ostaja odprto vprašanje. V prispevku predstavljamo nov okvir za uvajanje deklarativnega znanja v arhitekturo nevronskih omrežij z namenom usmerjanja usposabljanja in napovedovanja. Naš okvir sistematično zbira logične izjave v računske grafe, ki povečujejo nevronsko omrežje brez dodatnih učnih parametrov ali ročnega preoblikovanja. Našo strategijo modeliranja ocenjujemo na treh nalogah: strojno razumevanje, sklepanje naravnega jezika in sestavljanje besedila. Naši poskusi kažejo, da se lahko omrežja, povečana z znanjem, močno izboljšajo preko osnovnih linij, zlasti v režimih z nizkimi podatki.Abstract
Maanta waxaa ku saabsan qaabka u sareeya waxbarashada shabakada neurada ah oo ku qoran khasaarada shaqada ee kooban macluumaad badan. Waxaad isticmaaleysaa aqoonta aduunka si aad u ogeysiiso tusaale ahaan, laakiin aad sii haysato awoodda uu dhamaado waxbarashada ugu dambaysa waa su'aal furan. Warqaddan waxan ku qornaa qoraal warqad ah oo lagu soo bandhigi karo aqoon ogeysiis ah si aan u hagno dhismaha shabakadda neurada ah si aan u hagno waxbarasho iyo wax u sii sheegno. Shaqoolkayaga ayaa si systemic ah u buuxinaya qalabka xisaabashada oo ku kordhiya shabakadda neurada oo aan lahayn parameters dheer oo wax baran ama cusboonaysiinta gacanta. Waxaynu qiimeynaynaa qoraalkayaga sameynta oo ku qoran sadex shaqo: koobsiga mashiinka, baahida afka dabiicadda iyo dhaqdhaqaalaha qoraalka. Imtixaanadayada waxay muuqataa in shabakado aqoonta lagu kordhiyey si xoog leh u kordhin karo saldhigyada, khusuusan xeerarka macluumaadka hoose.Abstract
Sot, paradigm a dominante për trajnimin e rrjeteve nervore përfshin minimizimin e humbjes së detyrave në një set të madh të dhënash. Përdorimi i njohurive botërore për të informuar një model dhe megjithatë mbajtja e aftësisë për të kryer trajnimin nga fundi në fund mbetet një pyetje e hapur. Në këtë letër, ne paraqesim një kuadër të ri për futjen e njohurive deklaruese në arkitekturat e rrjetit nervor me qëllim që të udhëzojmë trainimin dhe parashikimin. Korniza jonë kompilon sistematikisht deklaratat logjike në grafikat e llogaritjes që shtojnë një rrjet nervor pa parametra shtesë të mësueshëm apo rindërtim manual. Ne vlerësojmë strategjinë tonë modelimi në tre detyra: kuptimin e makinave, përfundimin natyror të gjuhës dhe copëtimin e tekstit. Eksperimentet tona tregojnë se rrjetet e rritura nga njohuritë mund të përmirësohen me forcë lidhur me linjat bazë, veçanërisht në regjimet e të dhënave të ulëta.Abstract
Danas dominantna paradigm a za obuku neuronskih mreža uključuje minimizaciju gubitka zadataka na velikom setu podataka. Koristeći svetsko znanje da bi obavestili model, a ipak zadržavali sposobnost obavljanja treninga do kraja ostaje otvoreno pitanje. U ovom papiru predstavljamo novi okvir za predstavljanje deklarativnih znanja u arhitekture neuralne mreže kako bi vodili obuku i predviđanje. Naš okvir sistematski sastavlja logičke izjave u računalne grafike koje povećava neuralnu mrežu bez dodatnih učenih parametara ili ručnog preobrazovanja. Procjenjujemo našu strategiju modeliranja na tri zadatka: razumijevanje mašine, infekcija prirodnog jezika i razmjerenje teksta. Naši eksperimenti pokazuju da povećana mreža znanja može jače poboljšati preko početnih linija, posebno u nizim podacima.Abstract
Idag innebär det dominerande paradigmet för utbildning av neurala nätverk att minimera uppgiftsförlust på en stor datauppsättning. Att använda världskunskap för att informera en modell, men ändå behålla förmågan att utföra heltäckande utbildning är fortfarande en öppen fråga. I denna uppsats presenterar vi ett nytt ramverk för att introducera deklarativ kunskap till neurala nätverksarkitekturer för att vägleda utbildning och förutsägelse. Vårt ramverk sammanställer systematiskt logiska uttalanden till beräkningsgrafer som utökar ett neuralt nätverk utan extra lärbara parametrar eller manuell omdesign. Vi utvärderar vår modelleringsstrategi på tre uppgifter: maskinförståelse, naturlig språkinferens och textchunking. Våra experiment visar att kunskapsförstärkta nätverk kan förbättras kraftigt över baselines, särskilt i lågdataregimer.Abstract
Leo, mchanganyiko mkubwa wa mafunzo ya mitandao ya neurali unahusisha kupunguza hasara ya kazi katika seti kubwa ya data. Kwa kutumia maarifa ya dunia kuelezea mfano, na bado kubaki uwezo wa kutekeleza mafunzo ya mwisho bado ni swali la wazi. In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. Miundombi yetu kwa mfumo inakusanya tamko la kisiasa katika picha za kompyuta ambazo zinaongeza mtandao wa neura bila kipimo cha ziada cha kujifunza au upya wa manufaa. Tunatathmini mkakati wetu wa mifano katika kazi tatu: kompyuta ya mashine, uvumilivu wa lugha asili, na kuanguka kwa ujumbe wa maandishi. Majaribio yetu yanaonyesha kuwa mitandao ya maarifa yanayoweza kuboresha vizuri zaidi ya misingi, hasa katika utawala wa takwimu za chini.Abstract
இன்று, பெரிய தரவு அமைப்பில் பயிற்சிகளுக்கான மிக முக்கியமான அளபுரிமை ஒரு மாதிரி அறிவிப்பதற்கு உலக அறிவிப்பை பயன்படுத்தி, இன்னும் முடிவு பயிற்சி செய்யும் சக்தியை வைத்து வைத்திர இந்த காகிதத்தில், நாம் ஒரு புதிய சட்டத்தை கொண்டு வருகிறோம் புதிய அறிவை அறிவிப்பதற்காகவும், பயிற்சி மற்றும் முன்வாக்கி எங்கள் சட்டத்திற்கு முறைமையாக தொழில்நுட்பமான குறிப்புகளை கணக்கீட்டு வரைபடங்களில் சேர்க்கும் புதிய வலைப்பின்னலை சேர் மூன்று பணிகளில் எங்கள் மாதிரியும் திட்டத்தை மதிப்பிடுகிறோம்: இயந்திரம் குழுக்கம், இயல்பான மொழி குறைவு, உரை மொழ நம்முடைய சோதனைகள் காண்பிக்கிறது அறிவு மேம்படுத்தப்பட்ட வலைப்பின்னல்கள், குறைந்த தகவல் விதிமுறைகளில், மேலும் மேAbstract
Bu gün, neural şebekeleri eğitirmek üçin dominant paradigm uly bir datawatlaryň ýitişini azaltmak üçin bar. Dünýäde bir nusga bilgi ulanmak üçin, ýöne soňky dermanyň ýerine ýetirme ukybyny goramak üçin a çyk soragy ýok. Bu kagyzda, biz neural şebeke arhitektarlaryna a ýdyşylan bilgileri ýüklemek we öňündirmek üçin bir roman çerçevesini tasarruf edýäris. Bizim sistematik sistematik sistemlerimiz logik ifadeleri hesaplamak grafiklerinde birleştirir ki, bir näyral şebekesi ekstra öğrenen parameters ýä el kanallary bolmadyk. Biz modellendirmek strategiýamyzy üç zada çykýarys: maşynyň düşünmesi, tebigy dilleriň azalyşygy we metin taýýarlamasyny. Biziň deneylerimiz bilim-gelişmeli aňlaryň baseliniň üstünde, ýöne-ýöne düşük data rejimelerinde köpräk gelişmegi mümkin edýändigini görkeýärler.Abstract
آج، نئورل نیٹورک کی تعلیم کے لئے حکومت پارادیگ ایک بڑے ڈیٹ سٹ پر کام خسارہ کم کرنا شامل ہے. دنیاوی علم کے استعمال سے ایک مدل کی اطلاع کرنے کے لئے، اور پھر بھی آخر تکلیف کی تعلیم کے قابلیت کو روک رکھنے کے لئے صریح سوال ہے. اس کاغذ میں ہم نے ایک نئی روزنامہ فرمیک پیش کیا ہے کہ نئورل نیٹ ورک معماروں کے لئے دکھانے والی علم معلوم کریں تاکہ تطابق اور پیش بینی کی راہ دکھائیں. ہمارے فرمیٹ سیستماتیک طور پر لاجیک سٹیٹمنٹ کو کامپیل کرتا ہے کمپیوٹ گراف میں جو ایک نیورل نیٹورک کو اضافہ سکھنے والے پارامیٹر یا manual redesign کے بغیر اضافہ کرتا ہے. ہم تین کاموں پر ہماری مدلینگ استراتژی کا ارزش کرتے ہیں: ماشین کی سمجھ، طبیعی زبان کی نازل، اور ٹیکسٹ چانک. ہماری آزمائش دکھاتی ہے کہ علم میں زیادہ اضافہ کی نیٹورک بنیس لین پر زیادہ اضافہ کر سکتی ہے، مخصوصاً کم ڈیٹا رسمی میں.Abstract
Bugun, neyrolik tarmoqlarining muhim paradigm katta maʼlumotlar sohasida vazifani kamaytirish mumkin. Usul haqida dunyo maʼlumotni ishlatish mumkin, ammo oxiriga ishga tushirish imkoniyatini davom etish imkoniyati ochiq savol. In this paper, we present a novel framework for introducing declarative knowledge to neural network architectures in order to guide training and prediction. Ushbu freymmiz tizimdan foydalanilgan holatlarni kompyuterning grafikga hisoblash mumkin. Ular tarmoqni qoʻlbola qoʻllanmagan qoʻlbola tarmoqni qoʻlbola qaytadan qoʻshish mumkin. Biz uch vazifalarda modellash strategimizni qiymatimiz: mashina tuzilishimiz, tabiiy tilni ajratish, va matnni kichiklashtiramiz. Bizning imtiyozlarimizni ko'rsatadigan ilmiy sonlar tarmoqlari asosiy sonlarning asboblarida, hususan kichkina maʼlumot tizimlarida o'zgartira oladi.Abstract
Ngày nay, mô hình chủ yếu để đào tạo mạng thần kinh là giảm thiểu mất việc làm trên một bộ dữ liệu lớn. Sử dụng kiến thức thế giới để thông báo mô hình, nhưng vẫn giữ được khả năng thực hiện huấn luyện hàng đầu vẫn là một câu hỏi trống. Trong bài báo này, chúng tôi giới thiệu một cơ sở mới để đưa ra kiến thức tuyên bố về cấu trúc mạng thần kinh để hướng dẫn huấn luyện và dự đoán. Phần cấu trúc của chúng tôi tổng hợp các báo cáo logic vào các biểu đồ tính toán mà tăng cường mạng thần kinh mà không có các tham số thêm hay thiết kế bằng tay. Chúng tôi đánh giá chiến lược người mẫu về ba nhiệm vụ: thấu hiểu máy móc, ngụ ý ngôn ngữ tự nhiên, và thiết lập văn bản. Những thí nghiệm của chúng ta cho thấy các mạng lưới được cải tiến mạnh mẽ hơn trên nền tảng, đặc biệt trong chế độ ít dữ liệu.Abstract
今训神经网络之主范式及大度减大集上之任失。 以世为信,持端到培训为悬而未决。 本文新框架,引声明性入神经网络架构,以导训占。 吾框架系统地将逻辑语句编译为算图,以增神经网络,而无须额外者可学参数或手动重设计。 三务评建模策:机器解,自然语言推理文本分块。 吾实验明知强网络可比基线力改,特在下数。- Anthology ID:
- P19-1028
- Original:
- P19-1028v1
- Version 2:
- P19-1028v2
- Volume:
- Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics
- Month:
- July
- Year:
- 2019
- Address:
- Florence, Italy
- Venue:
- ACL
- SIG:
- Publisher:
- Association for Computational Linguistics
- Note:
- Pages:
- 292–302
- Language:
- URL:
- https://aclanthology.org/P19-1028
- DOI:
- 10.18653/v1/P19-1028
- Bibkey:
- Cite (ACL):
- Tao Li and Vivek Srikumar. 2019. Augmenting Neural Networks with First-order Logic. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 292–302, Florence, Italy. Association for Computational Linguistics.
- Cite (Informal):
- Augmenting Neural Networks with First-order Logic (Li & Srikumar, ACL 2019)
- Copy Citation:
- PDF:
- https://aclanthology.org/P19-1028.pdf
- Video:
- https://vimeo.com/383997156
- Code
- utahnlp/layer_augmentation
- Data
- SNLI
- Terminologies:
Export citation
@inproceedings{li-srikumar-2019-augmenting, title = "Augmenting Neural Networks with First-order Logic", author = "Li, Tao and Srikumar, Vivek", booktitle = "Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics", month = jul, year = "2019", address = "Florence, Italy", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/P19-1028", doi = "10.18653/v1/P19-1028", pages = "292--302", }
<?xml version="1.0" encoding="UTF-8"?> <modsCollection xmlns="http://www.loc.gov/mods/v3"> <mods ID="li-srikumar-2019-augmenting"> <titleInfo> <title>Augmenting Neural Networks with First-order Logic</title> </titleInfo> <name type="personal"> <namePart type="given">Tao</namePart> <namePart type="family">Li</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <name type="personal"> <namePart type="given">Vivek</namePart> <namePart type="family">Srikumar</namePart> <role> <roleTerm authority="marcrelator" type="text">author</roleTerm> </role> </name> <originInfo> <dateIssued>2019-07</dateIssued> </originInfo> <typeOfResource>text</typeOfResource> <relatedItem type="host"> <titleInfo> <title>Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics</title> </titleInfo> <originInfo> <publisher>Association for Computational Linguistics</publisher> <place> <placeTerm type="text">Florence, Italy</placeTerm> </place> </originInfo> <genre authority="marcgt">conference publication</genre> </relatedItem> <identifier type="citekey">li-srikumar-2019-augmenting</identifier> <identifier type="doi">10.18653/v1/P19-1028</identifier> <location> <url>https://aclanthology.org/P19-1028</url> </location> <part> <date>2019-07</date> <extent unit="page"> <start>292</start> <end>302</end> </extent> </part> </mods> </modsCollection>
%0 Conference Proceedings %T Augmenting Neural Networks with First-order Logic %A Li, Tao %A Srikumar, Vivek %S Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics %D 2019 %8 July %I Association for Computational Linguistics %C Florence, Italy %F li-srikumar-2019-augmenting %R 10.18653/v1/P19-1028 %U https://aclanthology.org/P19-1028 %U https://doi.org/10.18653/v1/P19-1028 %P 292-302
Markdown (Informal)
[Augmenting Neural Networks with First-order Logic](https://aclanthology.org/P19-1028) (Li & Srikumar, ACL 2019)
- Augmenting Neural Networks with First-order Logic (Li & Srikumar, ACL 2019)
ACL
- Tao Li and Vivek Srikumar. 2019. Augmenting Neural Networks with First-order Logic. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 292–302, Florence, Italy. Association for Computational Linguistics.