محمدصادق رسولی rasooli.ms{#a#t#}gmail.com

Slides:



Advertisements
Similar presentations
Latent Variables Naman Agarwal Michael Nute May 1, 2013.
Advertisements

Joint Parsing and Alignment with Weakly Synchronized Grammars David Burkett, John Blitzer, & Dan Klein TexPoint fonts used in EMF. Read the TexPoint manual.
Noah A. Smith and Jason Eisner Department of Computer Science /
Learning Accurate, Compact, and Interpretable Tree Annotation Recent Advances in Parsing Technology WS 2011/2012 Saarland University in Saarbrücken Miloš.
Proceedings of the Conference on Intelligent Text Processing and Computational Linguistics (CICLing-2007) Learning for Semantic Parsing Advisor: Hsin-His.
Learning for Structured Prediction Overview of the Material TexPoint fonts used in EMF. Read the TexPoint manual before you delete this box.: AA A A A.
R Yun-Nung Chen 資工碩一 陳縕儂 1 /39.  Non-projective Dependency Parsing using Spanning Tree Algorithms (HLT/EMNLP 2005)  Ryan McDonald, Fernando.
Dependency Parsing Joakim Nivre. Dependency Grammar Old tradition in descriptive grammar Modern theroretical developments: –Structural syntax (Tesnière)
Dependency Parsing Some slides are based on:
28 June 2007EMNLP-CoNLL1 Probabilistic Models of Nonprojective Dependency Trees David A. Smith Center for Language and Speech Processing Computer Science.
Learning with Probabilistic Features for Improved Pipeline Models Razvan C. Bunescu Electrical Engineering and Computer Science Ohio University Athens,
Towards Parsing Unrestricted Text into PropBank Predicate- Argument Structures ACL4 Project NCLT Seminar Presentation, 7th June 2006 Conor Cafferkey.
Amirkabir University of Technology Computer Engineering Faculty AILAB Efficient Parsing Ahmad Abdollahzadeh Barfouroush Aban 1381 Natural Language Processing.
Växjö University Joakim Nivre Växjö University. 2 Who? Växjö University (800) School of Mathematics and Systems Engineering (120) Computer Science division.
Fall 2004 Lecture Notes #5 EECS 595 / LING 541 / SI 661 Natural Language Processing.
Probabilistic Parsing Ling 571 Fei Xia Week 5: 10/25-10/27/05.
1 CS546: Machine Learning and Natural Language Preparation to the Term Project: - Dependency Parsing - Dependency Representation for Semantic Role Labeling.
1 Data-Driven Dependency Parsing. 2 Background: Natural Language Parsing Syntactic analysis String to (tree) structure He likes fish S NP VP NP VNPrn.
NLP.
1 CS546: Machine Learning and Natural Language Multi-Class and Structured Prediction Problems Slides from Taskar and Klein are used in this lecture TexPoint.
Part D: multilingual dependency parsing. Motivation A difficult syntactic ambiguity in one language may be easy to resolve in another language (bilingual.
Adaptor Grammars Ehsan Khoddammohammadi Recent Advances in Parsing Technology WS 2012/13 Saarland University 1.
CONVERTING TO CHOMSKY NORMAL FORM
A search-based Chinese Word Segmentation Method ——WWW 2007 Xin-Jing Wang: IBM China Wen Liu: Huazhong Univ. China Yong Qin: IBM China.
CS212: DATA STRUCTURES Lecture 1: Introduction. What is this course is about ?  Data structures : conceptual and concrete ways to organize data for efficient.
Dependency Parsing Prashanth Mannem
11 Chapter 14 Part 1 Statistical Parsing Based on slides by Ray Mooney.
Coarse-to-Fine Efficient Viterbi Parsing Nathan Bodenstab OGI RPE Presentation May 8, 2006.
Effective Use of Linguistic and Contextual Information for Statistical Machine Translation Libin Shen and Jinxi Xu and Bing Zhang and Spyros Matsoukas.
Dependency Parser for Swedish Project for EDA171 by Jonas Pålsson Marcus Stamborg.
NLP. Introduction to NLP The probabilities don’t depend on the specific words –E.g., give someone something (2 arguments) vs. see something (1 argument)
Dependency Parsing Parsing Algorithms Peng.Huang
Computational lexicology, morphology and syntax Diana Trandabă
Dependency Parsing Niranjan Balasubramanian March 24 th 2016 Credits: Many slides from: Michael Collins, Mausam, Chris Manning, COLNG 2014 Dependency Parsing.
Dan Roth University of Illinois, Urbana-Champaign 7 Sequential Models Tutorial on Machine Learning in Natural.
PROBABILISTIC GRAPH-BASED DEPENDENCY PARSING WITH CONVOLUTIONAL NEURAL NETWORK Zhisong Zhang, Hai Zhao and Lianhui QIN Shanghai Jiao Tong University
استخراج بی‌ناظر ظرفیت فعل در زبان فارسی بر مبنای دستور وابستگی
Computational lexicology, morphology and syntax
ACL 2002, Univ. of Pennsylvania, Philadelphia, PA (July 2002) Session: Anaphora and Coreference Session Chair: Lillian Lee Improving Machine Learning.
COSC 6336 Natural Language Processing Statistical Parsing
Raymond J. Mooney University of Texas at Austin
Statistical NLP Winter 2009
CSC 594 Topics in AI – Natural Language Processing
PRESENTED BY: PEAR A BHUIYAN
Tools for Natural Language Processing Applications
PDAs Accept Context-Free Languages
Intelligent Systems (AI-2) Computer Science cpsc422, Lecture 27
CIS 700 Advanced Machine Learning Structured Machine Learning:   Theory and Applications in Natural Language Processing Shyam Upadhyay Department of.
Compiler Lecture 1 CS510.
Daniel Fried*, Mitchell Stern* and Dan Klein UC Berkeley
Statistical NLP Spring 2011
CS 388: Natural Language Processing: Statistical Parsing
--Mengxue Zhang, Qingyang Li
Probabilistic and Lexicalized Parsing
CSCI 5832 Natural Language Processing
CPSC 388 – Compiler Design and Construction
Policy Gradient as a Proxy for Dynamic Oracles in Constituency Parsing
Intelligent Systems (AI-2) Computer Science cpsc422, Lecture 27
سیستم‌های مبتنی بر دانش
Learning to Parse Database Queries Using Inductive Logic Programming
Closure Properties of Context-Free languages
Intelligent Systems (AI-2) Computer Science cpsc422, Lecture 26
CPSC 503 Computational Linguistics
Theory of Computation Lecture #
CPSC 503 Computational Linguistics
Parsing Unrestricted Text
CSCI 5832 Natural Language Processing
CSA2050 Introduction to Computational Linguistics
COP 4620 / 5625 Programming Language Translation / Compiler Writing Fall 2003 Lecture 2, 09/04/2003 Prof. Roy Levow.
Presentation transcript:

محمدصادق رسولی rasooli.ms{#a#t#}gmail.com تجزیۀ وابستگی محمدصادق رسولی rasooli.ms{#a#t#}gmail.com پیش‌بینی ساخت‌های زبانی

منابع مطالعاتی مفید Sandra Kübler, Ryan McDonald, and Joakim Nivre, “Dependency Parsing,” Synthesis Lectures on Human Language Technologies, 1 (1), Morgan and Claypool Publishers, 2009.

منابع مطالعاتی مفید منابع مطالعاتی دیگر: محمدصادق رسولی، «تجزیۀ نحوی با استفاده از دستور وابستگی»، مرکز تحقیقات کامپیوتری علوم اسلامی، 1389. Joakim Nivre, “Inductive Dependency Parsing,” Springer Verlag, 2006. Jinho D. Choi, “Dependency Parsing,” Tech. Report, University of Colorado at Boulder, 2009. Ryan McDonald and Joakim Nivre, “Introduction to Data-Driven Dependency Parsing,” European Summer School in Logic Language and Information 2007, 2007.

در حین ارائۀ مطالب نیز منابع مرتبط معرفی خواهند شد. منابع مطالعاتی مفید در حین ارائۀ مطالب نیز منابع مرتبط معرفی خواهند شد.

دستور وابستگی چیست؟ دستور وابستگی نخستین بار توسط تنی‌یر مطرح شد. این دستور بر مبنای نظریۀ ظرفیت واژگانی شکل گرفته است.

مفهوم ظرفیت واژگانی در زبان واژه‌ها نیز مانند عناصر دارای ظرفیت هستند. هر واژه‌ای دارای ظرفیت ترکیب نحوی/معنایی خاصی است. 6

مفهوم ظرفیت واژگانی در زبان پرسیدن ظرفیت واژگانی ظرفیت واژگانی از کَسی.. چیزی را...

کاربرد زبانی ظرفیت واژگانی با دانستن ظرفیت واژه‌ها می‌توان تولید زبان انجام داد. ترجمۀ خودکار (Machine Translation) تحلیل نحوی (Syntactic Analysis) تولید زبان (Language Generation) ... امید طبیب‌زاده، «ظرفیت فعل در زبان فارسی»، نشر مرکز، 1385.

دستور وابستگی در دستور وابستگی مبنا روابط نحوی/معنایی بین واژه‌های درون جمله است. در این دستور مفهوم گروه معنا ندارد. واژه‌ها بر اساس ظرفیتشان و نوع قرار گرفتن در جمله وابسته‌هایی می‌گیرند.

ارتباط واژه‌ها در دستور وابستگی وابستۀ پیشین مفعول فعل مرکزی وابستۀ پسین حرف اضافۀ اسم فعل‌یار صحبت دارم دوست را او با Richard Hudson, “An introduction to word grammar,” Cambridge University Press, 2010.

مقایسۀ اجمالی با دستور زایشی در دستور زایشی (Generative)، با گروه‌ها سر و کار داریم. دستور مستقل از متن (CFG) دستور مبتنی بر عبارات امکان وجود بی‌ترتیبی در جملات وجود ندارد در دستور وابستگی با واژه‌ها سر و کار داریم. امکان بی‌ترتیبی در جملات وجود دارد.

مقایسۀ دستور زایشی و وابستگی

درخت‌های وابستگی فرض‌های زبانی متفاوتی در مورد درخت‌های وابستگی می‌شود. فرض‌های ما (ر.ک. فصل 2 کتاب مرجع) درخت وابستگی بدون دور است. هر جمله دارای یک واژۀ فرضی به عنوان ریشۀ جمله است. هر واژه (غیر از ریشۀ جمله) تنها یک هسته دارد.

درخت‌های وابستگی درخت‌های وابستگی دو نوع هستند افکنشی (Projective) هیچ کمانی دیگری را در صورت رسم کمان‌ها از یک سمت بر روی کاغذ قطع نمی‌کند. غیرافکنشی (Non-projective) ممکن است کمانی باشد که برخی دیگر از کمان‌ها را قطع کرده باشد. در جملات بی‌ترتیب زبانی دیده می‌شود.

درخت‌های وابستگی افکنشی غیرافکنشی هستم آمدنت از آگاه ریشه می‌آیی که

تجزیۀ وابستگی روش‌های تجزیۀ وابستگی مبتنی بر داده مبتنی بر دستور زبان باناظر (Supervised) مبتنی بر گراف (Graph based) مبتنی بر گذار (Transition based) بی‌ناظر (Unsupervised) نیمه‌ناظر (Semi-supervised) مبتنی بر دستور زبان

تجزیۀ وابستگی در این درس تنها به روش‌های تجزیۀ باناظر مبتنی بر داده پرداخته می‌شود.

مطالعۀ بیشتر تجزیۀ بی‌ناظر مقالۀ اصلی: پایان‌نامه‌های مرتبط و... D. Klein and C. D. Manning, "Corpus-based induction of syntactic structure: Models of dependency and constituency," ACL 2004. پایان‌نامه‌های مرتبط Dan Klein, "The Unsupervised Learning of Natural Language Structure," Phd Thesis, Stanford University, 2005. Noah Smith, "Novel estimation methods for unsupervised discovery of latent structure in natural language text," PhD Thesis, Johns Hopkins University, 2006. Shay B. Cohen, "Computational Learning of Probabilistic Grammars in the Unsupervised Setting.," PhD Thesis, Carnegie Mellon University, 2011. و... Mohammad Sadegh Rasooli and Heshaam Faili, "Fast Unsupervised Dependency Parsing with Arc-Standard Transitions," in EACL Workshop on ROBUS-UNSUP, 2012.

مطالعۀ بیشتر تجزیۀ نیمه‌ناظر تجزیۀ مبتنی بر دستور فصل چهارم کتاب مرجع T. Koo, X. Carrecas and M. Collins, "Simple Semi-supervised Dependency Parsing," in ACL-HLT 2008. G. Druck, G. Mann and A. McCallum, "Semi-supervised Learning of Dependency Parsers using Generalized Expectation Criteria," in ACL 2009. تجزیۀ مبتنی بر دستور فصل چهارم کتاب مرجع

روش‌های باناظر در مجموع در نوع روش مطرح در تجزیۀ وابستگی وجود دارد: مبتنی بر گراف مبتنی بر گذار

تجزیۀ مبتنی بر گراف هدف پیدا کردن بهترین درخت وابستگی با استفاده از الگوریتم‌های گرافی است. این روش به طور کلی به دو نوع روش تقسیم می‌شود: تجزیۀ افکنشی تجزیۀ غیرافکنشی مطالعۀ بیشتر R. McDonald, "Discriminative Training and Spanning Tree Algorithms for Dependency Parsing," PhD Thesis, University of Pennsylvania, 2006.

تجزیۀ مبتنی بر گراف الگوی تجزیه 𝑀=(ℾ,λ,h) ℾمجموعه‌ای از محدودیت‌ها روی ساختارهای قابل قبول λ مجموعه‌ای از مؤلفه‌ها h الگوریتم ثابت تجزیه در نتیجه امتیاز یک گراف G به صورت زیر می‌شود Score G =Score V, A ∈ℝ

تجزیۀ مبتنی بر گراف برای زیرگراف‌های 𝜓 و مجموعۀ زیرگراف‌های 𝛹 𝐺 مربوط به گراف 𝐺 تابع 𝑓 تعریف می‌شود 𝑆𝑐𝑜𝑟𝑒 𝐺 =𝑓 𝜓 1 , 𝜓 2 ,…, 𝜓 𝑞 ; 𝜓 𝑖 ∈ 𝛹 𝐺 معمولاً فرض می‌شود که این تابع برابر با جمع مؤلفه‌‌های زیرگراف‌هاست:𝑆𝑐𝑜𝑟𝑒 𝑔 = 𝜓∈𝛹 𝐺 𝜆 𝜓

تجزیۀ مبتنی بر گراف تعریف چهار مسأله الزامی به نظر می‌رسد: 1- Ψ G برای گراف 𝐺. 2- λ={ 𝜆 𝜓 |𝑓𝑜𝑟 𝑎𝑙𝑙 𝜓∈ Ψ G ,𝑓𝑜𝑟 𝑎𝑙𝑙 𝐺∈ 𝒢 𝑠 , 𝑓𝑜𝑟 𝑎𝑙𝑙 𝑆}. 3- تابع برای یادگیری λ از روی داده‌های برچسب‌دار. 4- الگوریتم تجزیۀ ℎ ℾ,λ,h = argmax G∈ 𝒢 𝑠 Score (G) .

یک الگوریتم نمونه این الگوریتم با عامل در نظر گرفتن وزن یال‌ها سعی در پیدا کردن بهترین درخت را دارد (Arc-factored). بر این اساس الگوریتم‌های تجزیۀ افکنشی و غیرافکنشی نیز تعریف می‌شود. 𝑆𝑐𝑜𝑟𝑒 𝑔 = ( 𝑤 𝑖 ,𝑟, 𝑤 𝑗 )∈𝐴 𝜆 ( 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ) (ℾ,𝜆,ℎ)= 𝑎𝑟𝑔𝑚𝑎𝑥 𝐺∈ 𝒢 𝑠 𝑆𝑐𝑜𝑟𝑒 𝐺 = 𝑎𝑟𝑔𝑚𝑎𝑥 𝐺∈ 𝒢 𝑠 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ∈𝐴 𝜆 𝑤 𝑖 ,𝑟, 𝑤 𝑗

تجزیۀ غیرافکنشی هدف پیدا کردن درخت جهت‌دار پوشای بهینه است Chu-Liu-Edmonds در این الگوریتم به صورت حریصانه بهترین یال‌های واردشده به هر گره انتخاب می‌شود. در صورت وجود دور، یکی از دورها را با پیدا کردن بهترین یال واردشده به یکی از یال‌های آن دور رفع می‌کند. الگوریتم به صورت بازگشتی اجرا می‌شود. در بدترین حالت با O( n 3 ) حل می‌شود.

Chu-Liu-Edmonds

Chu-Liu-Edmonds

Chu-Liu-Edmonds

Chu-Liu-Edmonds

Chu-Liu-Edmonds

تجزیۀ افکنشی الگوریتم CKY برای تجزیۀ بهینه با استفاده از برنامه‌نویسی پویا مناسب است. 𝐶 𝑠 𝑡 𝑖 = 𝑚𝑎𝑥 𝑠≤𝑞<𝑡,𝑠≤𝑗≤𝑡 𝐶 𝑠 𝑞 𝑖 +𝐶 𝑞+1 𝑡 𝑗 + 𝜆 ( 𝑤 𝑖 , 𝑤 𝑗 ) 𝑖𝑓 𝑗>𝑖 𝐶 𝑠 𝑞 𝑗 +𝐶 𝑞+1 𝑡 𝑖 + 𝜆 𝑤 𝑖 , 𝑤 𝑗 𝑖𝑓 𝑖>𝑗 پیچیدگی محاسباتی الگوریتم 𝑂( 𝑛 5 ) است.

تجزیۀ افکنشی نحوۀ ترکیب و تجزیۀ زیردرخت‌ها با برنامه‌نویسی پویا

تجزیۀ افکنشی نحوۀ کار الگوریتم CYK

تجزیۀ افکنشی الگوریتم آیزنر Jason M. Eisner, "Three new probabilistic models for dependency parsing: An exploration," in COLING 1996.

تجزیۀ افکنشی

تجزیۀ افکنشی در این الگوریتم با در نظر داشتن وابسته‌ها چپ و راست به صورت جداگانه و مستقل از هم سرعت الگوریتم بالا می‌رود (𝑂( 𝑛 3 )). این الگوریتم در عمدۀ روش‌های بی‌ناظر تجزیۀ وابستگی به کار رفته است. D. Klein and C. D. Manning, "Corpus-based induction of syntactic structure: Models of dependency and constituency," ACL 2004.

روش یادگیری f نشان‌دهندۀ تابع ویژگی است: 𝝀 ( 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ) =𝒘.𝒇( 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ) f نشان‌دهندۀ تابع ویژگی است: برچسب اجزای سخن (POS) واژه ... w وزن مورد نظر برای هر نوع ویژگی است این وزن‌ها با الگوریتم‌هایی مانند شبکۀ عصبی پرسپترون یاد گرفته می‌شود.

روش یادگیری ℎ 𝑆,ℾ,𝝀 = 𝑎𝑟𝑔𝑚𝑎𝑥 𝐺= 𝑉,𝐴 ∈ 𝒢 𝑠 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ∈𝐴 𝜆 𝑤 𝑖 ,𝑟, 𝑤 𝑗 = 𝑎𝑟𝑔𝑚𝑎𝑥 𝐺= 𝑉,𝐴 ∈ 𝒢 𝑠 𝑤 𝑖 ,𝑟, 𝑤 𝑗 ∈𝐴 𝒘.𝒇 𝑤 𝑖 ,𝑟, 𝑤 𝑗

تجزیۀ با مراتب بالاتر چیزی که تاکنون گفته شد، مربوط به وابستگی مرتبۀ 1 بوده است. یال‌ها از هم مستقل تشکیل می‌شوند. وابسته بودن یال‌ها باعث پیچیدگی الگوریتم می‌شود. تجزیۀ مرتبۀ دوم تجزیۀ مرتبۀ سوم T. Koo and M. Collins, "Efficient third-order dependency parsers," in ACL 2010.

تجزیۀ با مراتب بالاتر

نرم‌افزارهای موجود مرتبۀ 1 و 2 مرتبۀ 3 http://www.ryanmcd.com/MSTParser/MSTParser.html https://github.com/rasoolims/MSTParserCSharp/ مرتبۀ 3 http://groups.csail.mit.edu/nlp/dpo3/

تجزیۀ مبتنی بر گذار سامانۀ گذار یک دستگاه انتزاعی ، شامل تعدادی پیکربندی (حالت ) و گذار (انتقال) بین این پیکربندی‌هاست. یکی از راه‌های مرسوم برای نمایش پیکربندی استفاده از پشته و حافظۀ ورودی است.

تجزیۀ یال‌-معیار روش‌های مختلفی برای تجزیۀ مبتنی بر گذار وجود دارد. تجزیۀ یال‌-معیار (arc-standard) برای درخت‌های افکنشی است. در این الگوریتم تضمینی بر درست شدن درخت وجود ندارد و جنگلی از درخت‌ها ممکن است تشکیل شود. Joakim Nivre. 2004. Incrementality in deterministic dependency parsing. In Workshop on Incremental Parsing: Bringing Engineering and Cognition Together, pages 50–57.

تجزیۀ یال‌-معیار S: Stack of processed words I: Buffer of unprocessed words A: Set of arcs created until now : : An empty arcset

تجزیۀ یال‌-معیار You are very good Stack Buffer Arc-sets You are very Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Shift Stack Buffer Arc-sets Action Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Shift Stack Buffer Arc-sets Action Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Left-Reduce Stack Buffer Arc-sets Action Left-Reduce Rel(are, You) You are very good Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Shift Stack Buffer Arc-sets Action Rel(are, You) You are very good Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Shift Stack Buffer Arc-sets Action Rel(are, You) You are very good Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Left-Reduce Stack Buffer Arc-sets Action Left-Reduce Rel(are, You) Rel(good, very) ` You are very good Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Right-Reduce Stack Buffer Arc-sets Action Right-Reduce Rel(are, You) Rel(good, very) ` ` Rel(are, good) You are very good Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ یال‌-معیار You are very good Right-Reduce Stack Buffer Arc-sets Action Right-Reduce Rel(are, You) Rel(good, very) ` ` Rel(are, good) You are very good Rel(root, are) Fast Unsupervised Dependency Parsing with Arc-Standard Transitions

تجزیۀ مبتنی بر گذار مطالعۀ بیشتر در استفاده از برنامه‌نویسی پویا Joakim Nivre, “Algorithms for deterministic incremental dependency parsing,” Computational Linguistics, 34(4), PP. 513—553, 2008. استفاده از برنامه‌نویسی پویا L. Huang and K. Sagae, "Dynamic programming for linear-time incremental parsing," in ACL, 2010. S.B. Cohen, C. Gomez-Rodrigez and G. Satta, "Exact inference for generative probabilistic non-projective dependency parsing," in EMNLP, PP. 1234—1245, 2011.

روش‌های یادگیری دادۀ آموزشی تبدیل به گذارها می‌شود. با استفاده از یادگیرنده‌ها (مانند SVM) الگوی تجزیه یاد گرفته می‌شود. نرم‌افزار متن‌باز موجود: http://www.maltparser.org/

تلفیق روش‌ها R. McDonald and J. Nivre, "Analyzing and integrating dependency parsers," Computational Linguistics, 37(1), PP. 197--230, 2011. B. Bohnet and J. Kuhn, "The Best of Both Worlds – A Graph-based Completion Model for Transition-based Parsers," in EACL 2012.

تمرین دادۀ آموزشی جملۀ «آگاه هستم که می‌آیی» را با روش مقالۀ زیر بسازید: J. Nivre, "Non-projective dependency parsing in expected linear time," in ACL 2009. دادۀ آموزشی جملۀ «صحبت با تو را دوست دارم» را با روش مشتاق به یال (arc-eager) بسازید (ر.ک. فصل 3 کتاب مرجع).

با تشکر از توجه شما