Transacciones de la Asociación de Lingüística Computacional, 1 (2013) 267–278. Editor de acciones: Brian Roark.
Submitted 3/2013; Publicado 7/2013. C(cid:13)2013 Asociación de Lingüística Computacional.
EfficientParsingforHead-SplitDependencyTreesGiorgioSattaDept.ofInformationEngineeringUniversityofPadua,Italysatta@dei.unipd.itMarcoKuhlmannDept.ofLinguisticsandPhilologyUppsalaUniversity,Swedenmarco.kuhlmann@lingfil.uu.seAbstractHeadsplittingtechniqueshavebeensuccess-fullyexploitedtoimprovetheasymptoticruntimeofparsingalgorithmsforproject-ivedependencytrees,underthearc-factoredmodel.Inthisarticleweextendthesetech-niquestoaclassofnon-projectivedependencytrees,calledwell-nesteddependencytreeswithblock-degreeatmost2,whichhasbeenprevi-ouslyinvestigatedintheliterature.Wedefineastructuralpropertythatallowsheadsplittingforthesetrees,andpresenttwoalgorithmsthatim-proveovertheruntimeofexistingalgorithmsatnosignificantlossincoverage.1IntroductionMuchoftherecentworkondependencyparsinghasbeenaimedatfindingagoodbalancebetweenac-curacyandefficiency.Foroneendofthespectrum,Eisner(1997)showedthatthehighest-scoringpro-jectivedependencytreeunderanarc-factoredmodelcanbecomputedintimeO.n3/,wherenisthelengthoftheinputstring.Laterworkhasfocusedonmak-ingprojectiveparsingviableundermoreexpressivemodels(Carreras,2007;KooandCollins,2010).Atthesametime,ithasbeenobservedthatformanystandarddatasets,thecoverageofprojectivetreesisfarfromcomplete(KuhlmannandNivre,2006),whichhasledtoaninterestinparsingal-gorithmsfornon-projectivetrees.Whilenon-project-iveparsingunderanarc-factoredmodelcanbedoneintimeO.n2/(McDonaldetal.,2005),parsingwithmoreinformedmodelsisintractable(McDonaldandSatta,2007).Thishasledseveralauthorstoinvestig-ate‘mildlynon-projective’classesoftrees,withthegoalofachievingabalancebetweenexpressivenessandcomplexity(KuhlmannandNivre,2006).Inthisarticlewefocusonaclassofmildlynon-projectivedependencystructurescalledwell-nesteddependencytreeswithblock-degreeatmost2.ThisclasswasfirstintroducedbyBodirskyetal.(2005),whoshowedthatitcorresponds,inanaturalway,totheclassofderivationtreesoflexicalizedtree-adjoin-inggrammars(JoshiandSchabes,1997).Whiletherearelinguisticargumentsagainsttherestrictiontothisclass(MaierandLichte,2011;Chen-MainandJoshi,2010),KuhlmannandNivre(2006)foundthatithasexcellentcoverageonstandarddatasets.Assum-inganarc-factoredmodel,well-nesteddependencytreeswithblock-degree(cid:20)2canbeparsedintimeO.n7/usingthealgorithmofG´omez-Rodr´ıguezetal.(2011).Recientemente,Pitleretal.(2012)haveshownthatifanadditionalrestrictioncalled1-inheritisim-posed,parsingcanbedoneintimeO.n6/,withoutanyadditionallossincoverageonstandarddatasets.Standardcontext-freeparsingmethods,whenadap-tedtotheparsingofprojectivetrees,provideO.n5/timecomplexity.TheO.n3/timeresultreportedbyEisner(1997)hasbeenobtainedbyexploitingmoresophisticateddynamicprogrammingtechniquesthat‘split’dependencytreesatthepositionoftheirheads,inordertosavebookkeeping.Splittingtechniqueshavealsobeenexploitedtospeedupparsingtimeforotherlexicalizedformalisms,suchasbilexicalcontext-freegrammarsandheadautomata(EisnerandSatta,1999).Sin embargo,toourknowledgenoat-tempthasbeenmadeintheliteraturetoextendthesetechniquestonon-projectivedependencyparsing.InthisarticleweleveragethecentralideafromEisner’salgorithmandextendittotheclassofwell-nesteddependencytreeswithblock-degreeatmost2.
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
268
Weintroduceastructuralproperty,calledhead-split,thatallowsustosplitthesetreesatthepositionsoftheirheads.Thepropertyisrestrictive,meaningthatitreducestheclassoftreesthatcanbegenerated.However,weshowthattherestrictiontohead-splittreescomesatnosignificantlossincoverage,anditallowsparsingintimeO.n6/,anasymptoticimprove-mentofoneorderofmagnitudeoverthealgorithmbyG´omez-Rodr´ıguezetal.(2011)fortheunrestric-tedclass.Wealsoshowthatrestrictingtheclassofhead-splittreesbyimposingthealreadymentioned1-inheritpropertydoesnotcauseanyadditionallossincoverage,andthatparsingforthecombinedclassispossibleintimeO.n5/,oneorderofmagnitudefasterthanthealgorithmbyPitleretal.(2012)forthe1-inheritclasswithoutthehead-splitcondition.Theaboveresultshaveconsequencesalsofortheparsingofotherrelatedformalisms,suchasthealreadymentionedlexicalizedtree-adjoininggram-mars.Thiswillbediscussedinthefinalsection.2HeadSplittingTointroducethebasicideaofthisarticle,webrieflydiscussinthissectiontwowell-knownalgorithmsforcomputingthesetofallprojectivedependencytreesforagiveninputsentence:thena¨ıve,CKY-stylealgorithm,andtheimprovedalgorithmwithheadsplitting,intheversionofEisnerandSatta(1999).1CKYparsingTheCKY-stylealgorithmworksinapurebottom-upway,buildingdependencytreesbycombiningsubtrees.AssuminganinputstringwDa1(cid:1)(cid:1)(cid:1)un,norte(cid:21)1,eachsubtreetisrepresentedbymeansofafinitesignatureŒi;j;h(cid:141),calleditem,wherei;jaretheboundarypositionsoft’sspanoverwandhisthepositionoft’sroot.Thisistheonlyinformationweneedinordertocombinesubtreesunderthearc-factoredmodel.NotethatthenumberofpossiblesignaturesisO.n3/.ThemainstepofthealgorithmisdisplayedinFigure1(a).Hereweintroducethegraphicalconven-tion,usedthroughoutthisarticle,ofrepresentingasubtreebyashadedarea,withanhorizontallinein-dicatingthespannedfragmentoftheinputstring,andofmarkingthepositionoftheheadbyabullet.TheillustratedstepattachesatreewithsignatureŒk;j;d(cid:141)1Eisner(1997)describesaslightlydifferentalgorithm.(a)ahadikj)ahadij(b)ahadk)ahad(C)ahadj)ahadjFigure1:Basicstepsfor(a)theCKY-stylealgorithmand(b,C)theheadsplittingalgorithm.asadependentofatreewithsignatureŒi;k;h(cid:141).TherecanbeO.n5/instantiationsofthisstep,andthisisalsotherunningtimeofthealgorithm.Eisner’salgorithmEisnerandSatta(1999)im-proveovertheCKYalgorithmbyreducingthenum-berofpositionrecordsinanitem.Theydothisby‘splitting’eachtreeintoaleftandarightfragment,sothattheheadisalwaysplacedatoneofthetwoboundarypositionsofafragment,asopposedtobe-ingplacedataninternalposition.Inthiswayitemsneedonlytwoindices.Leftandrightfragmentscanbeprocessedindependently,andmergedafterwards.Letusconsiderarightfragmenttwithheadah.Attachmentattofarightdependenttreewithheadadisnowperformedintwosteps.Thefirststepat-tachesaleftfragmentwithheadad,asinFigure1(b).Thisresultsinanewtypeoffragment/itemthathasbothheadsahandadplacedatitsboundaries.Thesecondstepattachesarightfragmentwithheadad,asinFigure1(C).Thenumberofpossibleinstanti-ationsofthesesteps,andtheasymptoticruntimeofthealgorithm,isO.n3/.Inthisarticleweextendthesplittingtechniquetotheclassofwell-nesteddependencytreeswithblock-degreeatmost2.Thisamountstodefiningafac-torizationforthesetreesintofragments,eachwithitsownheadatoneofitsboundarypositions,alongwithsomeunfoldingoftheattachmentoperationintointermediatesteps.Whileforprojectivetreesheadsplittingcanbedonewithoutanylossincoverage,fortheextendedclassheadsplittingturnsouttobeaproperrestriction.Theempiricalrelevanceofthiswillbediscussedin(cid:144)7.
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
269
3Head-SplitTreesInthissectionweintroducetheclassofwell-nesteddependencytreeswithblock-degreeatmost2,anddefinethesubclassofhead-splitdependencytrees.3.1PreliminariesFornon-negativeintegersi;jwewriteŒi;j(cid:141)tode-notethesetfi;iC1;:::;jg;wheni>j,Œi;j(cid:141)istheemptyset.ForastringwDa1(cid:1)(cid:1)(cid:1)un,wheren(cid:21)1andeachaiisalexicaltoken,andfori;j2Œ0;norte(cid:141)withi(cid:20)j,wewritewi;jtodenotethesubstringaiC1(cid:1)(cid:1)(cid:1)ajofw;Wisconsin;iistheemptystring.Adependencytreetoverwisadirectedtreewhosenodesareasubsetofthetokensaiinwandwhosearcsencodeadependencyrelationbetweentwonodes.Wewriteai!ajtodenotethearc.ai;aj/int;aquí,thenodeaiisthehead,andthenodeajisthedependent.Ifeachtokenai,i2Œ1;norte(cid:141),isanodeoft,thentiscalledcomplete.Sometimeswewritetaitoemphasizethattreetisrootedinnodeai.Ifaiisanodeoft,wealsowritetŒai(cid:141)todenotethesubtreeoftcomposedbynodeaiasitsrootandallofitsdescendantnodes.Thenodesoftuniquelyidentifyasetofmax-imalsubstringsofw,thatis,substringsseparatedbytokensnotint.Thesequenceofsuchsubstrings,orderedfromlefttoright,istheyieldoft,writtenyd.t/.Letaibesomenodeoft.Theblock-degreeofaiint,writtenbd.ai;t/,isdefinedasthenumberofstringcomponentsofyd.tŒai(cid:141)/.Theblock-degreeoft,writtenbd.t/,isthemaximalblock-degreeofitsnodes.Treetisnon-projectiveifbd.t/>1.Treetiswell-nestedif,foreachnodeaioftandforeverypairofoutgoingdependenciesai!ad1andai!ad2,thestringcomponentsofyd.tŒad1(cid:141)/andyd.tŒad2(cid:141)/donot‘interleave’inw.Moreprecisely,itisrequiredthat,ifsomecomponentofyd.tŒadi(cid:141)/,i2Œ1;2(cid:141),occursinwinbetweentwocomponentss1;s2ofyd.tŒadj(cid:141)/,j2Œ1;2(cid:141)andj¤i,thenallcomponentsofyd.tŒadi(cid:141)/occurinbetweens1;s2.Throughoutthisarticle,wheneverweconsideradependencytreetwealwaysimplicitlyassumethattisoverw,thatthasblock-degreeatmost2,andthattiswell-nested.Lettaibesuchatree,withbd.ai;tai/D2.Wecalltheportionofwinbetweenthetwosubstringsofyd.tai/thegapoftai,denotedbygap.tai/.ahad4ad3ad2ad1m.tah/Figure2:Exampleofanodeahwithblock-degree2inanon-projective,well-nesteddependencytreetah.Integerm.tah/,definedin(cid:144)3.2,también está marcado. Ejemplo 1 La Figura 2 muestra esquemáticamente un árbol bien anidado con grado de bloque 2;Hemos marcado el nodo raíz y sus nodosadi dependientes. Para cada nododeadi,área sombreadadestacadastŒadi(cid:141).Wehavebd.ah;tah/Dbd.ad1;tah/Dbd.ad4;tah/D2andbd.ad2;tah/Dbd.ad3;tah/D1.(cid:3)3.2La propiedad de división de cabeza Decimos que un árbol de dependencia cuya propiedad de división de cabeza satisface la siguiente condición. Letah!adbeanydependencyintwithbd.ah;t/Dbd.ad;t/D2.Whenevergap.tŒad(cid:141)/contieneah,tambiéndebecontenerap.tŒah(cid:141)/.Intuitivamente,estosignificaqueifyd.tŒad(cid:141)/'cruce'el token léxico ahinw,entoncesyd.tŒad(cid:141)/también debe “cruzar” la brecha.tŒah(cid:141)/.Ejemplo2Dependenciaah!ad1enFigura3viol-atesthehead-splitcondition,sinceyd.tŒad1(cid:141)/cruces sobre el token léxico ahinw,pero no cruza la brecha.tŒah(cid:141)/.Las dependencias salientes restantes de ah satisfacen trivialmente la condición de división de cabeza,ya que los nodos secundarios tienen grado de bloque 1.(cid:3)Lettahbeadependencytreesatisfacethehead-splitpropertyandwithbd.ah;tah/D2.Wespecifybelowaconstructionthat‘splits’tahwithrespecttothepositionoftheheadahinyd.tah/,resultingintwodependencytreessharingtherootahandhavingalloftheremainingnodesformingtwodisjointsets.Furthermore,theresultingtreeshaveblock-degreeatmost2.ahad1ad2ad3Figure3:Arcah!ad1violatesthehead-splitcondition.
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
270
(a)ahad4ad3(b)ahad2ad1m.tah/Figure4:Lowertree(a)anduppertree(b)fragmentsforthedependencytreeinFigure2.Letyd.tah/Dhwi;j;wp;qiandassumethatahisplacedwithinwi;j.(Asymmetricconstructionshouldbeusedincaseahisplacedwithinwp;q.)Themirrorimageofahwithrespecttogap.tah/,writtenm.tah/,isthelargestintegerinŒp;q(cid:141)suchthattherearenodependencieslinkingnodesinwi;h(cid:0)1andnodesinwp;m.tah/andtherearenodependencieslinkingnodesinwh;jandnodesinwm.tah/;q.Itisnothardtoseethatsuchanintegeralwaysexists,sincetahiswell-nested.Weclassifyeverydependentadofahasbeingan‘upper’dependentora‘lower’dependentofah,accordingtothefollowingconditions:(i)Ifd2Œi;h(cid:0)1(cid:141)[Œm.tah/C1;q(cid:141),thenadisanupperdependentofah.(ii)Ifd2ŒhC1;j(cid:141)[Œp;m.tah/(cid:141),luegonadesdisminuyedependientedeah.Elárbolsuperiordeesteárboldedependenciaenraizadoenmanocompuestoportodaslasdependenciasah!adintahwithadanupperdependienteofah,junto con todos los subtreestahŒad(cid:141)arraigados en aquellos dependientes. De manera similar,elárbolinferiordeesteelárboldedependenciaarraigadoenmanocompuestoportodaslasdependenciasah!adintahwithadalowerde-pendentofah,junto con todos los subtreestahŒad(cid:141)arraigados en aquellos dependientes. Como una convención general,en este artículo escribimos U;ahandtL;ah para denotar los árboles superiores e inferiores de ah,respectivamente. Tenga en cuenta que,en algunos casos degenerados,estos a flores o dependientes superiores pueden estar vacíos;entonces U;ahortL;ah consta únicamente del nodo raíz. Ejemplo 3 Considere el árbol que se muestra en la Figura 2. Integerm.tah/denota el límite entre el componente correcto de d.tahŒad4(cid:141)/andtherightcomponentofyd.tahŒad1(cid:141)/.Los nodos ad3 y ad4 son dependientes menores,y los nodosad1yad2sonsuperdependientes.TreestL;ahandtU;se muestra en la Figura 4(a)y(b),respectivamente.(cid:3)La importancia de la propiedad dividida puede explicarse informalmente de la siguiente manera. Letah!adbeadependencyintah.Cuandoseparamoslosárbolessuperioresylosinferioresdeah,elsubtreetahŒad entero(cid:141)termina en cualquiera de estos dos fragmentos. Esto nos permite almacenar fragmentos superiores e inferiores para alguna cabeza independientemente de la otra.,y recombinarlos libremente. Más formalmente,Nuestros algoritmos harán uso de las siguientes tres propiedades.,declarado aquí sin ninguna prueba formal:P1árbolU;ahandtL;aharewell-anidado,tener grado de bloque(cid:20)2,y satisface la propiedad head-split.P2TreestU;ahandtL;ahtienensucabezasiempreubicadaunodeloslímitesensuscampos.P3Lett0U;ahandt00L;ahbelosárbolessuperioresyinferioresdeárboldistinto0ahandt00ah,respectivamente.Ifm.t0ah/Dm.t00ah/,entoncesexisteunárboltalquetU;ahDt0U;ahandtL;ahDt00L;ah.4ParsingItemsLetwDa1(cid:1)(cid:1)(cid:1)un,norte(cid:21)1,ser la cadena de entrada. Necesitamos representar de manera compacta los árboles que abarcan subcadenas de w registrando solo la información necesaria para combinar estos árboles en árboles más grandes durante el proceso de análisis. Hacemos esto asociando cada árbol con una firma,calleditem,cualisatupleŒi;j;pag;q;h(cid:141)X,dondeh2Œ1;norte(cid:141)identifica la tokenah,i;con0(cid:20)i(cid:20)j(cid:20)iidentificarsubcadenawi;j,etc.;qconj
h>jC1Thetwocasesh
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
271
lo cual no es deseado para la especificación de nuestro algoritmo radial. Como ejemplo,artículosŒi;j;(cid:0);(cid:0);iC1(cid:141)XandŒiC1;j;(cid:0);(cid:0);iC1(cid:141)Xbothrepresentadepend-encytreetaiC1withyd.taiC1/Dhwi;ji.Esteyotroscasossimilaressonevitadosporelbancontrath2fi;jC1g,lo cual equivale a imponer alguna forma normal para los artículos. En nuestro ejemplo,soloitemŒi;j;(cid:0);(cid:0);iC1(cid:141)Firma Xisvalid.Finalmente,distinguimos entre varios tipos de artículos,indicado por el valor del subíndice X. Estos tipos son específicos de cada algoritmo de análisis,y se definirá en secciones posteriores. 5 Análisis de árboles con división de cabeza Presentamos en esta sección nuestro primer algoritmo tabular para calcular el conjunto de todos los árboles de dependencia para una oración de entrada que tiene la propiedad de división de cabeza,modelo factorizado bajo el arco. Recuerde que taidenotasunárbolconraíz,ytL;aiandtU;aiasonlosárbolesinferiorysuperiordeai.Lospasosdelosalgoritmosespecificadosmediantereglasdededucciónsobreelementos,siguiendo el enfoque de Shieberetal.(1995).5.1Idea básicaNuestro algoritmoconstruyeárbolespaso a paso,adjuntando un árbol tah0 como dependiente de una mano de árbol creando la nueva dependencia ah!ah0.Computacionalmente,el peor caso para esta operación es cuando ambos tahandtah0 tienen un espacio;entonces,para cada árbol necesitamos llevar un registro de los cuatro límites,junto con la posición de la cabeza,como hecho por Gómez-Rodr´ıguezetal.(2011).Sin embargo,si estamos interesados en analizar árboles que satisfagan la propiedad de división de cabeza,podemosevitarrepresentarunárbolconungapmedianteunelementoúnico.En cambio,seguimoslaideageneralde(cid:144)2para análisis proyectivo,y usar diferentes elementos para los árboles superior e inferior del árbol fuente. Cuando necesitamos adjuntar tah0 como un superior dependiente de tah,definido sin(cid:144)3.2,Realizamos dos pasos consecutivos. Primero,weattachtL;ah0totU;ah,resultanteenunanuevaárbolintermedia1.Comosegundopaso,weattachtU;ah0tot1,resultandoenunnuevoárbol2queesU;ahwithtah0adjuntocomosuperdependiente,como se desee. Ambos pasos se muestran en la Figura 5;Aquí presentamos la convención de indicar la agrupación de árboles a través de una línea discontinua. Se puede utilizar un procedimiento asimétrico para adjuntar tah0 como un totL inferior dependiente.;ah.TheahtU;ahah0tL;ah0+t1(a)t1ah0ahah0tU;ah0+t2(b)Figura 5:Adjunto en dos pasos deah0attU;ah:(a)adjunto-mentoftL;ah0;(b)adjuntooftU;ah0.la corrección del enfoque en dos pasos se desprende de las propiedades P1 y P3 en(cid:144)3.2.Por propiedadP2in(cid:144)3.2,enambospasossobrelascabezasléxicassahandah0sepuedeleerdesdeloslímitesdelosárbolesinvolucrados. Luego,estospasospuedenimplementarsede maneramáseficientequeelmétodona¨ıvequejuntatah0totahenunsolopaso.Seproporcionaráunanálisiscomputacionalmásdetalladoen(cid:144)5.7.Para simplificar la presentación,fueron estrictos en el uso de la división de cabezas en árboles con un hueco y analizar árboles sin huecos con el método ingenuo;esto no afecta la complejidad computacional. 5.2 Tipos de elementos Distinguimos cinco tipos diferentes de elementos,indicado por el subíndice X2f0;l;Ud.;=L;=Y,como se describe a continuación.(cid:15)SiXD0,tenemospDqD(cid:0)andyd.ah/isspecifiedasin(cid:144)4.(cid:15)SiXDL,Usamos el elemento para representar algún árbol inferior.;q¤(cid:0)andh2fiC1;qg.(cid:15)SiXDU,Usamos el elemento para representar algún árbol superior.;q¤(cid:0)andh2fj;pC1g.(cid:15)SiXD=LoXD=U,Usamos el elemento para representar algún paso intermedio en el proceso de análisis.,en el que solo el árbol superior inferior de algún dependiente ha sido recopilado por la cabeza,y todavía nos falta la parte superior(=U)orthelower(=L)árbol.
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
272
Wefurtherspecializesymbol=Ubywriting=U<(=U>)para indicar que el árbol superior que falta debe tener su cabeza hacia la izquierda(bien)ofitsgap.Wealsouse=L
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
277
En conexión con la propiedad 1-heredada,esto incluso aumenta a dos órdenes de magnitud.,como ya se indicó en(cid:144)2,esta mejora se paga con una pérdida de cobertura;por ejemplo,Los árboles de la forma que se muestran en la Figura 3 ya no se pueden analizar. 7.1 Evaluación cuantitativa para evaluar la pérdida empírica de cobertura en la que incurre la restricción de los árboles divididos en cabezas,evaluamos la cobertura de varias clases de árboles de dependencia en conjuntos de datos estándar. Siguiendo a Pitleretal.(2012),Se presentaron en la Tabla 1 las cifras para los conjuntos de capacitación de seis idiomas utilizados en el análisis de dependencia de tareas compartidas de CoNLL-X.(BuchholzandMarsi,2006).Como podemos ver,la clase O.n6/de árboles divididos en cabeza tiene solo una cobertura ligeramente inferior en estos datos que la clase de referencia de árboles de dependencia bien anidados con grado de bloque como máximo 2. Las pérdidas son de hasta 0,2 puntos porcentuales en cinco de los seis idiomas,y 0,9 puntos en los datos holandeses. Nuestro árbol aún más restringido O.n5/clase de 1-hereditario-dividido tiene la misma cobertura que nuestro O.n6/clase,lo cual es esperado dados los resultados de Pitleretal.(2012):Sus árboles de herencia O.n6/clase de 1 tienen exactamente la misma cobertura que la línea base.(y por lo tanto más cobertura que nuestra O.n6/clase).Curiosamente,su clase O.n5/de árboles de “mentalidad de brechas” tiene una cobertura significativamente menor que nuestra clase O.n5/. Concluimos que nuestra clase parece lograr un buen equilibrio entre la expresividad y la complejidad del análisis. 7.2 Evaluación cualitativa Si bien la motivación original detrás de la introducción de la propiedad de división de cabeza era mejorar la complejidad del análisis,Esinteresantediscutirtambiénlarelevancialingüísticadeestapropiedad.Unaprimerainspeccióndelasestructurasqueviolanlapropiedaddedivisióndecabezasrevelóquemuchasviolacionesdesaparecensiunoignoralosespacioscausadosporlapuntuación.Algunasdecisionessobrequénodosdebenfuncionarcomocabezasdelossímbolosdepuntuaciónconducenamásespaciosqueotros.Paracuantificarlasimplicacionesdeesto,Se calculó la cobertura de la clase de árboles divididos en cabeza en conjuntos de datos donde eliminamos toda la puntuación por primera vez. Los resultados se dan en la Tabla 2. Nos restringimos a los bancos de árboles de dependencia venativos utilizados en la tarea compartida CoNLL-X.,ignorando los bancos de árboles que se han convertido a partir de representaciones de estructuras de frases. Árabe checo danés esloveno turco con 1139122 sin 146002 Tabla 2:Violaciones contra la propiedad dividida(en relación con la clase de árboles bien anidados con grado de bloque(cid:20)2)con y sin puntuación. Vemos que cuando eliminamos la puntuación de las oraciones,elnúmerodeviolacionescontralapropiedaddivididadisminuyecomomáximo.Paradanésyesloveno,eliminar la puntuación incluso tiene el efecto de que todos los árboles de dependencia bien anidados con un grado de bloque como máximo de 2 se dividen.,El número absoluto de violaciones es extremadamente pequeño, excepto en el caso de la República Checa.,donde tenemos 139 violaciones con y 46 sin puntuación. Una inspección más cercana de las oraciones checas revela que muchas de estas presentan coordinaciones bastante complejas.,de las 46 violaciones en los datos libres de puntuación,Sólo quedan 9 cuando se ignora a los que tienen coordinación.,No hemos podido identificar ningún patrón claro. 8 Observaciones finales En este artículo hemos ampliado las técnicas de división de cabezas.,desarrollado originalmente para analizar árboles de dependencia proyectiva,a dos subclases de árboles de dependencia bien anidados con un grado de bloque como máximo 2. Hemos mejorado el tiempo de ejecución sencillo y simpótico de dos algoritmos existentes,sinpérdidasignificativaencobertura.Conelmismoobjetivodemejorarlaeficienciadeanálisisparasubclasesdeárbolesnoproyectivos,en un trabajo muy reciente Pitleretal.(2013)han propuesto un algoritmo O.n4/time para una subclase de árboles no proyectivos que no están bien anidados,usando un enfoque que es ortogonal al que hemos explorado aquí. Aparte del análisis de dependencia,Nuestros resultados también tienen implicaciones formalismos de estructuras de frases ligeramente sensibles al contexto.,algoritmo real(cid:144)5puede adaptarse a subclase de parsea flexicalizado gramáticas contiguas a árboles,mejorandoelresultadoporEisnerySatta(2000)deO.n7/aO.n6/.Similarmente,el algoritmo de(cid:144)6se puede adaptar a una versión analizada alexicalizada de las gramáticas contiguas a árboles investigadas por Satta y Schuler(1998),mejorandoana¨ıveO.n7/algorithmtoO.n5/.
yo
D
oh
w
norte
oh
a
d
mi
d
F
r
oh
metro
h
t
t
pag
:
/
/
d
i
r
mi
C
t
.
metro
i
t
.
mi
d
tu
/
t
a
C
yo
/
yo
a
r
t
i
C
mi
–
pag
d
F
/
d
oh
i
/
.
1
0
1
1
6
2
/
t
yo
a
C
_
a
_
0
0
2
2
6
1
5
6
6
6
6
5
/
/
t
yo
a
C
_
a
_
0
0
2
2
6
pag
d
.
F
b
y
gramo
tu
mi
s
t
t
oh
norte
0
7
S
mi
pag
mi
metro
b
mi
r
2
0
2
3
278
ReferenciasManuelBodirsky,marcokuhlmann,y Mathias M¨ohl.2005. Dibujos bien anidados como modelos de estructura sintáctica. En las actas de la décima conferencia sobre gramática formal(FG)y Noveno Encuentro Sobre Matemáticas Del Lenguaje(MOL),páginas 195–203, Edimburgo,Reino Unido.SabineBuchholzandErwinMarsi.2006.CoNLL-Xsharedtaskonmultilingualdependencyparsing.En las actuaciones de la Décima Conferencia sobre Aprendizaje Computacional de Lenguajes Naturales(CONLL),páginas 149–164,Nueva York,EE.UU. Xavier Carreras. 2007. Experimentos con un analizador de dependencia proyectiva de orden superior. En las actuaciones de la sesión de tareas compartidas de EMNLP-CoNLL 2007, páginas 957–961, Praga,República Checa. Joan Chen-Main y Aravind K. Joshi. 2010. Inevitable mal anidado en el lenguaje natural y la adecuación de las estructuras de dependencia inducida por el MCTAG local de árboles. En las actuaciones de la Décima Conferencia Internacional sobre gramáticas contiguas de árboles y formalismos relacionados(ETIQUETA+),NuevoHaven,EE.UU. Jason Eisner y Giorgio Satta. 1999. Análisis eficiente de gramáticas libres de contexto biliéxico y gramáticas de autómatas principales. En las actuaciones de la 37ª reunión anual de la Asociación de Lingüística Computacional(LCA),páginas 457–464,Parque Universitario,Maryland,EE.UU. Jason Eisner y Giorgio Satta. 2000. Un algoritmo de análisis más rápido para gramáticas contiguas a árboles lexicalizadas. En las actuaciones del quinto taller sobre gramáticas contiguas a árboles y formalismos relacionados(ETIQUETA+),páginas 14–19,París,Francia.JasonEisner.1997.Gramáticas biléxicas y analizador probabilístico de tiempo cúbico.En las actuaciones del Quinto Taller Internacional sobre Tecnologías de Análisis(IWPT),páginas 54–65, Cambridge,MAMÁ,Estados Unidos.CarlosG´omez-Rodr´ıguez,juancarroll,yDavidJ.Weir.2011.Esquemas de análisis de dependencia y análisis de dependencia ligeramente no proyectivo.Lingüística computacional,37(3):541–586.AravindK.JoshiandYvesSchabes.1997.Gramáticas contiguas a árboles.En GrzegorzRozenbergyArtoSalomaa,editores,Manual De Idiomas Formales,volumen 3, páginas 69–123. Springer. Terry Koo y Michael Collins. 2010. Analizadores de dependencia de tercer orden eficientes. En las actuaciones de la 48.ª reunión anual de la Asociación de Lingüística Computacional(LCA),páginas 1–11, Upsala,Suecia. Marco Kuhlmann y Joakim Nivre. 2006. Estructuras de dependencia levemente no proyectivas. En las actas de la XXI Conferencia Internacional sobre Lingüística Computacional(COLECCIONAR)y 44ª Reunión Anual de la Asociación de Lingüística Computacional(LCA)Conferencia PrincipalPosterSessions,páginas 507–514, Sídney,Australia.WolfgangMaierandTimmLichte.2011.Caracterización de la discontinuidad en los bancos de árboles constituyentes. En PhilippedeGroote,MarkusHuevo,y Laura Kallmeyer,editores,Gramática Formal. XIV Congreso Internacional,FG2009, Burdeos,Francia,25 y 26 de julio de 2009, artículos seleccionados revisados,volumen 5591 de notas de conferencias sobre ciencias informáticas,páginas 167–182.Springer.RyanMcDonald y Giorgio Satta.2007.Sobre la complejidad del análisis de dependencia basado en datos no proyectivos.En las actuaciones de la Décima Conferencia Internacional sobre Tecnologías de Análisis(IWPT),páginas 121–132, Praga,República Checa.RyanMcDonald,FernandoPereira,KirilRibarov,y JanHajiˇc.2005. Análisis de dependencia no proyectiva utilizando algoritmos de árbol de expansión. En la Conferencia de Tecnología del Lenguaje Humano(HLT)y Conferencia sobre métodos empíricos en el procesamiento del lenguaje natural(EMNLP),páginas 523–530, Vancouver,Canadá.EmilyPitler,SampathKannan,y Mitchell Marcus.2012. Programación dinámica para el análisis de orden superior de árboles de detección de brechas. En las actuaciones de la conferencia conjunta de 2012 sobre métodos empíricos en el procesamiento del lenguaje natural(EMNLP)y Aprendizaje Computacional de Idiomas Naturales(CONLL),páginas 478–488,Isla de Jeju,República De Corea.EmilyPitler,SampathKannan,y Mitchell Marcus.2013.Findingoptimal1-endpoint-crossingtrees.TransactionsoftheAssociationforComputationalLinguistics.GiorgioSattayWilliamSchuler.1998.Restrictionsontreeadjoininglanguages.InProcedingsofthe36thAnnualReunionoftheAssociationforComputationalLinguistics.(LCA)y XVII Congreso Internacional de Lingüística Computacional(COLECCIONAR),páginas 1176–1182, Montreal,Canadá.StuartM.Shieber,YvesSchabes,y Fernando Pereira.1995.Principios e implementación del análisis deductivo. JournalofLogicProgramming,24(1–2):3–36.
Descargar PDF