- 签证留学 |
- 笔译 |
- 口译
- 求职 |
- 日/韩语 |
- 德语
利用语法角色的层级对Cf进行排序,对句子U1可以得到:
Cf(U₁): {John, Integra, dealership}
Cf(U₁): John
Cf(U₁): undefined
句子U₂包含两个代词:he和it,其中he与John一致,it与Integra或dealership一致。这里Cb(U₂)指John,因为是在U₂中提及的Cf(U1)的顺序最高的成员(是he惟一可能的所指对象)。我们比较it的每个可能所指对象的转换结果。如果假设it所指的是Integra,则指派将是:
Cf(U₂): {John, Integra, Bob}
Cp(U₂): John
Cb(U₂): John
Result: Continue (Cp(U₂)=Cb(U₂); Cb(U₁) undefined)
如果假设it 所指的是dealership,则指派将是:
Cf(U₂): {John, dealership, Bob}
Cp(U₂): John
Cb(U₂): John
Result: Continue (Cp(U₂)=Cb(U₂); Cb(U₁) undefined)
因为这两种可能性的结果都是继续(Continue)状态,算法不能确定应该接受哪种可能性。为了能够继续说明该算法,我们将假设根据在前面Cf中的顺序来打破这个平局。因此,我们将选择Integra而不是dealership作为it的所指对象,选择上面所列的第一种可能性为当前话语模型的表示。
在第三个句子U₃中,he既与John又与Bob一致,而ir与Integra一致。如果假设he指向John,则John是Cb(U₃),并且指派将是:
Cf(U₃): {John, Acura}
Cp(U₃): John
Cb(U₃): John
Result: Continue (Cp(U₃)=Cb(U₃)=Cb(U₂))
如果假设he指向Bob,则Bob是Cb(U₃),并且指派将是:
Cf(U₃):{Bob, Acura}
Cp(U₃): Bob
Cb(U₃): Bob
Result: Smooth-Shift (Cp(U₃)=Cb(U₃);Cb(U₃)≠Cb(U₂))
根据规则2,继续(Continue)优先于平滑转移(Smooth-Shift),则John被正确地选择为所指对象。
中心算法引入的主要显著因子包括:语法角色、新近性和重复提及等优先关系。但是与Lappin和Leass算法不同,语法层级对显著性影响的方式是间接的,因为确定最终所指对象指派的是作为结果的转换类型。特别是,如果低级语法角色的所指对象导致的转换是较高级别的,它将比高级角色的所指对象优先。因此,中心算法可能(常常不正确地,但不是总是)将其他算法认为是相对较低显著性的所指对象判定一个代词的所指对象(Lappin and Leass,1994;Kehler,1997a)。例如,在例句(3)中,
Bob opened up a new dealership last week. John took a look (3)
at the Acuras in his lot. He ended up buying one.
中心算法将Bob指派为第三个句子中主语代词he的所指对象,因为Bob是Cb(U₂),该指派导致的是继续关系,而指派John导致的是平滑转移关系。Hobbs和Lappin/Leass算法会把John指派为所指对象。
与Hobbs算法一样,中心算法也是基于这样的假设:以正确的句法结构作为输入。为了对自然产生的数据进行自动评测,中心算法将不得不引入详细说明,既包括句中所有名词短语在Cf列表中相互排序的方法(当前的方法仅包括某些语法角色的非嵌入填充者,只能生成部分顺序),也包括句中所有名词短语判定的方法,例如,回忆例句(1)的第二个句子中判定it时的不确定性。
而Walker(1989)对分布于三种体裁的281个例子的语料进行了中心算法的手工评测,并与Hobbs算法的性能进行了对比。评测假定以足够的句法表示、语法角色标注和选择约束信息为输入。
而且,对那些中心算法不能惟一指定所指对象的例句,只将Hobbs算法能够正确识别的例句计入中心算法的错误。在这种附带条件下,Walker报道中心算法的精度为77.6%,而Hobbs算法为81.8%。几种中心算法和Hobbs算法的比较可以参阅Tetreault(1999)。
责任编辑:admin