- 签证留学 |
- 笔译 |
- 口译
- 求职 |
- 日/韩语 |
- 德语
匹配算法假定知识库中的定指性名词短语的指代问题已经解决。在此,我们把这一假设放宽,使用期望匹配算法来确定指代。这个方法还是比较简单的,大致如下:如果对于每一个定指性名词短语都生成一个新的Skolem常数,那么,当解释与期望进行匹配时,需要一个等价性假设来使这个匹配成立。在这种情况下,等价性假设就确定了指代对象。
再考虑句子1b,这一次我们假定不知道代词所指代的对象。生成的Skolem常数为H1,第一个解释为:
解释 1:LIGHT1(E2)& Agent(E2)= H1 &Theme(E2)= Candle1
解释1和期望匹配的过程如前所述,不同的是这次有3个节点合并成功,分别对应于下面的3个等价性假设:E1=E2,Theme(E1)=Candle1和H1=Jack1。这样,在匹配的过程中就确定了代词的指代对象。在这个例子中,指代对象与给定中心约束得到的优先考虑的解释完全相同。
下面的两个例子说明了通用推理方法是怎样扩充中心技术的:
3a. Jack poisoned Sam. (Jack对Sam下了毒。)
3b. He died within a week. (他一周内死了。)
在这种情况下,句子3b的最自然的解释是Sam死了。但另一方面,如果句子3a的下文是这样的:
4a. Jack poisoned Sam. (Jack对Sam下了毒。)
4b. He was arrested within a week. (他一周内就被逮捕了。)
句子4b的最自然的解释就是Jack被判有罪。对于句子3b和4b,中心理论或者预测它们有相同的先行词,或者对这两种情况无法做出选择。而期望匹配算法能够确定正确的指代。例如,根据“Jack poisoned Sam”这一信息,可以生成下面的这些期望:
期望1: DIE(E4)&Theme(E4)= Sam1
期望2: IS-ILL(E5)& Theme(E5)=Sam1
期望3: ARREST(E6)&Theme(E6)=Jack1
句子3b(忽略了时态的表达)的解释为:
DIE(E7) & Theme (E7) = H1
E7将与期望1中的E4匹配,这样H1将指“Sam1”。而句子4b的解释为:
ARREST(E8) & Theme( E8) = H2
E8将与期望3中的E6匹配,那么H2将指“Jack1”。