问答系统发展历程问答系统的研究经历了几个阶段。
从20世纪50~60年代开始,人工智能科学家就致力于研究基于知识推理的问答系统,其特点是:专家建立知识库,答案或者从知识库中检索得到,或者在知识库上经过推理得到。
推理主要是基于专家制定的启发式规则进行。
代表性系统是美国麻省理工学院开发的数学符号运算系统MACSYMA[1]。
基于知识推理的问答系统具有性能良好、回答准确、具有推理能力等优点。
但是这种方法也有明显的缺点:人工构建知识库非常困难,知识库规模和领域有限,如果问题超出了知识库的范围,则系统性能会很差。
20世纪90年代,随着互联网技术的发展,网络信息日益丰富,搜索引擎为信息获取提供了极大的便利,但却无法清楚地表达人们的意图,而且其返回的是网页,并不是确切的答案,因此不能很好地满足人们的信息需求。
为了弥补搜索引擎的不足,研究人员提出了问答式检索系统,如麻省理工学院开发的Start1、Umass开发的QuASM2和微软公司开发的Encarta3。
这类系统的主要特点是:利用信息检索以及浅层自然语言处理技术从大规模文本库或者网页库中抽取出答案。
与基于知识推理的问答系统相比,问答式检索系统不受知识库规模和领域的限制,更加接近真实的应用需求;与传统的搜索引擎相比,问答式检索系统接受的是自然语言形式的提问,对用户意图的把握更加准确,呈现给用户的答案也更加准确。
但是目前,问答式检索系统仅能处理有限类型的简单问题,如事实性的问题、定义性的问题等。
而且,由于只用到检索技术和一些浅层的自然语言处理技术,问答图灵测试让计算机具有人的智能,一直是科学家追求的目标。
1950年,阿兰·图灵(A. M. Turing)提出“图灵测试”:让一个人在不接触对方的情况下,通过一种特殊的方式和对方进行一系列问答;如果在相当长的时间内,他无法根据这些问题判断对方是人还是计算机,那么就可以认为这台计算机具有相当于人的智力,即这台计算机是能思维的。
自此,问答系统成为判断计算机是否具有智能(特别是语言智能)的理想模型。
美国认知心理学家奥尔森(G. M. Olson)认为,判别计算机是否理解自然语言的四个标准是:问答系统(question answer-ing)、文摘(summari z ation)、复述(paraphrase)和机器翻译(machinetranslation)。
计算机只要达到四个标准之一,就认为它理解了自然语言。
赵 军中国科学院自动化研究所从问答系统看知识智能关键词:问答系统 知识智能1 /。
2 /IRLab/11-743s04/。
3 /。
式检索系统几乎没有推理能力。
2011年,IBM研发的问答机器人沃森(Watson)在美国智力竞赛节目“危险边缘”(Jeopardy!)中战胜人类选手,成为问答系统发展的一个里程碑。
沃森的技术优势大致可以分为三个方面:(1)强大的硬件平台:包括90台IBM服务器、分布式计算环境;(2)强大的知识资源:存储了大约2亿页的图书、新闻、电影剧本、辞海、文选和《世界图书百科全书》等资料;(3)深层问答技术(DeepQA):涉及统计机器学习、句法分析、主题分析、信息抽取、知识库集成和知识推理等深层技术。
然而,沃森并没有突破传统问答式检索系统的局限性,使用的技术主要还是检索和匹配,回答的大多是简单的实体或词语类问题,而且推理能力不强。
随着Web2.0的兴起,基于用户生成内容(User-Generated Con-tent, UGC)的互联网服务越来越流行,社区问答系统应运而生,例如Yahoo! Answers4、百度知道5等。
据统计,2010年,“Yahoo! Answers”已解决的问题达10亿个;2011年,“百度知道”已解决的问题达3亿个,而且这些社区问答数据覆盖了用户知识和信息需求的方方面面。
问答社区的出现为互联网知识分享提供了新的途径和平台,也为问答技术的发展带来了新的机遇。
科学家们开始研究如何对海量社区问答数据进行有效的挖掘和利用,从而回答用户提出的新问题。
无论是问答式检索系统还是社区问答系统,都是建立在大规模语料库基础上的,其主要技术手段是检索和验证。
知识库的匮乏一直是影响问答系统智能化的重要因素。
在问答系统方面,对知识表示和推理技术并没有进行深入系统的研究,因此,目前离智能问答系统的目标还有相当大的距离。
开放知识库成为智能问答突破的关键为了实现智能问答,需要理解文本信息的语义,将自然语言表示的知识转化为计算机可以理解的形式化表达。
事实上,科学家们一直在以专家建造的方式努力描述知识。
问答系统所用到的知识可以粗略地分为语言知识和世界知识。
语言知识表示资源最典型的代表是英文知识库WordNet、FrameNet、北京大学现代汉语语法信息知识库、HowNet等。
世界知识表示资源最典型的代表是Cyc(来源是“encyclopedia”),该项目是在人工智能鼻祖道格拉斯·莉娜(Douglas Lenat)带领下实现的目前全世界最大的完全由人工建立的常识知识库。
虽然目前它已包括500万条专家定义的断言,涉及50万个概念、3万个关系,但还远远不能满足问答系统对知识的需求。
为了突破知识表示资源的瓶颈,学术界一直尝试利用信息抽取技术从海量网络资源中自动抽取知识建立知识库,涉及实体识别、实体消歧和关系抽取等关键技术。
卡内基梅隆大学在美国国防部高级研究计划署(DARPA)、美国国家科学基金会(NSF)、谷歌和雅虎的共同资助下正在开展“Read the Web”项目。
该项目致力于研发一个不停学习的计算机系统——NELL(Never-EndingLanguage Learner)[2],不间断地从互联网上抽取和挖掘知识,构建可以支持多种智能信息处理应用需求的海量规模网络知识库。
有代表性的工作还包括:华盛顿大学图灵实验室的TextRunner[3]、ReVerb[4]、R2A2[5]、WOE[6]、OL-LIE[7],德国柏林工业大学DSIM组的Wanderlust[8]、KrakeN[9],德国马克斯普朗克研究院(MaxplanckInstitute)的PA TTY[10]和ClausIE[11],微软研究院推出的Probase[12]。
工业界从另一个角度进行了全新的探索——以群体智慧的方式建设知识资源,并取得了丰硕成果。
2001年,第一个用户可编辑的“互联网百科全书”网站——维基百科正式面向公众开放,该平台支持网民自助建设知4 /。
5 http://z /。
识资源。
截至目前,维基百科已经构建了涵盖287种语言的3000多万条知识条目。
维基百科的发展给知识库资源的建设带来了新的生机。
但它仍然是面向人的知识,由于形式化程度不够,同时缺乏语义描述,计算机使用起来仍然很困难。
因此,业界开始基于维基百科生成计算机可利用的知识库,其中YAGO、DBpedia、Freebase、KOG/kyliy、PORE都是基于维基百科自动生成的知识库。
由于这些资源涵盖不同领域的知识,内容也随着人类知识的增长而不断丰富,因此引起了搜索引擎巨头的极大关注。
谷歌于2010年收购了Freebase6后,一直致力于构建相互关联的实体及其属性的巨大知识图表Knowl-edge Graph,并据此建立了谷歌语义搜索。
谷歌搜索部门高管艾米特·辛格尔(Amit Singhal)表示:“谷歌在知识图表的支撑下,能够将网页上的单词转变为带有属性的实体,使机器能够更加精确地理解语义信息,从而实现从基于关键词的字符串到基于实体的语义匹配。
”目前,该知识图表已经包含了超过两亿个实体。
在国内,百度和搜狗也分别推出了雄心勃勃的计划——“百度知心”和“搜狗知立方”。
智能问答的研究重点学术界和工业界在知识图谱建设方面的显著成果为智能问答系统技术的突破奠定了基础。
在知识图谱的支撑下进行问答成为近年来的研究热点。
科学家们围绕实体消歧、关系映射、问句的语义解析以及知识的学习和推理等关键技术问题进行了深入探索。
实体消歧命名实体歧义指的是一个实体名在不同的上下文中可以对应到不同的真实世界实体的语言现象。
例如,给定三个包含实体名“华盛顿”的句子:美国开国元勋华盛顿;美国首都华盛顿特区;华盛顿州,位于美国西北部。
这三个句子中的实体名“华盛顿”分别指向实体“美国第一任总统”、“美国首府”和“美国华盛顿州”。
在知识图谱建设和问句语义解析等应用中,都需要确定文本中的实体名所指向的真实世界实体,这就是命名实体消歧。
高性能的命名实体消歧依赖于语义知识的利用,虽然互联网上存在多种知识源,但是由于知识源的多源异构性以及很多语义知识隐藏在知识源的深层结构中,计算机通常难以获取和利用这些知识源中的语义知识。
因此,研究多源异构知识源中语义知识的挖掘与集成方法,在命名实体消歧以及其他自然语言处理任务中具有重要的意义。
结构化知识源中的大部分语义知识都可以以概念关联的形式表示。
文献[13]提出了统一的结构化语义知识表示模型——语义图和基于图的结构化语义知识挖掘算法——结构化语义关联,来挖掘语义图中的显式和隐式知识。
实验结果表明,与传统的基于词袋子模型的实体消歧系统和基于社会化网络的实体消歧系统相比,结构化语义知识可以显著提升实体消歧的性能。
非结构化知识源中存在着大量概率化语义知识。
为了挖掘和集成概率化语义知识,文献[15]提出了基于语言模型的实体知识表示框架——实体语言模型,并基于此研究了文本语料库中的实体知识挖掘算法。
同时针对实体语言模型参数估计中的训练样本不足的问题,提出了两种基于文本语料库结构的训练样本挖掘策略:基于相似度结构的相关文档扩展和基于层次分类结构的相关文档扩展。
实验结果表明,实体语言模型能有效地表示实体知识,基于相关文档扩展和基于层次分类结构扩展的实体语言模型参数估计方法能显著提升实体知识挖掘性能。
为了充分利用实体指称项的上下文信息以及从多个知识源中挖掘出的概率化语义知识和结构化语义知识来构建高性能的实体链接系统,韩(Xianpei Han)等人提出了局部一致性和全局一致性模型[14]。
其中局部一致性模型将实体指称项建模为实体语言模型6 /。
生成的样本,全局一致性模型利用结构化语义关联对指称项上下文的主题一致性进行建模。
基于局部一致性和全局一致性模型,文献[14]构建了高性能的实体链接系统。
实验结果表明,基于局部一致性和全局一致性模型的实体链接系统可以获得良好的性能:与基于词袋子模型的系统相比,该系统的性能显著提升;与目前最新技术水平(state-of-the-art)的系统相比,该系统的性能也有一定程度提升。
关系语义分类实体语义关系分类是把非结构化文本变成结构化文本的关键技术。
例如,给定一个自然语言句子“斧子的把手是用紫杉木做的”(The [haft] of the [axe] is made of yew wood),我们需要判断两个实体“把手”(haft)和“斧子”(axe)具有部分-整体(component-whole)的关系。