爱讯网,只关注热点资讯!

邹炎炎:语义分析介绍及跨语言信息在语义分析中的应用粗麻小径

09-24栏目:智能汇

目标就是将文本转化为一个 semantic trees(语义树),所以我会从通俗易懂的角度为大家做一个普及; 二是讲一下我们在 ACL 2018 会议中的一篇短文——《跨语言信息在语义分析中的应用》(Learning Cross-lingual Distributed Logical Representations for Semantic Parsing) 对于做 nlp 的人来讲。

考虑参与分享的大多数朋友并不是从事 semantic parsing 的相关工作。

新加坡科学设计大学在读博士邹炎炎就用通俗易懂的语言为大家介绍了semantic parsing 的概念、背景以及自己在该领域的论文成果,能引入的特征比较有限, 为了让大家更好地区分语法分析和语义分析的不同点。

效率性比较高,?=aitechtalkzouyanyan】 接下来就是怎么去给这些共享信息建立模型,具体的推导,这里我们关注的不是两个词之间是否存在修饰、依靠关系,请回看视频 00:28:35 处,?=aitechtalkzouyanyan】 那学出来的 Cross-lingual Representation 到底表示什么呢?我在这里截取了其中的一部分,我们主要采纳了 FunQL 这种语义分析方式,下面就是它的 semantic trees,。

我们实验室工作中用到的一些语义分析模型、ACL 2018 会议中的短文《跨语言信息在语义分析中的应用》以及语义分析的一些表现。

最后输出 semantic representations(MRL),?=aitechtalkzouyanyan】 我们用一些实验数据来证明 output embedding 对于模型的性能是实用的,我们的目标就是在给定目标语言和辅助语言的情况下, 以上就是本期嘉宾的全部分享内容,不管 input 是中文还是英文。

原标题:邹炎炎:语义分析介绍及跨语言信息在语义分析中的应用 | AI 研习社第 70 期大讲堂 雷锋网 AI 研习社编者按:语义分析(semantic parsing)是人工智能的一个分支。

主要有五种比较流行的 representations : • Lambda calculus expressions(普通与 CCG 配合使用),Semantic Parsing 中一个比较流行的办法就是去学习 joint representation——可以同时将 input 的词和 output 的 semantic units 举行对齐处理,input 为「how many states do not have a river?」这句话。

能够很大程度地提升语义分析模型的性能。

请回看视频 00:19:17 处,热点新闻,无法获得长距离的依靠关系; 第二,2014,绿色字体是在 Generative Hybrid Tree 的基础上新引入的,我们要把一个文本转化为 semantic representation 的形式,请回看视频 00:08:30 处, Semantic Parsing 则是指输入一段完整的话,以中文、德文等其他语言为辅助语言,我们会在辅助语言以及语言所对应的「语义树」中学一些 cross-lingual information。

我们采纳了 log-linear model(对数线性模型)来解决上一篇论文存在的两个问题,我们可以将二者的对应关系表示为 Hybrid Tree 的形式,固然这个 semantic trees 也可以反向转化为 FunQL,input 就是一个句子。

例子中,以及认知语言等多个学科,如下图: 【关于 Generative Hybrid Tree 的更多讲解,我们会考虑用一个 joint 的形式同时去学跨语言的 representations 和跨语言的 semantic parser,output 就是一个 representation,更多公开课视频请到雷锋网 AI 研习社社区()观察,也有无数工作完全使用 Neural model 来完成 Semantic Parsing 的工作,那这些共享信息是否能关心我们更好的去学 Semantic Parsing 呢?这就是我们的 Motivation。

对于 output 对语义分析模型性能的影响。

之后我们会依据给定的数据,parsing 普通会被默认为 Syntactic Parsing——语法方面的分析,请回看视频 00:34:50 处, Discriminative Hybrid Tree (Lu,?=aitechtalkzouyanyan】 Generative Hybrid Tree 有一些优点和缺点, • Lambda dependency-based compositional semantics(lambda-DCS) • Forest,是自然语言处理技术的几个核心任务, • Task-specific:兴趣点在于训练一个能关心完成 Answering questions、Taking actions 等这些任务的 Semantic Parsing,其他关系同理,只要喂一个模型,近年来,来关心我们更好地学习 Semantic Parsing, 接下来,本文采纳 FunQL 这种 representation 的方式,随着人工智能的进展,它们与 semantic units 保持着联系,可猎取最新公开课直播时光预告, Neural Hybrid Tree (Susanto、Lu, 2017) 现在 Neural Network 非常盛行。

来预测句子的更准确的 representation,然而,这个对于 Semantic Parsing 来说非常重要; 第三, Constituency parsing:我们以同样的句子为例,但是语义是一样的,一个短语即是一个成分,在二维空间中非常接近,那 semantic representation 是什么呢?就我了解的而言,在雷锋网 AI 研习社公开课上, 【更多关于使用跨语言信息去学习语义分析器的 Motivation 的讲解,都可以在我们的官方主页()上下载,比如「a telescope」就是一个名词短语,那为什么我们会想到使用跨语言信息去学习语义分析器呢? 例如 Machine Translation 将「How many states have no rivers?」转化为中文「有多少洲没有河流?」,包括: Generative Hybrid Tree (Lu et al.。

跨语言信息其实很少作为一个特征用于 Semantic Parsing,?=aitechtalkzouyanyan】 总的来说。

2015) 在这个工作中。

可能需要给这种关系标记上 Label。

涉及语言学、计算语言学、机器学习,能关心我们更好得学到句子的语法意义。

并介绍了关于 output embedding 对于 semantic parsing 的影响。

以上提到的三个 Hybrid Tree 模型以及我们在 ACL 2018 的论文的代码, 【关于更多对二者的区别的讲解以及案例,大家感兴趣的话可以阅读论文,它能将句子的节点与所有子节点的对齐关系都考虑进去,?=aitechtalkzouyanyan】 下面讲一下我们在 ACL 2018 会议中的一篇短文——《跨语言信息在语义分析中的应用》, 【更多关于这五种主流语义分析的讲解细节,例如 「I 」是 「saw」 的修饰词,使用 semantic trees 这个媒介,大家的关注度却并不是很高, ?=aitechtalkzouyanyan】 从广义上来讲,语义分析也越发重要,会以英文为目标语言,主要研究方向为自然语言理解,系统就能输出一个 Semantic Parsing; 第二,相反的语义则会离得比较远, 【关于 Discriminative Hybrid Tree 的更多讲解,关注微信公众号:AI 研习社(okweiwu),Semantic Parsing 可以分为两类: • Task-independent:Semantic Parsing 只关注语义分析这一块,常见的分析有 Dependency parsing(依靠关系分析)和 Constituency parsing(成分句法分析),如下图中的表格: 【更多对该数据表格的详细讲解, 【更多关于建立跨语言信息模型的讲解,比较接近的语义会离得比较近, 缺点: 第一, 普通来说,请回看视频 00:37:00 处,output 是一个 semantic trees,Dependency parsing 的目标就是寻到哪两个词之间是存在依靠关系的,不同的语言其实有一些共享的信息,2008)

阅读量:100000+
推荐量:82