自然语言处理是计算机实现通用人工智能的最难挑战吗?

如题所述

在计算模型研究方面,有理性主义和经验主义两条研究路线可以走,即所谓的“规则方法”和“统计方法”。由于自然语言在本质上属于人类社会因交流需要而产生的符号系统,其规则和推理特征鲜明,因此早期NLP的研究首要采用规则方法。然而,一方面,人类语言毕竟不是形式语言,规则模式往往隐式存在语言当中(比如汉语的语法规则是相当的含糊不精确),规则的制定并不容易;另一方面,自然语言的复杂性使得规则很难既无冲突又能涵盖全部的语言现象,于是这种基于理性主义的规则方法使得NLP研究长时间停留在一种小范围可用的Toy阶段。直到大规模语料库的建设和统计机器学习方法流行开来后,NLP研究才逐渐走向了面向实用化的道路。统计方法省去了很多人工编制规则的负担,在模型生成方面自动评估特征的权重,具有较好的鲁棒性。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2017-12-11

目前人类对于自然语言的理解还停留在比较肤浅的层次,所做的工作也仅限于某一个特定的任务。利用人类自身的智慧标注好的知识,建立模型,然后使用模型。siri的任务在自然语言中被称为自动问答系统,也就是从大量的已经建立好的问题和答案中,找到或者组合已有的问题和答案来得到用户用户期望的答案,之后再通过语音合成说出来。语音合成目前已经做得非常好了,所以目前主要的困难还是集中在自然语言的理解中。目前的方法大致都是这种建立模型,训练模型,利用模型的方法。并没有很好的解决方案,当下最好的自然语言系统也只能做简单的模型式”理解“,并没有真正的理解语言本身。即使是当下最火的深度神经网络,也是一个模型式的方法,并没有跳出原来的框框。至少我以为,人工智能程序最终的目标应该是能从很少的公理出发,通过大量的阅读人类已有的知识,然后能够回答基于这些已经阅读过的知识的任何问题。

本回答被网友采纳
第2个回答  2017-12-11

通常传统的方法,当要采样一根光线在某个表面的散射方向时,我们都直接对那个表面Local的BRDF做一个重要性采样。这样做的问题是并没有考虑到场景全局的广场分布。这篇文章首先很巧妙的把Rendering Equation和Q Learning的Update function一项一项的对应了起来,然后把场景的表面离散化,在表面上再把散射方向的半球离散化,并在每个半球上保存一个Q Learning的记录。然后就一边做渲染,一边通过渲染的数据去更新这些记录。并且将光线散射时候的BRDF重要性采样换成对Q Learning记录的采样。对于场景比较复杂,采样困难的场景,这个方法能起到和Metropolis采样非常相似甚至更胜一筹的效果。最后再简单说说我个人对人工智能的方法用到图形渲染应用中的看法。简单来说,我还是觉得,AI、深度学习是一个用来逼近,或者说发现一个非常复杂的高纬度非线性函数的工具。但是图形中的许多问题,我们都是已经知道描述问的非常精确的公式的。例如渲染有渲染方程,物理模拟有各种物理定律。我个人认为这一部分根本的问题描述,我们不需要AI帮忙。例如我是不太相信现在的各种Colorization Network,Style Transfer,又或者GAN这一类同样是生成像素的算法,能对基于物理渲染带来什么实质贡献的,我不认为还是比较黑盒的神经网络能提供传统方法有的质量和精度。但是对于这些问题,虽然我们有精确的物理描述,但是在实际运用中,高效的求解往往还是非常有挑战性。例如渲染中的重要性采样,要做到真正全局范围内定理想采样,势必需要全局的统计各种信息。又例如图像降噪,其实就是要非常聪明的恢复那些因为采样不足而丢失的信息。感觉这一类问题,AI也许的确能提供一些非常有价值的帮助。上面分享的几篇文章都是很好的例子。

相似回答