2016 年的人工智能和机器人又新学会了什么? | 目的地Destination

2016 年的人工智能和机器人又新学会了什么?

虽然现在已经是2017年了,但毫无疑问,2016年是人工智能大热的一年,人工智能技术也开始加速从研究转向应用。

说到人工智能又学会了什么?除去具体的研究和产品不谈,其实是要回答人工智能技术又应用到了什么领域上。以下列举了一些我认为2016年新产生的或者值得关注的应用领域:

1. 游戏(Gaming)

2016年人工智能界最大的新闻必然是AlphaGo,知乎上有很多关于AlphaGo的讨论,这里就不再赘述。

其他游戏形式也被广泛尝试,例如Minecraft。微软研究院[Project Malmo]

(为什么我们要让人工智能玩游戏:微软Project AIX)

在Minecraft中训练人工智能爬上游戏中的一座小山。这个任务似乎很简单,但要求AI能了解游戏中所处的环境,识别游戏场景中的关键目标和所需信息。AI需要跟人类玩家一样在游戏中适应环境,完成游戏目标。

2017年初人工智能还在扑克牌比赛中战胜了人类。

2. 计算机视觉(Computer Vision)

计算机视觉一直是人工智能中最受关注的技术之一,原因在于其拥有非常广泛的应用场景。之前人们比较熟知的领域主要是人脸识别、物体追踪、文字识别等方面。

2016年计算机视觉技术有了更深层次和更广泛的应用。

- 图像鉴别:包括色情鉴别、广告识别、暴恐识别、颜值和服装风格识别等。

- 无人驾驶:虽然无人驾驶技术已经不是2016年新产生的技术应用,但越来越多厂商加入到这一领域的战局并开始进行实测。

- 残障人士辅助:例如[Seeing AI]

(Seeing AI:计算机视觉十年磨一剑,打造盲人的“瑞士军刀”)

可以通过分析周围环境给视障人士提供信息。

- 改进图像质量:这一点就好像人们说的“脑补成功”。英国的创业公司Magic Pony(已被Twitter收购)采用人工智能,将模糊的图像或视频优化为高清版。这家公司展示了在实时的视频游戏直播中改善模糊画面,和把梵高自画像转换成一张逼真的照片。使用这样的技术,或许以后再也不用求高清大图和担心视频看不清了。

- 医疗协助:让人工智能来独立诊断病人或许还让人会产生各种各样的担忧,但人工智能技术已经确确实实地应用在了帮助医生减少误诊等方面。借助计算机视觉技术,人工智能不仅可以诊断X射线图像,为医生提供诊断依据,还可以分析ICU心电图,做提前预警。

- 艺术品介绍和推荐:计算机视觉技术可以识别艺术品的特征,找到相似的艺术品,为普通观者提供艺术品的更多信息,也为收藏家和客户提供艺术品推荐服务等。

3. 语音识别和语音合成

人工智能在语音识别领域的准确率也已经和人类不相上下了。2016年的语音识别技术除了提升准确率和广泛应用到个人助理和智能硬件(如智能手表,智能音箱等)外,也在其他方面有了很大进步。

语音合成技术除了在向更加拟人的方向进步外,还在音乐生成方面有了一些成果。

- 声纹识别

- 作曲:Google的Project Magenta将Machine Learning用于音乐创作,谱出了一段[90秒的旋律]

(So, let's talk about this song a Google Brain machine composed)

4. 自然语言处理(NLP)

- Concept Learning:人工智能可以理解一段文本中的某个实体具体指什么。当我们说到苹果的时候,是在指苹果公司呢,还是水果呢?

- 写诗:还是Google,通过上千本爱情小说数据训练深度学习模型,使得其能够[写诗]

(Google Is Feeding Romance Novels To Its Artificial Intelligence Engine To Make Its Products More Conversational)

- 写剧本:在伦敦科幻电影节中,有位来自纽约大学的人工智能研究者Ross Goodwin,他用自己做的人工智能Benjamin写了一个剧本。Goodwin找来上世纪八九十年代的科幻电影剧本作为数据,让Benjamin来预测每个词后面的句子。

5. 情感计算(Affective Conputing)

2016年涌现出几十家研究情感计算的初创公司。

CMU计算机科学学院院长Andrew Moore也曾表示,[2016年是机器情绪识别的分水岭]

(Why 2016 Could Be a Watershed Year for Emotional Intelligence--in Machines)

2016年1月Apple收购了创业公司Emotient,这家公司通过面部表情来分析人的情绪。

除了计算机视觉上的情感识别,语音和文字上的情感识别研究也有很多成果。例如Amazon的Alexa就希望能够通过语音指令中的情绪做出有针对性的回应。

情感识别可以应用在诸如广告推送、安保监控和治愈自闭症等多个领域。

高准确度的情感计算要求从文字、语音和视觉的多个维度同时进行分析。同样一段文字用不同的语音和不同的表情说出来会有不同的情绪,同样的表情配上不同的语音和文字也有表达出不同的感情状态……

Emotibot在自然语言理解、语音识别和计算机视觉上都实现了情感识别,同时考量了三个维度,使得情感识别的最终结果更加准确。

目前Emotibot在自然语言理解方面也已经做出了22种文字情感的分类识别,在语音上分类出了7种语音情感(准确率81%),而在视觉上能识别分类出7种人脸表情(准确率95.63%)。多维度的情感识别使得机器人能够更加理解用户现在的情感状态,从而使得交互更加自然和人性化。

回答者为Emotibot Rearch Engineer,叶俊杰

来源:知乎 www.zhihu.com
作者:竹间智能 Emotibot

【知乎日报】千万用户的选择,做朋友圈里的新鲜事分享大牛。 点击下载

此问题还有 6 个回答,查看全部。

分享

2016 年的人工智能和机器人又新学会了什么?:等您坐沙发呢!

Leave your comment