人工智能发展瓶颈:人工共鸣是关键

人工智能
亿欧
张晨
2017-09-30 11:20
[ 亿欧导读 ] 人工智能的飞速发展提升了机器中人为因素的影响。就像人类一样,机器也会受到有不同伦理道德价值的人的影响。回顾人工智能简短的历史,我们遭遇了很大的挑战。但是为了确保人工智能没有以反面模具为典范,我们必须要克服这些挑战。
人工智能,AI,人工智能,道德规范,人工共鸣,AI,聊天机器人,小冰 图片来自网络

人工智能的飞速发展提升了机器中人为因素的影响。就像人类一样,机器也会受到有不同伦理道德价值的人的影响。回顾人工智能简短的历史,以聊天机器人一类的创新为例,我们遭遇了很大的挑战。但是为了确保人工智能没有以反面模具为典范,不会对用户造成伤害,我们必须要克服这些挑战。

人工智能的早期伦理道德困扰

人工智能早期的一些产品是凭借其强大的智能搜索功能在市场上出售。机器向用户学习,并且基于个人以及配置部分的喜好和行为做出个性化的建议。

随着人工智能功能的不断提升,微软公司向世界推出了一款更加受认可的智能机器产品—Xiaoice,也叫做“小冰”。小冰与前几代产品不同,因为“她”有着一个17岁女孩的性格。小冰可以通过自然语言提供情感支持,因此她也能够模仿用户的性格。此外,小冰还可以通过人类积极或消极的信号改变其用语或回应。

小冰于2015年7月在中国发布,在其鼎盛时期有超过四千万的用户。她的任务主要是过滤筛选一些特定的话题,包括有种族偏见的关键字以及政治禁忌。这一过滤筛选最终帮助小冰避免了很多伦理道德问题。然而对于人工智能来讲,尽管筛选是一个伦理控制工具,但对于人工智能来讲还是不够。

2016年3月,微软公司发布了人工智能聊天机器人Tay。和小冰一样,Tay也是基于学习算法,这一算法向Tay解释了人类话语的意思。然后Tay利用这一知识技能和其他人交流。然而,Tay配置的筛选程序是有限的,工作人员希望这样可以加快学习过程。与小冰相比,Tay的过滤显得微不足道而且最终也是不充足的。

由于Tay有开放特性,因此聊天机器人被恶意用户破坏了。他们使用政治敏感短语,向机器人灌输关于激进主题的煽动性观点来误导Tay。如此一来,微软公司不得不将其下线。事后想想,出现的问题其实是可以预测的。网络特性向Tay的使用者提供了一种匿名感和距离感,导致了不道德行为的发育。

人工共鸣与人工智能黑匣子

人工智能的道德挑战与人类所面对的是相似的。这也是开发人员应该考虑对人工智能有所限制,以此来确保人工智能机器人不会以有害或激进的方式与人交流。过滤筛选是一种选择,但进化适应使用机器学习功能的一些形式,与机器人可利用的信息相结合,正是实时伦理调适所需要的。

从某种意义上说,人工智能可以视为人类大脑智慧在数字形式上的再创造。当然了,人工智能版本的大脑将会包含如多重任务处理以及保持记忆等能力的极大增强。在人类大脑中,有一个特殊的部分,右缘上回可以识别共鸣缺失并且自动更正。通过模仿人类大脑右缘上回的功能,人工智能可以在处理潜在的道德问题方面前进一大步。

从共鸣到伦理性的跳跃将会需要额外的能力,但这将会是一个重要的组成部分。例如,Tay展示了用过滤来避免道德地雷的需求,同时也预示了需要人工智能的共鸣来适应不断变化的感情和道德。过滤与不断学习的共鸣能够帮助人工智能在道德伦理方面占有一席之地。然而,人工智能的其他应用就没有这么容易训练了。

人工智能作为一个概念早在20世纪50年代就已经存在了。创造的算法认识到人工智能被分为专门由人类创造的算法以及由机器自己创造的算法。人工智能早期的进步主要是由人类推动完成的。直到越来越多的产业实现计算机化以及大数据集的出现,由机器制造的人工智能算法才变为现实。人工智能黑匣子通过神经网络使得后一个趋势重现生机,也通过模仿人类大脑的构造促进深度学习。

最初,由于与人类大脑有相似之处,诸如人工智能黑匣子一类的系统被视为“神经网络”。像人类一样,人工智能的记忆也是以多重连接的强度进行编码,而不是存储在特定的区域。大脑如何产生关联并且得到结论在很大程度上是依靠黑匣子。同样地,在人工智能黑匣子里,我们知道怎么样创造这些网络,但是我们理解他们的程度远不如理解大脑本身的程度高。

现实世界的例子强调人工智能黑匣子与人类大脑之间的很多相似之处。一个著名的例子,展示人工智能黑匣子用于好的方面是西奈山医院(Mount Sinai Hospital)的深入患者计划(Deep Patient project),这一计划为超过70万患者将深度学习应用于病案中。研究人员将数据应用于深度学习系统来进行训练。然后深入患者计划在新病案中进行测试,证明其在诊断病情方面非常有用。不用任何专家的指导,深入患者计划发现了隐藏在医院数据中的模式,当人们有各种各样的疾病的时候,这些模式似乎有所显现。其诊断方法仍是一个谜,因为它是用深度学习来进行训练。然而,其结果却是非常有价值的,因为医生发现很难查明诊断条件。

很多人工智能以及深度学习应用在未来很可能不会存在,除非我们能找到方法,使创造者更容易理解其中的逻辑,使其用户更加负责任。这一人工智能是以人类为模板。像人类一样,人工智能不可避免地也会犯错误。因此使用人工智能技术需要有某种形式的管制来控制犯错误带来的不利影响。

接下来会怎么样?

人工智能负责任发展的第一步就是要在开发周期里结合道德测试。单元测试,负载测试以及用户测试早已经是软件发布周期标准步骤。在未来世界,我们也会偏向测试,透明测试,预测性测试以及很多新的未知的测试种类。

机器也许会学着发展它们自己的算法,但是人类有责任确保这些算法符合我们社会行为的标准。从其核心来讲,人工智能可以发掘出人性中最好的和最坏的一面。这也增加了需求,要确保人工智能在合适的情形中以正确的方法引进。就像社会是建立在预期行为的契约上,我们需要设计人工智能系统来尊重并符合我们的社会规范。

参与评论

相关文章

关闭
  • 精彩推荐
  • GIIS 2017家居家装产业创新发展大会
  • 2017新零售智能未来亿欧华东峰会
  • 亿欧智库:2017中国智能金融产业研究报告
  • 创业黑马—黑马评选大赛
  • 天工开悟 GMIC
  • 转型之战拥抱新零售
  • 为梦想加速

快来扫描二维码,参与话题讨论吧!

发送验证码
发送验证码
发送验证码
找回密码失败,请选择人工找回
如果你遇到下面的问题

我在注册/找回密码的过程中无法收到手机短信消

我先前用E-mail注册过亿欧网但是现在没有办法通过它登录,我想找回账号

其他问题导致我无法成功的登录/注册

请发送邮箱到service@iyiou.com,说明自己在登录过程中遇到的问题,工作人员将会第一时间为您提供帮助

账号密码登录

乐乐呵呵@微信昵称

该亿欧账号尚未关联亿欧网账户

关联已有账户

曾经使用手机注册过亿欧网账户的用户

创建并关联新账户

曾用微信登录亿欧网但没有用手机注册过亿欧的用户

没有注册过亿欧网的新用户

先前使用邮箱注册亿欧网的老用户,请点击这里进入特别通道
意见反馈
意见反馈
亿欧公众号 亿欧公众号
小程序-亿欧plus 小程序-亿欧plus
返回顶部