如果人工智能真的能够通过自我学习、自我思考,最终胜任很多原本只能由人来承担的工作,那么,人类社会将发生很大改变——
“深度学习”与人工智能的新挑战
5月27日,世界排名第一的中国棋手柯洁在与阿尔法狗(AlphaGo)的第三场比赛中再度落败,以0:3的比分结束了这次三番棋较量。
阿尔法狗的主要工作原理就是“深度学习”,即人们常说的多层次神经网络技术。这是它与过去其它智能程序所不同的地方。
人工智能程序,就是用人工的方法,模拟了生物的神经网络。以阿尔法狗为例,它通过两个不同的神经网络“大脑”来下棋,第一大脑是“落子选择器”,观察棋盘布局找到最佳的下一步选择。第二大脑则是“棋局评估器”,通过判断整体局面来辅助落子选择器,减少不必要的计算量。
事实上,这样的多层次神经网络技术早已存在,超过了50年的历史。但是,在很长一段时期,多层次神经网络技术一直未能在现实中付诸利用。美国天睿公司首席技术官宝立明就在2017 Teradata大数据峰会上表示,这一技术需要大量密集计算,计算时间较长,但随着计算机能力迅速发展,深度学习从理论变成了可行的现实。
那么,这样的技术,除了用于下棋,还能来做什么?
Deep mind首席执行官戴密斯·哈萨比斯就表示,要将阿尔法狗与医疗和机器人进行结合。英国则有一家公司在研发一种新的人工智能程序,在病人或医生说出症状后,程序可以在互联网上搜索医疗信息、寻找诊断方式和相应处方。如果这样的人工智能真的能够通过自我学习、自我思考,最终胜任很多原本只能由人而非计算机来承担的工作,那么,人类社会将发生很大的改变。正因如此,一些人将人工智能作为互联网之后,人类的一次新的技术飞跃。
但是,在这样的飞跃成为现实之前,人类必须处理好相关的伦理问题。早在人工智能成为现实之前,这样的问题已经在科幻剧中多次出现。早在2005年,美国哥伦比亚影片公司制作的电影《绝密飞行》,就讲述了加载在一部球形量子计算机中的人工智能战斗机“艾迪”的故事。影片揭示了人与人工智能机器合作过程中的一系列问题,比如,究竟该教给人工智能什么内容,如何控制人工智能,有了人工智能后人的工作意义等等。
人工智能不受人类道德约束,也没有人类情感,其行为更非现有法律所能控制,在大规模应用之前,这些问题势必引起新的争论。哈佛法学院网络法教授乔纳森·齐特林曾说过,随着计算机系统越来越复杂,人类的控制权正在减少,如果放手不管,不考虑道德伦理问题,“计算机系统的演化或许会令我们懊悔不已”。



×