当前位置:文档之家› 人工智能时代的危机与预防

人工智能时代的危机与预防

凭借处理能力的增强以及数据资料的增多,人工智能正处于快速发展的阶段。

今天,深度学习(deep learning)系统能模仿人脑的神经元层,处理海量的数据,自己教自己如何去执行一些任务,譬如识别和翻译,做得几乎跟人一样好。

结果,一些一直需要人脑参与的事情,大到解读图象,小到玩街机经典《青蛙过河》,现在也属于电脑程序能做的范围里了。

Facebook在2014年发布了名为DeepFace的算法。

这个算法可以识别相片里的人脸,准确率达到97%。

但必须注意的是,这些都是应用于某一具体领域狭隘的能力。

目前的人工智能是通过“残暴”的数据处理能力,来达到与人脑智力的“形似”,但至于如何模仿人的自主性、喜恶和欲求,成果则很少。

电脑还做不到随心所欲地思辨、判断以及选择,而这些都是人类智力的特征。

但与此同时,人工智能已经可以给人类生活带来巨大的改变。

人工智能现在已经能辅助人类,为人做的事带来助益。

国际象棋便是一例。

现在电脑可以下赢任何一个人。

不过,当今世界上最强的棋手并不是电脑,而是人与算法一起合力的团队。

这样的团队组合将延伸至人类其它的活动:医生有了人工智能的支持,从医疗图像中查出癌症的能力将大大增强;有了智能手机上装的语音识别软件,发展中国家读写能力欠佳的人便能更好地使用互联网;做学术研究时,数字助理可以建议你哪条假设更有机会成立;有了图像分类算法,可佩戴设备对着肉眼看到的真实世界“加上”有用的标注。

但也不是每个方面的效益都是正面的。

譬如,无论是对民主国家还是专制国家而言,人工智能都是监管人民的利器。

有了人工智能,政府便可以监听数以亿计的对话,在人山人海中根据声音或样貌特征轻而易举地找出它要找的人。

这就对自由造成了严峻的威胁。

尽管整个社会可以获得很多益处,但很多人会因为人工智能而处于劣势。

在计算机诞生以前,给老板计算数字的苦活常是由妇女来做,后来这些职位就让晶体管占据了。

同样,人工智能将来很有可能会让整个白领阶层捡包袱走人。

虽说教育和培训有助打工者适应这个变化,且人工智能带来的新财富会进入新的行业从而产生新的工种,但打工者依然难免经历颠簸。

但霍金、马斯克、盖茨他们担心的并不是监控和颠簸的问题。

他们担心的是近期好莱坞电影里的场景:自动化机器拥有了比人类更灵敏的认知能力,拥有了与肉身的人冲突的利益观。

这样的人工智能产品离我们还遥远得很,甚至可能永远也造不出来。

无论是心理学家、神经学家、社会学家还是哲学家,在对着人脑东敲敲西敲敲地研究了一个世纪后,依然没搞清楚人的思维是怎么回事,更不要说仿造出一颗人脑。

假如机器拥有自己的利益观和自主能力,即使这机器的智能不完整,只能用于某个用途,也绝非代表我们就可以放心使用:无人车跑起来比人开还好,这听起来挺赞的,但要是车有自己想去的地方,听起来可就不太妙。

这些相似的事物或许可以令人工智能的持疑派放心一些。

这些事物也喻示了人类社会如何可以安全地研发人工智能。

军队需要文官管理,市场需要监管,官僚需要问责、透明;同理,人工智能系统也必须接受监督。

由于系统的设计者无法预见所有的情形,还必须要有危急时刻拉闸中断的设置。

加入这些限制并不会妨碍进步。

大到核弹,小到交通规则,这些都证明人类曾成功运用技术和法律手段去管理威力强大的创新。

过度畏惧“自动化非人智能”的诞生,会令相关的讨论走偏。

诚然,人工智能会带来危机,但注意到危机的同时,我们也要看到其庞大的效益。

相关主题