江晓原:发展人工智能实为“养虎遗患”
发布时间:2017.10.14

来源:记者团 编辑:林璧彤 见习编辑 刘星言 浏览次数:

记者团见习记者 陈淳一 摄


新闻网讯(记者团 见习记者 黄丹璇)随着科学技术的发展,人工智能给人类生活带来的便利早已不言而喻。然而都说科学是一把双刃剑,人工智能在推动社会进步的同时是否也带来了潜在危机?10月13号晚,上海交通大学讲席教授江晓原在我校的人文讲座上就这个问题发表了他的见解。


江晓原指出,人工智能的威胁可以分近、中、远三期来看——


就近期而言,人工智能的广泛应用相应地会带来大规模的失业。很多专家称未来95%的岗位可以被人工智能代替。但从来没有一个国家遭遇过失业率高达95%的情况,社会还没有做好安置大批失业者的准备。就算有福利制度来接济失业者,社会也会面临财富分配问题。当从业者的收入远高于失业者,则失业者的社会地位就会相应降低,社会矛盾也会变得易于被激化;而如果从业者的收入与失业者相当,从业者的工作积极性就会下降,社会发展也会受到影响。“总之,大批地失业是一种危机。”人工智能带来的另一个近期威胁是大规模的军事化。人工智能军事化无疑是在研发更多高效的杀人武器。除此之外,我们还要考虑其中的伦理问题。当人工智能可以用算法语句来直接判断是否处死一个人,杀人的权利实质上让渡给了人工智能。而且当人工智能机器出现故障杀错了人,我们找不到可以追责的人,法律也没有相关条款,这也可能导致社会秩序的混乱。


在大量的科幻电影中,人工智能的失控是常见的电影情节,这就是江晓原所提出的“中期威胁”。他认为, 人工智能一旦与互联网结合,借用高度发达的定制、物流等社会服务,几乎可以完全摆脱对所有伺服机构的依赖。当人工智能只是一个网上幽灵时,没有机体,没有形态,人类想要依靠“拔掉电源”来管控人工智能已是无稽之谈。有关专家说,人类可以给人工智能设定道德标准来严防其失控。江晓原从常识出发驳斥了这一观点:父母从孩子记事起就灌输诚信、仁爱等道德教育,但不可避免地,还是有部分人学坏了。那人工智能就不会“学坏”吗?


从远期来看,正如美国著名科幻作家阿西莫夫所认为的,依赖人工智能的文明都将衰亡。假设人工智能尽善尽美,人类既解决了失业问题,也不用担忧人工智能的失控,人类的生存处境也不容乐观。江晓原进一步解释说,当过分依赖人工智能,我们的机能和智能就会迅速退化,最终变成地球的寄生虫。人类的生存意义也会因此被彻底消解。


人工智能现在虽然还不能对人类构成毁灭性的威胁,但是养虎遗患。江晓原希望各大国可以坐下来谈判,签署一个禁止或至少限制研发人工智能的国际协定,这才是人类之福。


学校微博
单周单篇点击量排名