2020年10月31日上午9点,由上海交通大学马克思主义学院科学史与科学文化研究院主办,上海交通大学文科建设处资助的“人工智能、伦理与文化高端论坛”在上海交通大学闵行校区图书信息楼9层会议室召开。上海交通大学马克思主义学院科学史与科学文化研究院院长李侠主持开幕式,上海交通大学马克思主义学院党委书记王震致欢迎词。这次会议由国内知名专家学者参与,主要围绕人工智能、伦理与文化主题进行了深入研究,借此契机探讨新时代以科技史、科学技术哲学、科技伦理等为代表的新文科的发展趋势。
中国自然辩证法研究会秘书长、中国科学院大学尚智丛教授以人工智能到底能否解决道德问题为开端。指出道德产生的先决条件是自我意识,而认识上的困境体现在缸中之脑思想实验中,人工智能在一定程度上亦是如此。缸中之脑最早来源于笛卡尔的我思故我在。作为主体的存在首先要有自我意识,针对自我意识才能谈论道德。但是目前为止,人工智能尚未具备自我意识,因此无法谈论人工智能的道德问题。那么,人工智能如何讲述道德问题?人工智能处理人类工作,而人的活动内含道德规范。机器在运行中必然存在着道德规范,而规范设计来自人工智能背后的编写者。那么到底预设怎样的道德?伦理学家进行多方讨论,宗教道德难以应用,世俗标准成为选择。如果出现问题,即使用功利主义标准,那么大多数该如何定义?不同的历史阶段基于其发展而不同,目前是限定在群体价值上,而现在所追求的普世价值,其实就是限定群体价值。因此,当谈论人工智能道德是什么的时候,其实是将程序编写者都认可的道德写入人工智能。
上海交通大学杜严勇教授以人工智能向何处去为问题开篇,从政府、技术、公众、关系四个维度进行分析论述如何构建友好人工智能。具体而言,在政府层面社会管理制度的发展进步。首先应加大人工智能对社会的影响研究;其次是努力实现人工智能时代社会的公平正义;第三加强对人工智能科技的监管与调控。在技术层面,首先实现人工智能技术的安全性,可控性与稳健性。其次人工智能算法、数据的公正性与透明性。第三是人工智能技术的人性化、伦理化研发与设计。公众层面则需要做到观点的调整与前瞻性准备。第一是积极应对人工智能对就业的影响;第二是人工智能威胁论及其克服;第三是思想观念的调整。在关系层面则需要做到伦理与法律的与时俱进。若是能做到如上四个维度则可能实现友好的人工智能。
北京大学周程教授提出,如果人工智能、科技史和哲学(科技哲学)都是一级学科后将会发生什么?学科门类的解决、自然科学基金的申请问题、人工智能在中国的大发展,这些都是我们将面临的情境。首先是人才培养的问题,若是依靠现在的人才培养机制能否满足人工智能的发展?第二,学院的建设是否需要?人工智能是一个典型的理工与人文互动的交叉学科。那么,当务之急是提早布局人才培养。虽然很多学科人才培养过剩,但是人工智能是一个新学科,那么对此人才需求量是会增加的。第三,人工智能学院的使命是什么?我们需要厘清人工智能到底是什么,如果还处于公说公有理婆说婆有理,那么很难发展,需要学界进行清晰的界定。在如何实现人工智能上,直指方法论的问题。第四是如何开发人工智能,资源如何配置,这是政策问题。第五是如何应用人工智能,这是价值论的问题。对于我们而言,现在需要解决定义问题,这是需要我们来回答的,否则人工智能无法走得更远。
中国科学技术大学徐飞教授认为,从应用的角度看AI是模拟、延伸和扩展人类智能的一种高新科技。在医学领域,AI的技术正陆续在智能诊断、医学影像、数据挖掘、药物研发以及健康管理等多个方面被广泛应用,给医生和患者带来效率和便利,但同时仍然有很多问题有待解决,其中最为突出的还是AI与人类智慧的差别,以及由这种差别导致的种种理论和实践难题。徐教授主要从以下几个方面进行论述:体能、技能与智能;医学AI中智能技术的由来;医学AI未来能否取代医生;医学AI的哲学审思;走向人机一体智慧医疗新纪元。徐飞教授认为,医学AI作为人类智能增强性技术,本质上依然具有工具的性质。在大力发展医学AI的同时,同步关注技术方案、应用规范的伦理考量,及时开展技术风险及预期治理的哲学反思,将成为AI健康走向未来的必由之路。
中国科学院大学李斌教授认为,目前对人工智能的讨论更多的脱离现实情况从而进入一种科幻情况。因此从“不对称性”概念的引入来解决科技与伦理问题。为什么要引入这个概念,引入这个概念后是否存在不对称现象,这个现象是由于科技的发展造成的。由不对称战争引入不对称的概念,然后从科技助力形成的三对不对称的现象展开,分析科技与伦理出现不对称的现象,最后提出利用不对称解决科技伦理的建议。
上海市自然辩证法研究会理事长、上海社会科学院哲学研究所成素梅教授认为,智能革命已使人类结成了命运共同体,在这个共同体中,人与人之间和国与国之间不在于有多么的不同,而在于相似性。智能革命的发展最终将会对工业文明釜底抽薪,成为工业文明的掘墓人和智能文明的缔造者。智能文明将是社会与技术高度纠缠的文明,也是深度拷问人类本质特征的文明。我们只有辨明了“人之所以成为人”的本质特征,才能有针对性地出台规范人工智能发展的约束机制和有效治理的全球标准,才能守护人的底线。要做到这一点,需要把曾经在工业时代位于边缘的哲学人文社会科学,置于智能文明时代的中心,而未来智能社会的重建充满了对人类智慧的更加严峻的考验。
上海交通大学李侠教授认为,随着近几年大数据的兴起, 数据挖掘技术以及算法的迅猛发展, 其潜在商业前景不可限量。时至今日, 我们尚无法准确研判大数据革命对于人类的存在状态到底会造成什么样的深远影响, 但至少在其早期应用中已显露出一些令人担忧的征兆, 整个社会已经开始逐渐感受到大数据对国家安全与个人生活的侵入以及权利的侵蚀。为了便于讨论,李侠教授对最近涌现出来的基于大数据的算法杀熟现象做了细致分析,指出:任何商家的算法通常都标榜:客观、中立、科学。然而,公众无法检验算法,它完全不透明、也从不受外界审查,我们不知道算法里预设了什么样的偏见与歧视。所谓的“杀熟”就是歧视性定价。基于这种现实引发三种矛盾:矛盾1:算法不透明VS人越发透明;矛盾2:个体的道德敏感性低VS算法通过小恶的累积,大概率杀熟;矛盾3:个体追责成本高VS算法违规成本低。期望通过生活中的一个常见视角,探讨在新技术面前人类的处境以及可能的解决措施。李老师提出完善与充实治理算法的政策工具箱是该行业进入规范与有序发展的当务之急。总之,对于算法的治理到了从政策引导、道德规训到出台法规三管齐下的时候了,这也是一个逐渐调整、相互支撑的治理过程,在此基础上各种基于大数据的算法的应用才是合规的。
长沙理工大学易显飞教授认为,“新兴增强技术”与“人工智能技术”既有区别也有联系。他在归纳学界对“技术与人文”的五种基本立场的基础上指出,当代新兴"情感增强技术"(EET)通过现代技术手段对人类的情感进行干预和调节,从而可以达到"增强"的目的,对其界定可以解构为关于情感内涵和范围的界定、关于"治疗"、"预防"与"增强"三者之间界限的划分以及会聚技术为代表的新技术变革下EET所包含的核心技术要素。当代新兴EET大致可以划分为医药技术型、基因工程型、纳米技术型、信息技术型、植入技术型、复合控制型等六大类型。与传统情感增强技术相比,当代新兴EET具有"前提的预设性"、"风险的高度不确定性"、"功能的逾越性"、"工具的植入性"、"技术的会聚性"以及"人的深度科技化"等特征。上述特征的出现,体现了当代新兴EET已经呈现出新的"技术范式",呈现出全新的“人文问题”。他认为,与传统增强技术完全不同的新兴“人类增强技术”,使人类增强自身的能力得到根本性提升。但鉴于其现存或潜在的各种人文风险,我们应以一定的人文标准作为参考系,合理引导人类增强技术朝着“合目的性”与“合规律性”统一的方向发展,真正造福人类。
此次会议的上半场由上海交通大学马克思主义学院科学史与科学文化研究院院长李侠教授主持;下半场会议由上海交通大学马克思主义学院科学史与科学文化研究院闫宏秀教授主持。会议过程中,在座的专家学者对每场学术报告进行了热烈的讨论,期待为建设中国人工智能研究的新局面而共同努力。最后,李侠教授致闭幕辞。在与会代表的掌声中,“人工智能、伦理与文化高端论坛”顺利落下帷幕。
摄影:周颖;审编:牟凯璇
主要信息来源:上海交通大学马克思主义学院官网