点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
在谈及许多关键科学技术时,正确地指出其具有“双刃剑”性质固然是有益的,但既然预见到这种双刃剑特征,着眼于从一开始就未雨绸缪,将防范措施植入技术基因之中,无疑更为重要。那如何把向善基因植入人工智能,仅仅是通过算法写入那么简单吗?很多人开始为奇点(人工智能超越人脑智能的时刻)来临,进而人工智能不再受人类控制,反而取代人类成为世界主宰的可能情形忧心忡忡。这的确是一个问题。然而,在思考和准备应对这个问题之前,更应该关注的是在人类尚能支配、控制人工智能的时候,如何以自己的认识、理念、追求和动机引导人工智能技术的创造和应用。与人工智能接触最密切的科技人员、投资人、企业家和用户,都会成为上述主观意识的代理,从而推动形成不同的技术创新和应用方向。所以,人工智能创新向善这个理想目标,应该通过推动这些当事人形成正确的共同理念,进而做出合理行为和行动得以实现。
政府应该通过立法和规制,在体现针对人工智能的一般约束,如保护国家安全、个人隐私、知识产权、信息准确性、公序良俗等规范性目标的同时,把就业优先的理念转变成人工智能当事人之间的共同意图、约束性要求和激励相容行动。在理念上,首先需要设立一个保护劳动者和就业岗位的公共利益底线。由于就业作为民生之本,是人民生活品质、民生福祉和人的全面发展的基础保障,因此,在涉及资本与劳动、生产率与岗位、成本与收益及至效率与公平等权衡取舍时,理所当然应该把就业、民生和人的全面发展作为抉择标准,规范人工智能发展和应用的方向、路径和实务优先序。
在处理涉及这些方面的现实关系,甚至解决相互之间可能存在的冲突时,政府不应仅仅将自身视为一个发挥制衡作用的第三方机构,也不应简单地充当一个中立的裁决者,因此不能采取通常意义上的不偏不倚立场。这是因为在类似的关系中,通常不存在一个先天就存在的利益均衡点。事实上,劳动者和就业岗位天然便是弱势的一方,倾斜性地施加保护是一种符合社会利益的行为。同时,政府采取这种有意识的偏向,可以得到一些政治哲学思想的道义认同和理论支持。例如,美国哲学家约翰·罗尔斯的“社会正义”思想,就被视为现代收入分配和社会福利政策的哲学基础。罗尔斯关于“无知之幕”这样一种思想实验,设想人们在决定社会基本结构和分配原则时,犹如被遮蔽在幕布后面,不知道且不能自主选择可能具有的身份、地位、天赋、财富、信仰等个人特征。于是,为了在最不走运的情形下,自己的社会生活仍不至于陷入极端困境,人们一般来说愿意接受的社会福祉和社会保护的理念便是,为社会保护水平设置的边界水平,应该以社会中处于最不利地位的那些成员的需要来确定。诺贝尔经济学奖获得者约瑟夫·斯蒂格里茨对此做了一个补充,认为在这张无知之幕背后,人们同样不知道自己即将面临的风险。也就是说,政府在这个事务上的职责,正是确保这一原则的实施,从制度上天然地偏向于弱势的一方,即那些可能被替代的就业岗位和可能受伤害的劳动者。
确保这一原则得到充分体现的重要抓手,是构建一个就业友好型或岗位保护导向的法律、规制和产业政策框架。相关的内容应该包括:反歧视与促进公平就业,如推动算法透明化,避免在人工智能招聘工具中出现算法性别歧视和年龄偏见;建立“人类最终决策权”机制,确保涉及人机协作方式、员工雇用、大规模解聘,以及其他重大劳动关系的决策,均通过人为的程序和机制做出,或经由人工的严格复核;保护和拓展劳动者权益,把“平台零工”纳入社会保障体系和劳动力市场制度的覆盖;保障“人机协作”场景下的工作安全与健康标准。此外,把对劳动者的再培训纳入政府责任清单,作为企业的义务,分行业差异化维护效率与就业平衡、监测细分岗位变化、建立动态评估就业影响机制等做法,也应纳入规制范围,确保得到实施。
人机协作是人工智能保留和创造就业岗位的重要途径,劳动者与智能体之间的分工关系和性质,则是健康、有益、可持续人机协作的关键考量因素。有学者指出,人机分工协作应该重点关注以下关键因素。首先,复杂度越高的任务,自动化的可能性就越小。其次,执行频率越高的任务,越容易被自动化替代。再次,任务衔接的难度越大,特别是在任务可能出现碎片化的情况下,人机协作的难度也就加大。最后,任务产生的结果越是生死攸关,人的作用就越是超过人工智能。实施各种监管、规制和产业政策的目的,正是以岗位数量最大化和高质量就业为出发点,改变上述考量中各因素的相对权重,进而转变当事人的成本收益预期,使人类岗位与人工智能的相依相存关系达到合意的平衡。
(蔡昉,中国社科院学部委员)