城市频道
北京
河南
上海
江苏
大湾区
2024年11月23日
人工智能益处的最大化及其风险管理
2024-05-20 13:40:25
来源:中华商报
浏览量:1072
字体:
点击听新闻

由于人工智能具有模仿人类思维的独特能力,我们将需要制定一套独特的规则和政策,确保其能造福社会。

(编者按)国际货币基金组织(IMF)副总裁吉塔•戈皮纳特在最近发表的英文文章这种讨论了如何通过具有全球影响力的创新政策,实现人工智能益处的最大化并管理其风险,译文摘编如下。

18世纪以来,工业革命引发了一系列改革,彻底改变了整个社会的面貌。我们可能正处于一个新技术时代——生成式人工智能时代——的早期阶段,其可能引发类似规模的变革。

当然,从印刷术、电力到内燃机和互联网,历史上有许多技术都留下了它们的印记。通常情况下,人们需要数年、甚至几十年时间,才能理解这些进步的影响。生成式人工智能之所以独特,是因为它以极快的速度在整个社会扩散,并具有颠覆经济的潜力——更不用说重新定义何以为人了。这就是为什么全世界需要共同制定一套公共政策,确保人工智能被利用来造福人类。

关于人工智能的研究快速增加

它们表明:人工智能带来的影响可能是极为剧烈的。在一项最近的研究中,研究人员为453名接受过大学教育的专业人士布置了写作任务。其中一半的人可以使用ChatGPT。结果如何?ChatGPT显著提高了生产率:完成任务所需的平均时间减少了40%,成品的质量则提高了18%。

如果这种情况在广泛范围内也是这样,那么其带来的好处可能是巨大的。事实上,企业层面的研究表明,人工智能可以将年度劳动生产率增速平均提高2至3个百分点;一些研究甚至显示,这一数字会接近7个百分点。虽然很难从这类研究中得出加总的效果,但这些发现为扭转全球生产率增速的放缓趋势带来了希望——这一趋势已经持续了十多年。提高生产率可能会提高收入并改善全球人民的生活。

但技术的净影响是否是正向的,还远不能确定。鉴于其本质,我们可以预计人工智能将改变劳动力市场。在某些情况下,它可以与人类的工作形成互补,使之更加高效。在其他情况下,它可能成为人类工作的替代品,使某些职业变得过时。问题在于,这两种力量的净效应如何。

IMF的一份新工作文件深入探讨了这个问题。该研究发现,不同国家以及同一国家内部的这些影响可能有所不同,具体取决于劳动力的类型。与先前主要影响低技能职业的颠覆性技术不同,人工智能预计将对高技能岗位产生重大影响。这解释了为什么像美国和英国这样的发达经济体(其拥有较高比例的专业人士和管理人员)面临着更高的风险敞口:这些国家至少60%的就业属于高风险职业。

另一方面,高技能职业也可期望在最大程度上受益于人工智能提供互补的好处——想象一下放射科医生使用这种技术来提高分析医学图像的能力。出于这些原因,由于发达经济体受影响的劳动者占比更大,但只有一小部分可能在最大程度上提高生产率,因此这些经济体受到的总体影响可能更趋两极化。

与此同时,在印度等新兴市场,由于农业占据着主导地位,因而只有不到30%的就业岗位会受到人工智能的影响。在巴西和南非,这一数字则接近40%。在这些国家,人工智能带来的紧迫风险可能较小,但其提升生产率的机会也可能较少。

随着时间的推移,节约劳动力的人工智能可能会威胁到那些在很大程度上依赖劳动密集型部门的发展中经济体,这在服务领域尤其如此。想象一下印度的客服电话中心:被外包到新兴市场的任务可能重新回归发达经济体,并被人工智能所替代。这可能使发展中经济体在全球市场上的传统竞争优势面临风险,并可能使它们与发达经济体之间的收入趋同变得更加困难。

重新定义何以为人

此外,我们当然也面临着人工智能引发的众多伦理问题。

当前有关生成式人工智能技术的最新浪潮的显著特点在于:其能够将大量知识提炼成一组令人信服的信息。人工智能不仅能够快速思考和学习,现在它也能像我们一样表达。

这深深地困扰了包括尤瓦尔·哈拉里(Yuval Harari)在内的学者们。哈拉里认为,通过掌握语言,人工智能可以与人类建立密切的关系,利用“虚假的亲密关系”来影响我们的观点和世界观。这具有破坏社会的潜力。其甚至可能破坏我们对人类文明的基本理解,这是因为我们从宗教到国家的文化规范,都是基于被接受的社会叙事。

即便是人工智能技术的先驱们也对其带来的、威胁人类存亡的风险持谨慎态度。今年早些时候,超过350名人工智能行业的领军人物签署了一份声明,呼吁将人工智能带来的危及人类生存的风险作为一项全球的优先事项。如此一来,他们将上述风险与大流行病和核战争等同起来。

人工智能已经被用来辅助人们进行在传统上由人类做出的判断。例如,金融服务业迅速将这项技术用于各种应用之中,包括使用它来帮助风险评估、发放贷款、推荐投资等。但正如最近的另一份IMF文件所显示的那样,这存在着风险。我们知道,金融部门中的羊群效应可能引发金融稳定风险,而仅依赖少数几个人工智能模型的金融系统可能将这一效应推向极端。此外,由于这项极其复杂的技术缺乏透明度,当事情出错时,分析决策将变得十分困难。

数据隐私是另一大问题,因为企业可能会无意中将机密数据公之于众。而且,鉴于人工智能的内在偏见可能带来严重问题,依赖机器人来确定谁能获得贷款可能会加剧不平等。可以说,如果没有适当的监管,人工智能工具实际上可能会增加金融系统的风险并破坏金融稳定。

公共政策回应

由于人工智能跨越国界运作,我们迫切需要一个协调一致的全球框架,以在最大程度上利用这项技术的巨大机遇,同时尽量减少其对社会的明显伤害。而这需要稳健且明智的政策——在创新和监管之间实现平衡——以确保人工智能使人们广泛受益。

欧盟提出的按风险等级对人工智能进行分类的法律,是迈出的积极一步。但在全球范围内,我们并未达成共识。欧盟对待人工智能的方式与美国不同,而美国的方式又与英国和中国不同。如果各国(或国家集团)对人工智能采取自己的监管方法或技术标准,可能会减缓技术效益的传播,同时在国家之间引发危险的竞争。我们最不希望的是人工智能将加剧已经分裂的世界。

幸运的是,我们确实看到了一些进展。通过七国集团的广岛人工智能进程、美国的人工智能行政命令以及英国的人工智能安全峰会,各国表达了在人工智能方面进行全球协调的承诺,包括制定和(在需要时)采用国际标准。

最终,我们需要制定一套确保各方能负责任地使用人工智能的全球原则,以之帮助协调各地的立法和监管。

在这方面,该工作与各方就共同应对气候变化这一全球性问题开展合作有着类似之处。尽管《巴黎气候协定》有其局限性,但它为应对气候变化建立了一个共同框架,而我们也可以设想为人工智能建立这种框架。类似地,“气候变化问题的专家组织”——这是一个政府间气候变化专门委员会——可以成为人工智能组织的一个蓝图,正如其他人所建议的那样。我还对联合国在其“全球数字契约”中呼吁设立一个关于人工智能的高级咨询机构感到鼓舞,因为这将是迈向正确方向的另一步。

鉴于大规模失业的风险,政府还必须制定灵活的社会安全网,以帮助失业者,并重新启用劳动力市场政策,帮助劳动者保留在劳动力市场中。税收政策也应得到慎重的评估,确保税收体系不会支持不加区分地替代劳动力的做法。

对教育体系进行适当的调整,也将是至关重要的。我们需要培养下一代工人,使他们能够操作这些新的技术,并为现有的雇员们提供持续培训的机会。对“STEM”学科(科学、技术、工程和数学)专业人才的需求可能会增长。不过,通识教育的价值——这种教育教导学生思考人类面临的重大问题,并通过借鉴多个学科来做到这一点——也可能会增加。

除了这些调整之外,我们需要将教育体系置于人工智能发展的前沿。2014年以前,大多数机器学习模型都来自学术界;但自那之后,业界已经取代了这一地位。2022年,业界产生了32个重要的机器学习模型,而学术界只产生了3个。建立最先进的人工智能系统愈发需要大量的数据、算力和资金,不让公众来资助人工智能研究将是一个错误——这么做可以凸显人工智能的社会成本。

在决策者应对这些挑战时,包括IMF在内的国际金融机构可以在三个重要领域提供帮助。

首先,为了制定正确的政策,我们必须做好准备,应对人工智能对我们经济、社会产生的更广泛影响。国际金融机构可以通过在全球范围内收集知识来帮助我们更好了解这些影响。通过其监督工作,IMF在这方面处于尤其有利的地位。我们已经在贡献自己的一份力量,汇集来自我们机构内的各种专家,探讨人工智能对IMF及其成员国的挑战和机遇。

其次,国际金融机构可以利用其号召力,提供一个让各方分享成功政策响应措施的平台。分享最佳实践可帮助形成国际共识,这是朝着协调监管迈出的重要一步。

第三,国际金融机构可以通过我们的政策建议加强全球合作。为了确保所有国家都能从人工智能中获益,国际金融机构可以促进重要资源(如处理器和数据)的自由流动,并支持必要的人力和数字基础设施的开发。政策制定者们需要谨慎校准公共工具的使用:他们应在避免国家间割裂和限制措施的情况下,在技术的早期阶段支持其发展。对人工智能和相关资源的公共投资仍将是必要的,但我们必须避免陷入保护主义。

与人工智能共存的未来

由于人工智能具有模仿人类思维的独特能力,我们将需要制定一套独特的规则和政策,确保其能造福社会。而这些规则需要具有全球性。人工智能的出现表明,多边合作比以往任何时候都更为重要。  

这是一个挑战,需要我们打破自身的思维定势,考虑全人类的广泛利益。这也可能是我们在公共政策领域遇到过的最为艰巨的挑战之一。

如果我们确实已站在类似于工业革命的变革性技术时代的门口,那么我们就需要从过去的教训中吸取经验。科学和技术的进步可能是不可避免的,但它不必是无意识的。仅仅为了进步而进步是不够的:我们需要共同努力,确保朝着让更多人过上更美好生活的、负责任的方向前进。


来源:中华商报
评论 (0人参与)
评论列表 (0条)