人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影(组图)
本文转载自BBC中文网,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。
如果说两年前ChatGPT的横空出世,掀起了全球AI浪潮,那么2025年初DeepSeek R1的发布与爆红,则真正让无数中国人第一次亲手触及了AI应用。
三月伊始,中国通用人工智能代理(AI Agent)Manus迅速崛起,成为该领域的新星。尽管伴随着“套壳”争议,但它仍颠覆了大众对AI的认知——不再只局限于对话框里的文字生成,而是能真正行动起来,在你的手机屏幕上自主操作。
图像来源,Getty Images
Manus的爆火与争议,恰恰折射出AI发展已进入真正意义上的“日新月异”阶段:模型迭代、应用创新的速度,远远超出了普通用户的适应能力。这种飞速演进带来的不仅是惊叹,更是对潜在风险的深切担忧,监管问题也随之浮出水面。
中欧国际工商学院决策科学与管理信息系统教授谭寅亮向BBC中文指出,目前亟需监管关注的AI风险主要集中在三个领域:深度伪造技术的滥用、个人隐私保护,以及公共基础设施安全防护。
各国各地区虽已意识到AI潜在危害,并相继推出不同程度的监管措施,但这些探索仍处于初级阶段。受访专家指出,监管面临两大关键难题:一是如何拿捏监管尺度,使创新与风险之间达到微妙平衡?二是在去全球化背景下,如何实现国际协调,以达成全球范围内对AI的有效监管?
“‘汽车’已经发明,所以要编交通规则”
图像来源,Getty Images
每一次新技术的诞生,总伴随着新的风险。
汽车问世之初,交通事故随之而来,人类不得不制定限速规则、道路规范、安全标准,以求驾驭这项技术。然而,即便如此,全球每年仍有超过一百万人因交通事故而丧生。
今天,轮到人工智能了。
与汽车类似,AI在带来巨大便利的同时,也催生了前所未有的安全隐患。
联合国“AI For Good”(AI向善)项目创始人、物理学家莱因哈德·肖尔(Reinhard Scholl)对BBC表示,汽车发明之后,我们需要制定交通规则。AI的逻辑是一样的。
但AI的复杂性远超汽车。“人工智能内部算法复杂,推理过程呈现典型的黑盒模式,具有涌现性,”中国社科院学者张其仔和李伟在论文中指出。这意味着AI的输出结果难以预测,并可能产生“人工智能幻觉”——看似合理却违背常识的结果,从而引发误解、误判、误用,甚至误导决策与行动。
这种风险已经不再是理论上的假设,而是现实中的存在。
今年2月,BBC发布的一份报告显示,包括OpenAI的ChatGPT、微软Copilot和谷歌Gemini在内的多款AI引擎,在生成新闻摘要时出现了“显著的不准确性”,甚至扭曲了原有内容。研究发现,这些AI助手对新闻问题的回答中,有51%存在重大问题,其中19%的引用内容出现事实错误,如错误的数据、日期或陈述;另有13%的内容被篡改或根本不存在于原文中。
BBC强调:“无论是电视、广播、数字平台还是AI助手,观众必须能够信任新闻内容的准确性。社会运转依赖于对事实的共同认知,不准确和扭曲的信息可能带来切实伤害。当这些错误信息在社交网络上传播,其危害更会被无限放大。”
不仅如此,更具破坏性的DeepFake技术,也已成为现实威胁。通过AI换脸生成色情视频,对名人乃至普通人的名誉和隐私造成严重侵犯。在韩国,这一问题已演变为严重的社会危机。
肖尔进一步指出,更令人担忧的是,人工智能降低了恶意使用技术造成伤害的门槛。“理论上,物理学家知道如何制造核弹,但实际操作却极为困难,”他说,“但如果有人想利用人工智能设计生物武器,他们甚至无需掌握太多专业知识。如果利用AI作恶变得足够容易,总有人会去尝试。”
中欧国际工商学院教授谭寅亮总结道:“人工智能应用于人类社会,最核心的是守住伦理底线,唯有如此,技术与社会发展才能真正实现可持续。”
图像来源,BBC/JOYCE LIU
中美欧的监管差异
作为AI技术的主要国家和市场,中国、美国和欧盟在AI监管上的态度和步伐截然不同。
步伐最快的是欧盟——作为全球首部全面监管人工智能的法规,欧盟的《人工智能法案》已于2024年8月1日正式生效,其中各项规定将会分阶段实施。
欧盟对AI治理的关注自2018年以来一直在发展,当时欧盟委员会设立了一个专家组,就AI问题向委员会提供建议并起草AI伦理使用和发展指南,由此产生了《AI法案》。该法律的主要理念是基于AI对社会造成伤害的能力来进行监管:风险越高,规则越严格。
比如,对“基本权利构成明显风险”的AI应用将被禁止,例如那些涉及处理生物识别数据的应用;而被视为“高风险”的AI系统,如用于关键基础设施、教育、医疗保健、执法、边境管理或选举的系统,将必须遵守严格的要求;最后是低风险服务,如垃圾邮件过滤器,将面临最轻的监管——欧盟预计大多数服务将属于这一类别。
中欧国际工商学院教授谭寅亮评价,欧盟的监管体现了重视公民权利、隐私和数据保护的文化和价值观,也受到其立法惯性的影响,但可能会限制市场的灵活性和创新速度。
图像来源,Getty Images 美国副总统万斯警告不要过度监管AI,称这样做将扼杀这个新兴产业部门。
监管最松的则是美国。目前几乎没有直接针对AI的联邦法规。
特朗普政府上台后,甚至试图进一步消除监管障碍,以促进美国开发的生成式AI和通用AI成为世界领先。
在2025年2月11日巴黎举行的AI峰会上,美国副总统万斯警告不要过度监管AI,称这样做将扼杀这个新兴产业部门。他还暗示其他国家监管AI的努力旨在阻碍美国AI发展,他表示,“一些外国政府正考虑紧缩对美国科技公司的管控。”
克兰菲尔·萨姆纳律师事务所的一篇报告认为,鉴于这种倾向,在不久的将来美国出现联邦监管制度似乎不太可能。然而,许多州已经介入并开始制定特定于州的AI法律和法规——2024年的近700项立法提案包含了与AI相关的要求,其中100多项已经通过。
“美国的监管方式可能有利于创新和技术突破,但可能会牺牲部分隐私和安全性。”谭寅亮认为,美国的自由市场传统强调个人主义和最小政府干预,这些都促使美国在AI监管上更侧重于市场的自我调节和技术创新,主要以倡议性文件和分散监管的方式来面对。
中国对AI的监管强度则处于两者之间,一方面,中国AI监管尚未立法,但出台了一个暂行管理办法;另一方面,人大常委会把对AI的立法列入未来规划。
中国现行的《生成式人工智能服务管理暂行办法》与一些其他中国互联网管理法规配合,主要规定包括:提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务;涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务;提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应履行算法备案和变更、注销备案手续。
“中国对AI的监管呈现出包容审慎的态度,采取先行先试的方式,在实践中摸索有效的监管路径,”谭寅亮认为,中国采取了一种平衡的监管策略,既注重产业发展又强调风险管理,在保障社会稳定和促进经济发展之间寻求平衡,注重监管的科学性和有效性。
此外,英国则在AI监管上出现立场转变。现任首相基尔·斯塔默宣称英国将采取比欧盟更积极的AI发展策略。尽管支持前政府成立的AI安全研究所,但他暗示保守党可能在AI安全问题上过度谨慎。前首相苏纳克曾警告人类可能失去对AI系统的控制,而现政府主张“先测试理解,后适度监管”。
跨国监管的愿景与挑战
图像来源,Getty Images 关于AI安全的国际间讨论还未产生实质性合作。
当前,国际社会正逐步通过国际组织、多边峰会、区域立法等途径,在AI全球治理的原则共识上取得了进展。
然而,各国步调不一,使跨国合作变得异常艰难。
事实上,早在ChatGPT爆火之初,联合国秘书长古特雷斯便召集安理会专项会议,警示AI风险。从网络攻击到核武关联,从技术故障到虚假信息泛滥,他直言“不作为就是渎职”。随后,联合国迅速成立由政商学界专家组成的“人工智能高级咨询委员会”,并发布了首份全球AI监管建议。
今年2月11日,包括中国、法国、印度、欧盟在内的60个国家和国际组织,在巴黎人工智能行动峰会上签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》。但美国和英国缺席。
期间,不断有声音质疑国际间监管AI是否现实可行。
维基百科创始人威尔士(Jimmy Wales)公开表示:“让联合国去监管AI,就像让它监管Photoshop修图软件一样荒谬。”
不过,对于理想的监管路径,谭寅亮提出了自己的设想。他认为,政府应采用动态平衡策略,避免监管滞后或过度干预。通过分层分段监管、沙盒机制和多方协作,在保障公共安全的同时,为技术创新留足灵活空间。此外,还需建立对AI数据的动态监测反馈机制,以便在技术快速演进中及时调整政策。
图像来源,Getty Images 对于理想的监管路径,有中国专家认为,政府应采用动态平衡策略,避免监管滞后或过度干预。
地缘政治同样影响着AI监管的可行性。拥有45年AI研究经验的IBM沃森系统前负责人皮埃尔·哈伦(Pierre Haren)向BBC直言:“全球监管注定失败。”他指出,一些国家根本不会接受这些规则。“我们生活在一个有朝鲜和伊朗这样的不合作国家的世界里,”哈伦说,“他们不会承认围绕人工智能的监管。你能想象伊朗一边寻找摧毁以色列的方法,一边关心AI监管吗?”
而伊朗、朝鲜恰恰是核武器扩散问题上的焦点区域。事实上,已经有不少讨论认为,对于AI的国际监管,应该仿照对于核技术的监管。
OpenAI首席执行官萨姆·阿尔特曼曾公开提议建立一个类似国际原子能机构(IAEA)的国际AI监管机构,负责检查系统、进行审计、测试安全标准,并限制高级AI技术的部署。他认为,这种机构可以专注于降低“存在性风险”,同时允许各国在其他问题上保留自主权。
尽管IAEA模式被广泛讨论,但其在AI领域面临诸多挑战。例如,AI技术的发展速度远超核能,现有机制可能无法及时响应。此外,全球政治分歧日益加剧,可能阻碍统一标准的达成。
即便如此,谭寅亮依然保持乐观。他坦言,人工智能发展中待解的问题可能远超人类现有认知,但相信人类智慧能够在多样性中尊重差异、寻求共识,并最终引领我们走向全球合作治理的未来。
拜登时代主管AI监管框架设计的阿拉蒂·普拉巴卡尔(Arati Prabhakar)在达沃斯论坛上表示,如果我们认真思考未来摆在眼前的任务——应对气候危机、提升民众健康与福祉、确保孩子们获得良好教育,让劳动者掌握新技能……很难想象不借助人工智能如何实现这些目标。在她看来,监管应该被视为实现目标的手段,而不仅仅是为了保护权利,换言之,监管Ai确实是保护国家安全的必要举措,但更是实现上述伟大愿景的必由之路。
本文转载自BBC中文网,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。