发布时间:2024-11-14 15:19:37 来源: sp20241114
近年来,人工智能(AI)技术的更迭让人目不暇接。语言模型领域取得重大突破的2023年刚刚过去,2024年,人们又迎来了视频和物理世界虚拟生成方面的突破。然而,在人工智能技术被广泛应用于科创、文化、教育、医药、交通等各行各业,甚至进入日常生活的当下,其被滥用的风险已开始引发担忧。
“深度伪造”真假难辨
使用人工智能算法生成的高度逼真的虚假图像、音频和视频等,被称为“深度伪造”内容。自这一概念于2017年首次出现以来,借助该技术诈骗或操纵舆论的事件在全球愈加频发。以美国为例,过去一年里人工智能诈骗事件同比增幅超过了50%。
然而时至今日,人们仍未能有效解决该问题。这是因为,人工智能造假能力的进步速度远远超过了信息识伪技术的开发速度。如今,任何人都可以快速地、低成本地生成难辨真假的图像、音频甚至视频,而且难以追踪。与之相反,识伪技术则因在主题和软件方面具有特异性,难以得到普及。此外,核查事实需要花费更多时间精力。据日本瑞穗研究所及技术公司的调查,70%的日本受访者认为互联网上的信息很难判断真假,但只有26%的受访者表示在接触可疑信息后会进行某种程度的验证。
今年年初,世界经济论坛发布《2024年全球风险报告》,将人工智能生成的错误信息和虚假信息列为“未来两年全球十大风险”之首,担心其会使本就两极分化、冲突频发的全球形势进一步恶化。考虑到2024年是全球“大选年”,70多个国家或地区将举行重要选举,人们担忧人工智能会被武器化,被用来误导选民、诽谤候选人,甚至煽动暴力、仇恨和恐怖主义。
“2024年的美国大选将出现人工智能生成的虚假信息海啸。”正如美国布鲁金斯学会技术创新中心高级研究员达雷尔·韦斯特所言,美国大选刚刚迎来初选阶段,就已经有人试图利用“深度伪造”操控选民了。今年1月,美国民主党初选在新罕布什尔州举行,很多选民表示在初选前接到了“来自美国总统拜登的电话”,电话里“拜登”建议选民不要参与初选,应该把选票留到11月大选时投给民主党。这则电话实际上是拜登竞争对手迪安·菲利普斯的政治顾问克雷默安排的。他利用人工智能模拟了拜登的声音,并拨给了最有可能受影响的选民。克雷默甚至直言:“只需要500美元,任何人都可以再现我的行为。”
业内人士担心,“深度伪造”内容的泛滥会让公众完全失去对自身感官的信任,真实信息也同样会遭到更多质疑。比如2016年,特朗普曾极力宣称与其有关的一份丑闻录音是捏造的。若此事发生在当下,他的诡辩可能更具说服力。
类似的问题已在全球多国出现,然而技术的发展走在了各国的法律和行业规范之前,目前不得不更多依赖科技公司的“自我监管”来解决问题。在2月举行的第60届慕尼黑安全会议期间,全球多家科技企业签署协议,承诺将共同努力打击旨在干扰选举的人工智能滥用行为,包括开发识伪工具,同时在生成图像上添加“非现实内容”标签及电子水印以明确其来源。部分企业还在考虑禁止政治候选人图像的生成。然而,有媒体认为上述协议仅勾勒出一些最基本的原则,并没有写明企业履行承诺的具体措施及时间表,空洞的集体表态更像是一场公关活动。更何况,科技公司对其人工智能产品进行主观调控,是否意味着会将公司的价值观强加给用户,这也是一个问题。
此外,电子水印技术尚存在不足。比如,“内容来源和真实性联盟”提供的水印只能被用于静止图像,而且“很容易被意外或故意删除”。因此,从源头控制虚假信息生成的难度、限制虚假信息在社交媒体的传播以及培养公众的批判性思维等,仍是各国解决“深度伪造”问题时不得不面对的难点。
“AI战争”的阴影
尽管公众对人工智能兴趣大增主要是由于生成式人工智能的发展,但多国军方早已将注意力投向了人工智能技术在战场上的应用,尤其是能够进行深度学习的自主武器系统。美国战略界把人工智能的发展与历史上核武器的出现相类比,美知名科技企业家埃隆·马斯克也认为,人工智能技术的扩散已让各国企业可以“在自家后院制造核弹”。
在当前全球最受关注的两场冲突中都能看到人工智能的应用。美《时代》周刊近日刊文将俄乌冲突称为“第一场人工智能战争”,披露美国科技公司帕兰蒂尔向乌克兰提供人工智能软件,通过分析卫星图像、无人机画面等情报提供打击敌军的最有效目标,并根据每次打击进行学习和改进。报道称,这些“人工智能军火商”俨然把乌克兰当作了其最新科技的最佳实验场。
在巴以冲突中,以色列军队已将人工智能技术用于摧毁无人机、绘制隧道网络地图,以及推荐打击目标。据报道,名为“福音”的人工智能系统让以军寻找攻击目标的效率提升了几百倍。不少媒体担心这可能意味着系统不仅锁定了军事设施,也在轰炸平民住所,“人工智能可能正被用于决定加沙居民的生死”。
而早在2020年就首次实验人工智能目标识别的美国,最近也广泛利用该技术定位也门的火箭发射装置、红海的水面舰艇,以及伊拉克和叙利亚的打击目标。
据美媒报道,美国军方还不断加强与OpenAI等领先企业的合作。2023年8月,生成式人工智能的浪潮掀起不久,美国防部数字和人工智能首席办公室便迅速成立“生成式人工智能工作组”。今年1月,OpenAI悄无声息地更新了其“使用政策”页面,删除了其中对“军事和战争”应用的限制,将条款改为更模糊的“禁止利用产品开发或使用武器”。不久后,该公司承认正与五角大楼合作开展包括研发网络安全工具在内的多个项目。近日,美国防部高级官员再次邀请美科技企业参加秘密会议,希望加速探索和实施人工智能的军事应用。
相关专家认为,人类在几十年间成功遏止核武器使用,靠的是各国间的战略协调。目前全球缺乏人工智能军事应用的国际治理框架,极易因技术失控导致冲突升级或引发军备竞赛,迫切需要尽快达成多边共识。联合国秘书长古特雷斯此前强调,联合国必须在2026年前达成具有法律约束力的协议,禁止在自动化战争武器中使用人工智能。
国际协调合作不可或缺
人工智能同时具有正反两方面的巨大潜能,需及时采取措施防范风险。2016年以来,各国陆续发布相关政策法规,但进展仍赶不上技术的进步。去年10月,拜登签署美国首项人工智能监管行政令,为人工智能建立安全和隐私保护标准,但被指缺乏强制执行效能。欧盟方面,虽然欧洲议会于3月13日通过《人工智能法案》,但是法案中的相关条款将分阶段实施,部分规则要到2025年才生效。日本执政党自民党直到最近才宣布计划在年内提议政府引入生成式人工智能立法。
无论是生成式人工智能带来的虚假信息问题,还是人工智能军事应用的风险,其影响都是跨越国界的。因此,人工智能的监管和治理应通过国际合作来解决,各国应共同做好风险防范,携手共建具有广泛共识的人工智能治理框架和标准规范。
然而遗憾的是,美国不仅从一开始就把中国的人工智能发展计划当作敌对行为,在布局人工智能军事应用时把中国视为假想敌,而且为了维持技术优势,长期阻碍中国技术进步。据报道,美政府不仅禁止美国企业对华出口处理能力最强的人工智能芯片,还要求美国云计算公司披露在其平台上开发人工智能应用程序的外国客户姓名,试图借此阻断中国企业访问数据中心和服务器。
人工智能的发展治理攸关全人类命运,需要群策群力、协调应对。在人工智能领域搞“小院高墙”只会削弱人类共同应对风险挑战的能力。美国应切实尊重科技发展的客观规律,尊重市场经济和公平竞争原则,停止恶意阻挠他国技术发展,为加强人工智能领域的国际协调合作创造良好条件。
(责编:杨曦、陈键)