人工智能研究机构AI Now近期发布其《2023年度景观报告:对抗科技力量》(2023 Landscape: Confronting Tech Power)。报告认为,由于具备数据、计算能力和地缘政治优势,科技行业的权力集中成为人工智能政策面临的一大紧迫挑战。为此,围绕ChatGPT、算法问责制、生物识别监控、反垄断等关键要素,AI Now提出了一系列可行的破解之策。
没有大科技就没有人工智能。
在过去的几十年里,少数私人参与者积累了与国家相抗衡的权力和资源,同时开发和宣传人工智能,将其融入关键社会基础设施的建设当中。如今,人工智能遍及求职、医疗、教育、商品流通、交通秩序等各行各业,越来越频繁地影响着社会的发展轨迹。
【资料图】
与此同时,令人担忧的问题开始浮出水面:例如技术并不全都依照规定方式运转,且可能生成高错误率或歧视性的结果。人工智能的不透明性问题意味着我们可能无法完全了解和掌控这项技术。
究其原因,人工智能的核心属性说明了问题:它从根本上依赖于仅由少数大型科技公司拥有和控制的资源。
三个关键维度
大型科技公司在人工智能领域的主导地位体现在三个关键维度:
1、数据优势:那些能够获得最广泛、最深入行为数据的公司,在开发消费级人工智能产品方面占据主导。这反映在科技公司通过收购、合并扩大这种数据优势。科技公司已经积累了巨大的经济实力,这使它们能够将自己作为核心基础设施嵌入健康、消费品、教育、信贷等许多行业。
2、计算能力优势:人工智能从根本上说是一个数据驱动的行业,严重依赖用于训练、调整和部署模型的计算能力。算力的高昂造价和芯片材料的依赖性意味着人工智能需要具备规模效率和高技能技术工人等条件,而只有少数公司才能真正构建起人工智能系统的基础云和计算资源。这意味着尽管“AI初创公司”比比皆是,但它们只能成为大型科技公司“船体上的藤壶”——因为大型科技公司会利用其对必要资源的控制来遏制中小企业发展。
3、地缘政治优势:当前,人工智能系统不仅仅是商业产品,更是国家的战略经济和安全资产,人工智能公司也成为这场地缘政治斗争中的关键杠杆。
为什么是“大科技”?
本报告特别关注针对大型科技公司的政策干预。“大科技”(Big Tech)一词起源于2013年,现在通常用于指代Google、Apple、Facebook、Amazon和Microsoft(缩写为GAFAM),有时还包括Uber或Twitter等公司。
这些大公司积累了强大的网络效应、数据和基础设施资源。其经济实力使这些公司能够在社交媒体、医疗保健、教育和跨媒体等各个领域巩固优势地位。关注大型科技公司有利于对科技政策干预进行把握,理由包括:
① 便于监管机构调查大型科技企业的侵入性数据监视、对用户自主权的干涉、垄断以及歧视等重要问题。
② 大型科技企业对更广泛的生态系统产生了一系列连锁反应,激励甚至迫使其他公司加入进来。例如,谷歌和Facebook采用行为广告商业模式,推动商业监控成为互联网的商业模式之一。
③ 整个科技行业和政府对大型科技公司的依赖与日俱增。这些公司的核心业务战略是让自己成为基础设施,使自己成为技术生态系统中许多环节(如云计算、广告、支付系统)不可或缺的环节。如果这些公司在运营过程中出现问题,则容易引发连锁反应。
战略重点
基于上述背景,以下战略优先事项显得尤为重要:
1、责任倒置:在危害发生时,应当让公司证明他们没有造成损害,而不是由公众和监管机构在伤害发生后介入调查、识别和寻找解决方案。
2、打破政策领域之间的孤岛,更好地解决一项政策议程的进展对其他政策议程的影响,避免企业利用政策间的不一致来发挥自己的优势。
3、确定政策方法是否能够有效监管行业行为,并及时地调整战略,防止科技企业逃避政府监管。
4、超越对立法和政策的狭隘关注,接受基础广泛的变革理论。例如,可以利用股东提案让大型科技企业对侵犯人权的行为负责。
行动之窗:AI监管格局
围绕人工智能政策的关键需求,报告从大规模AI模型、反竞争行为、算法问责制、数据最小化、科技和金融资本、生物识别监控、国际数字贸易等方面阐述了未来AI的监管策略。要点包括:
1、削弱科技公司的数据优势。
数据政策就是人工智能政策,为遏制公司的数据优势而采取措施是限制科技公司权力集中的关键。因此,报告建议:
① 制定公司收集或生成消费者数据的明确限制规则(也称为数据最小化规则)。
② 在人工智能政策的制定过程中将隐私法和竞争法进行有效衔接,避免公司利用这些规则的不适配来为自己谋取利益。
③ 优化监管指南和执法措施,对企业的数据优势整合行为进行审查,使执法者能够在损害发生之前进行干预,制止滥用数据的行为。
2、改革竞争执法手段,降低科技行业的技术集中度。
① 遏制大型科技企业利用数据优势兼并其他公司,并在企业从事反竞争行为时对其进行调查和处罚。
② 推进反垄断法案的进程,为反垄断执法者提供更强大的工具来挑战科技行业特有的滥用行为。
③ 整合技术政策领域的竞争分析。确定互联网平台公司可能利用隐私措施巩固自身优势的场景,分析云市场的过度集中如何对网络安全产生连锁影响(例如,2017年亚马逊网络服务公司的云服务器发生导流故障,导致多个医疗保健和医院系统瘫痪)。
3、规范ChatGPT、BARD等大型模型。
① 从正在出台的欧盟人工智能法案中吸取经验,防止“通用人工智能”出现监管例外。警惕大型语言模型(LLM)和其他类似技术带来的系统性风险,倾注更多而不是更少的监管审查。
② 强制保留技术文档,从而确保这些模型的开发人员对数据和设计选择负责。
③ 贯彻竞争法,以遏制生成式人工智能的结构依赖性、解决反竞争行为,同时对人工智能系统建立公共责任制,防止对消费者和正常市场竞争造成损害。
4、反对将审计作为人工智能的主要政策监管方法。
① 越来越多的政策提倡对人工智能系统进行审计。但审计无法应对大型科技公司与公众之间的权力失衡,可能进一步巩固科技行业的内部权力,并且会分散对结构性风险的关注。
② 审计规则基于流程的性质使它很容易被公司内部化,淡化更为根本且重要的结构性变革方法,阻碍“利益相关者提出基本原则问题的能力,并将道德因素(即使系统完美地执行了任务,但是否代表该系统就是公正的?)从更根本的改革中排除出去。
③ 因此,报告建议对有害人工智能施加强有力的结构性改革措施,例如禁令、停业规则等。
5、防止生物识别监控在智能汽车等新领域的无序扩展。
① 实践证明,数据保护法在防止生物识别系统危害方面的监管并不到位。在这种环境下,全面明令禁止企业在某些领域收集和使用数据应当是未来政策干预的关键。
② 汽车制造商正在与大型科技公司建立合作伙伴关系,从而实现与汽车硬件系统的深度集成。然而,当下的生物识别实际应用已经蔓延到对情感、性格和意图的推断上。例如,用于跟踪送货司机的车内监控系统集成了情绪识别系统,声称可以监控司机的“注意力”,并密切关注潜在的攻击行为。该行为不仅可能不符合相称性、公平性和透明度原则,还可能具有歧视性影响。
③ 有鉴于此,欧盟人工智能法案已经提出要明确禁止情感识别,并将其列为最高级别类别的“不可接受风险”。另外,报告还建议应该更严格地执行数据最小化条款,以遏制虚拟现实和汽车等新领域中生物特征数据收集的扩展。
6、防止数字贸易协定削弱国家对算法问责制和竞争政策的监管。
① “数字贸易”规则可能会削弱数据隐私、算法问责制和科技行业竞争的监管效果。贸易协定包括具有约束力的国际规则,这些规则限制了政府监管商业公司的范围。由于谈判的保密性和相对不受公众政治压力的影响,它们已成为科技行业为争取优惠待遇而进行激烈游说的焦点。
② 然而,贸易协定中的非歧视禁令规则不应被视作大型科技公司免受国外竞争监管的工具。报告认为数字贸易协定树立了一个危险的先例:科技行业现在把贸易协定视为一个舞台,它们可以通过游说确立政策立场,从而形成对它们有利的规则。
③ 另外,贸易协议中对源代码和算法的保密规则不应该被当做削弱算法透明度的工具,监管当局应当对人工智能系统进行更主动和持续的监控。