领先公司就管理人工智能的保障措施达成一致
白宫宣布,人工智能领域的七家领先公司已承诺管理新技术带来的风险。
这将包括测试人工智能的安全性并将这些测试的结果公开。
来自亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 的代表与美国总统乔·拜登一起宣布了此次合作。
公司开发工具的速度加剧了人们对虚假信息传播的担忧,尤其是在 2024 年美国总统大选临近之际。
总统乔·拜登在周五的讲话中表示:“我们必须对新兴技术带来的威胁保持清醒和警惕,这些威胁可能——不一定,但可能——对民主和我们的价值观构成风险。”
上周,Facebook 母公司 Meta 也宣布了自己的人工智能工具 Llama 2。
作为周五签署协议的一部分,两家公司和美国政府同意:
- 人工智能系统在发布前由内部和外部专家进行安全测试
- 通过引入水印确保人工智能内容能够被人类注意到
- 关于人工智能的能力和局限性的定期公开报告
- 探索偏见、歧视和侵犯隐私等风险
目标是让人们轻松辨别在线内容何时由人工智能创建。
人工智能生成内容的水印是欧盟委员蒂埃里·布雷顿 (Thierry Breton) 在 6 月访问旧金山期间与 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 讨论的主题之一。
“我期待着继续我们的讨论——特别是关于水印的讨论,”布雷顿在一条推文中写道,其中包括他和奥特曼先生的视频片段。
在视频中,Altman 先生表示“很快,我想展示”OpenAI 使用水印所做的事情。
周五签署的自愿保障措施是美国朝着更严格的人工智能监管迈出的一步。
白宫表示还将与盟国合作建立一个国际框架来管理人工智能的开发和使用。关于该技术的警告包括它可能被用来产生虚假信息并破坏社会稳定,并且可能对人类构成生存风险 - 尽管一些专家表示世界末日的警告被夸大了。
欧洲也在准备自己的人工智能法案,该法案将适用于在欧盟开发和部署人工智能系统的每个人。它与美国新的合作协定有不少相似之处。监管的程度取决于每个应用程序产生的风险,从最小到“不可接受”。属于后一类的系统是完全禁止的。其中包括公共场所的实时面部识别系统、预测性警务工具以及类似于中国的社会评分系统,根据人们的行为给他们打“分”。
该立法还对“高风险”人工智能应用设定了严格限制,即那些可能“对人类健康、安全、基本权利或环境造成重大损害”的人工智能应用。
其中包括用于影响选举中选民的系统,以及拥有超过 4500 万用户的社交媒体平台,这些平台向用户推荐内容,其中包括 Facebook、Twitter、Instagram 甚至最新的 Threads。
该法律还概述了人工智能系统的透明度要求。
例如,像 ChatGPT 这样的系统应该披露其内容是由人工智能生成的,区分深度伪造的图像和真实图像,并提供防止非法内容创建的保护。
人工智能引起了很多关注,无论是积极的还是消极的。好消息是,政府和企业很早就对公众的许多担忧做出了反应,并先发制人地开始了监管。
封面图片:图片由 jcomp 在 Freepik 上提供