律师:人工智能法案具有“积极意图”,但可能带来“负担”结果

访客 44 0

人工智能 (AI) 模型正在以惊人的速度发展。主要开发人员在增强这些模型理解复杂查询并提供更有洞察力、更合理的响应的能力方面取得了重大进展。

OpenAI(广泛的人工智能技术的创建者)在 9 月 12 日的声明中强调了这一点。众所周知的 ChatGPT 模型,关于他们的新“草莓”模型。

这一开发,也称为 OpenAI o1 模型系列,将允许人们在响应之前更多地思考问题,“就像一个人一样”。

我们正在发布 OpenAI o1 的预览版 - 一系列新的 AI 模型,旨在在做出响应之前花更多时间进行思考。这些模型可以通过复杂的任务进行推理并解决比以前的科学、编码和数学模型更难的问题。 https://t.co/peKzzKX1bu

— OpenAI (@OpenAI) 2024 年 9 月 12 日

模型还能够“完善他们的思维过程,尝试不同的策略,并开发者表示:“认识到他们的错误。”

虽然人工智能肯定不会占领世界,这也不是开发该技术的人的目标,但该技术的快速进步引起了立法者的担忧如果模型失控,则能够对其进行控制,并在开发阶段实施安全措施。 

桌面上的法案

过去一周,加州立法者继续通过影响加州居民和开发商的人工智能相关法案。 

其中包括第 1836 号议会法案,该法案禁止在未经事先同意的情况下未经授权使用人工智能生成已故人物的复制品,以保护表演者的权利和肖像。

然而,业界争议的主要法案之一参议院法案 (SB)-1047,也称为“前沿人工智能模型的安全和可靠创新法案”。

如果获得通过,该法案将主要影响主要的人工智能开发商,例如 OpenAI、Google和微软——谁拥有开发需要超过 10^26 整数或浮点运算 (FLOP) 且成本超过 1 亿美元的人工智能模型的资源。

相关:人工智能高管访问白宫讨论能源基础设施

开发人员需要训练和微调模型,以实现法案中概述的安全功能。这包括人工智能模型关闭功能、创建和保留书面安全协议、确保第三方年度审计以及向加州总检察长提交合规声明和事件报告。

该法案面临着所有开发商的强烈反对行业内的规模,他们说这扼杀了创新。 Cointelegraph 采访了 Haynes Boone 律师事务所的合伙人 Dina Blikshteyn,以了解这种情况是如何发生的。 

对开发者的影响

Blikshteyn 表示,该法案还可以扩展到小型开发者,对计算能力大于或等于 10^25 整数倍三倍的 AI 模型进行微调。r 失败,并且可以负担 1000 万美元的访问费用。

“该法案旨在防止人工智能模型造成的灾难,特别是通过实施关闭功能,”她说。

“但是,它可能会并不能完全消除风险,因为人工智能模型即使在关闭后也可能引发连锁反应,造成有害后果。”

她还指出:

“虽然该法案的意图是积极的,但对安全协议、审计的要求,合规报告可能被视为过度,可能会带来繁琐的披露和官僚要求,这可能会阻碍加州人工智能行业的创新。”

美国目前没有适当的联邦框架来监管人工智能模型的输出。然而,Blikshteyn 指出,加利福尼亚州和科罗拉多州等州正在制定自己的法规。 

州长加文·纽瑟姆 (Gavin Newsom) 办公桌上的规定将影响训练和访问所涵盖的人工智能模型的加州人。 

“较大的人工智能公司会“需要更多的人力来处理该法案的要求,”她指出,“这可能被认为是对小公司资源的消耗。”

“虽然大型人工智能公司不太可能离开加州,但州法律的变化和缺乏联邦监管的加强可能会促使规模较小的开发商在人工智能治理监管较少的州重新安置或开展人工智能工作。”

加利福尼亚州引领立法

尽管如此,Blikshteyn 强调了许多业内人士认为的事实: “联邦层面的立法为强大的人工智能模型设定了基本要求,这对消费者和开发者来说都是有利的。它还将为所有州提供有关这些要求的基线。”

SB-1047 已于 9 月 9 日提交给纽瑟姆州长,目前仍在等待决定。纽瑟姆对该法案发表评论称,他一直致力于“支持冒险但不鲁莽的理性监管”。然而,他也对我的潜力表示担忧。对竞争力的影响。 由于加州是全球科技创新的领导者,其有关人工智能的法律决定引起了全世界的关注。 

AI Eye:台湾人工智能无人机“地狱景观”计划,法学硕士太愚蠢,无法毁灭人类

抱歉,评论功能暂时关闭!