摘要: 美国加州议会拟定的SB-1047法案旨在规范前沿AI大模型的发展,但法案中的某些条款可能对开源大模型的技术创新造成重大影响。AI领域的领军人物,包括吴恩达和Yann LeCun,对该法案表示严重关切,并认为它可能扼杀开源精神和技术创新。
引言
AI大模型作为推动技术创新的关键力量,正受到越来越多的关注和监管。加州议会拟定的SB-1047法案,虽然出发点是为了增强AI模型的安全性和透明度,但法案中的一些规定却引发了业界的广泛担忧。
SB-1047法案概览
SB-1047法案经过多次修订和审议,包含了对前沿AI大模型的监管措施。法案的关键条款包括对模型训练成本超过一定数额的定义、对非法用途的责任追究,以及对开发者的合规要求。
法案对开源大模型的影响
法案中的一些规定,如要求开发者对模型的潜在安全事故负责,以及对用户资料的提交和评估,可能会增加企业的合规成本,影响开源大模型的开放性和创新。
业界专家的抵制
吴恩达等AI领域的泰斗对SB-1047法案表示了明确的反对。他们认为,法案中的“连带责任”条款可能会导致开发者对开源大模型持谨慎态度,从而阻碍技术创新。
吴恩达的深度回应
吴恩达通过长文对法案进行了深度回应,指出法案中的危险范畴定义不合理,且对造成的伤害定义也存在问题。他强调,应该监管的是AI应用程序而不是大模型本身。
Yann LeCun的警告
Meta首席科学家Yann LeCun直言,SB-1047法案可能意味着加州科技产业的终结。他认为,法案的通过将对AI领域的发展产生负面影响。
业界的广泛担忧
除了顶尖专家,业界和普通用户也对SB-1047法案表示了担忧。他们认为,法案的监管过于严格,可能会影响开源领域的发展和创新。
结语
SB-1047法案的拟定引发了AI界的广泛关注和讨论。如何在确保AI技术安全、透明的前提下,保护和促进开源大模型的技术创新,是一个需要深思的问题。
暂无评论...