8月27日马斯克于x上发文对颇具争议的加州人工智能安全法案做出表态,他表示这是个艰难的选择且可能会造成部分人的不安,但综合考量后他认为加州应该通过sb1047人工智能安全法案。他补充:「20多年来,我一直倡导人工智能监管,就像我们监管任何对公众构成浅在风险的产品/技术一样。」
sb1047旨在防止ai造成重大伤亡,遭ai新创及党内反对
根据报导这位亿万富翁所支持的人工智能法案全名叫做safeand secure innovation for frontier artificial intelligence models act前沿人工智能模型安全创新法案,又称sb1047法案。
该法案由民 主 党籍参议员scott wiener于今年二月提出,该法案要求人工智能开发人员实施安全协议,并为人工智能模型安装强制停止按钮,以防止大规模伤亡或重大网络攻击案件。该法案受到一众美国新创ai公司反对,包括openai。另外众议院院长nancy pelosi、众议院科学、太空和技术委员会的zoe lofgren、及硅谷选区的众议员ro khanna等一众民 主 党籍的加州众议员都反对该法案。
openai策略长jason kwon警告,该法案可能会扼杀创新并将人才赶出加州。作为新创聚集地,尤其是科技新创的圣地硅谷,加州众议员因此反对该法案可以理解。而openai等公司也表示这类监管已超出地方自治范围,应由联邦负责,而非各州自行制定。ai新创公司extropic创办人丶前google工程师guillaume verdon表示:「人工智能可能很强大,但对强大人工智能进行控制的独 裁政府更可怕」他也将此事件与telegram创办人pavel durov最近被捕的影响进行了比较,称这「对于人工智能来说这就像telegram的情况。」
vitalik赞同马斯克:应为人工智能模型进行安全测试
以太坊创办人vitalik buterin回应马斯克意见,他表示善意解读的话,该法案目标为强制进行安全测试,如果你的人工智能模型在安全测试中被发现具有威胁世界的功能/行为,将不被允许发布该模型。
他也表示责任不该是「如果衍生模型出了问题,开发人员将被罚款」而是开发人员没有合理的意识到模型的问题才会被处罚。他也补充他同意现阶段这个标准是非常模糊的,但这和无限制地承担后续模型使用风险不是同一回事。
他最后进一步补充喜欢这个法案的一个特点,他说:「我喜欢该法案的一件事是,我认为它没有得到足够的重视,那就是它引入了『严重伤害』类别,并明确地将其与其他不好的事情区分开来。我认为这非常重要,尤其是在我们这个时代,很多人使用『言语暴力』之类的言词,并试图扩展原本表示重度伤害的术语,使它们涵盖一切造成伤害的事件(同时也扩张安全事件)。语言膨胀无法避免,因为它是基本博弈论的结果,但我们需要透过重新区分『常糟糕的东西』和『中等糟糕的东西』来进行补偿。」
以上就是马斯克公开表态挺人工智能安全法案sb1047!获以太坊创始人v神支持的详细内容,更多关于应为人工智能模型进行安全测试的资料请关注代码网其它相关文章!
发表评论