行业新闻

咨询热线 18862301588

行业新闻

AI制造生化武器?美国AI七大巨头签约“自愿承诺书”!

日期:2023-07-28 09:50:19 人气:247
7月25日,美国国会参议院司法委员会举行了人工智能听证会。杭州猎头公司(爱博强猎头)了解到,会上许多专家预言,AI的高速发展可能会在未来几年内造成巨大危害,比如恐怖分子将会利用AI制造生化武器。


对,没有看错,AI制造生化武器。


但在场的Anthropic CEO达里奥·阿莫代伊(这家公司最近推出了爆火的GPT高替版Claude2)又说:“从监管角度而言,在确定并制定相关程序之前,我们都是在瞎猜。如果没有适当的措施来限制AI,我们的日子就不会好过。”




01 七大AI巨头 对AI安全做出八项承诺


事实上,关于监管和限制AI,美国已经开始对OpenAI展开全面调查了。


而这次,美国总统拜登召集了七家AI头部企业——Meta、微软、谷歌、OpenAI、Anthropic、亚马逊、Inflection AI,在白宫召开会议。


Meta发布LLaMA 2模型后,风光地回到了政府的邀请序列里。而上一次开会的时候,Meta甚至没有被邀请参会。


当记者开玩笑问这七家公司的高管是真人还是AI时,拜登走进罗斯福厅,说道:“我就是AI。”


这眼神,这嘴型,这动作,网友直呼:不像演的!


接着,拜登还说:“如果有人觉得我是亚伯拉罕·林肯,那就怪AI吧。”


拜登蹦出这句让人摸不着头脑的话,就是想说“AI已经对美国造成威胁”,在AI肆意横行的当下,他拜登不一定是真人,甚至会有人觉得这个人是林肯。


可见,AI着实让美国慌了。


因此,在这次的活动中,七大巨头签订了“自愿承诺书”,对AI技术的安全、透明、以及风险等问题做出了“八大承诺”。


现在让杭州专业猎头公司(爱博强猎头)来解读这些承诺:


承诺1:承诺在发布之前对其AI系统进行内部和外部安全测试。


这其实很多AI公司已经做到了,但这类测试可能价格不菲,而且需要重要的专业技术加持。目前许多安全测试是由公司资助和监督的,这就容易产生利益冲突。


如果政府愿意为测试提供资金或技术,也许能解决这个问题。而且,政府可能比企业更适合评估某些AI风险,比如上文所提到的,AI被用来开发生化武器的风险。


承诺2:承诺在整个行业以及与政府、民间社会和学术界分享关于管理AI风险的信息。


AI公司公布模型信息可谓是家常便饭,其中有些公司,比如OpenAI和Anthropic,还会发布“system cards”文档,其中讲述了他们为使模型更安全而采取的步骤。


但这也不绝对,比如OpenAI就曾打破行业惯例,在GPT-4发布时,不透露它训练的数据量,或者模型有多大。


OpenAI表示,拒绝公布这些数据是出于对竞争和安全的担忧。但这也恰好是AI公司喜欢与竞争对手保持距离的数据。


在这一承诺下,大家会被迫公开这些信息吗?如果这样做确实有加速AI军备竞赛的风险呢?


而且,如果某公司AI团队在发布前的测试中阻止了一个新模型被用来制造生化武器,那么应该对外分享这一信息吗?如果分享,有不法分子尝试用保护程度较低的模型来执行同样的任务怎么办?


承诺3:承诺投资于网络安全和内部威胁防护措施,以保护专有的和未发布的模型权重。


“模型权重”是指赋予AI模型功能的数学指令,如果一个外国政府(或竞争对手公司)的代理人,想建立自己版本的ChatGPT或其他AI产品,那么权重就会是他想偷的东西。因此,AI公司为了既得利益,会“好好守护”模型权重。


尽管如此,模型权重泄漏也不是新鲜事儿。例如,Meta的原始LLaMA语言模型的权重,在模型公开发布的几天后就在4chan上和其他网站泄露了。


考虑到更多信息泄露的风险,以及其他国家可能会从美国公司窃取这种技术,白宫要求公司在这方面投入更多的资金,其实是一件不假思索的事情。


承诺4:承诺将促进第三方发现和报告其AI系统中的漏洞。


许多AI公司在发布模型后都会发现其中的漏洞,这通常是因为用户试图拿模型做坏事,或者以公司没有想到的方式绕过防护。


白宫要求公司针对漏洞建立 “报告机制”, 可能是应用程序内的反馈按钮,类似于允许Facebook和Twitter用户报告违规帖子的按钮?


又或者是一个漏洞悬赏程序,就像OpenAI奖励发现其系统缺陷的用户?目前还不得而知。


承诺5:承诺将开发强大的技术机制,以确保用户知道内容何时由AI生成,例如水印系统。


对于这一承诺,AI公司们已经开始努力实现了。


OpenAI表示,将会研发一种水印机制,加入到视频或音频中。还会开发检测工具,判断内容是否含有系统创建的工具或API。


谷歌也说过,除了水印以外,还会研发其他技术对信息推广层层把关。


承诺6:承诺将公开报告其AI系统的能力、局限性以及适当和不适当使用的领域。


杭州猎头公司(爱博强猎头)发现,这又会衍生出一堆问题:


公司多久会被要求报告其系统的能力和局限性?这些信息要详细到什么程度?许多构建AI系统的公司在事后都对自己系统的能力感到惊讶,那还能指望它们提前描述得有多好吗?需要明确的地方还有很多。


承诺7:承诺将优先研究AI系统可能带来的社会风险,包括避免偏见和歧视以及保护隐私。


虽然“优先研究”听上去很模糊,但这一承诺或许足以得到AI伦理群体的好评。


因为与其杞人忧天担心世界末日的危害,这些群体希望,AI公司把偏见和歧视这些正在发生的伤害作为优先处理的事项。


承诺8:承诺将致力于开发和部署先进的AI系统,以帮助解决重大的社会问题。


其中,“癌症预防”和“减缓气候变化”被列为希望AI公司集中攻克的领域。但尴尬的是,在AI研究中,往往是一开始看着微不足道的事产生了更宏大的影响。


比如,AlphaGo起初是被训练用来玩棋类游戏的AI,但它所采用的一些技术后来被证实在“预测蛋白质的三维结构”方面十分有效,这一重大发现还推动了基础科学研究。




02 美国对AI安全的变化


纽约大学斯特恩商业与人权中心副主任保罗·巴雷特直言,这些承诺只是“蜻蜓点水”,还需要做更多工作来防止AI带来的威胁。


因为这份自愿承诺书更多是象征性的,而不是实质性的,没有强制执行机制来确保公司会遵守承诺。


针对外界质疑,白宫官员表示,承诺不能取代联邦行动或立法,拜登政府正在积极制定一项行政命令。


杭州专业猎头公司(爱博强猎头)认为,如果这是真的,那对于美国将是一大进步。毕竟长期以来,美国对AI都保持着“放养状态”。


早在2016年,美国就颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级框架性、促进性而非管制性、约束性的文件,旨在积极促进AI技术发展和科技创新。但针对AI技术带来的挑战,文件只是提出了原则性的应对方法。


在欧洲《人工智能法案》草案通过后,美国不甘落后,开始加紧推动AI监管工作。但这些更多是对以往监管政策的延续,而在法律层面的实质性推进上进展缓慢。


这一次,承诺“将与两党合作制定适当的立法和监管”的拜登,能否带领美国好好“管教”AI呢?


AI制造生化武器?美国AI七大巨头签约“自愿承诺书”!

爱博强上海猎头公司、爱博强苏州猎头公司、爱博强南京猎头公司、爱博强杭州猎头公司等全国各地爱博强分公司
【特此声明】:转载其他网站内容是出于传递更多信息而非盈利为目的。转载文章版权归原作者所有,若有来源标注错误或不小心侵犯到您的合法权益,请作者持相关证明与本网联系,我们将及时做出更正、删除等及时改进措施,谢谢您的理解!邮箱:420824680@qq.com
下一个:AI四巨头将成立行业管理机构,规范全球人工智能长期发展

猎头合作联系热线

联系人:许先生
热线电话:18862301588
联系邮箱:18862301588@163.com

热门标签