首页 > 正文

通用人工智能将三年内实现?OpenAI多员工签联名信呼吁改革

2024年06月06日 22:32
作者:罗亦丹
来源: 新京报
编辑:东方财富网

手机上阅读文章

  • 提示:
  • 微信扫一扫
  • 分享到您的
  • 朋友圈

  “OpenAI的人工智能系统已经接近人类智能水平,通用人工智能AGI有50%的可能性在2027年就会问世,而不是此前预测的2050年!”6月4日,一封由13名来自OpenAI和Google DeepMind的前员工与现员工联合发布的一封公开信再次将人工智能“蒙眼狂奔”的危险呈现在大众眼前。

  有声音认为,当OpenAI的内部人事纠纷以首席执行官山姆奥特曼胜出结束后,该公司已经走向了一条更偏向激进发展与财务利益的路,而将安全与对人类的责任抛诸脑后。一个可能的佐证是,过去一个月内,OpenAI曾经的首席科学家和超级对齐负责人相继离职,员工们也迎来了一波离职潮,其中负责AI安全的员工的流失最为严重。

  6月6日,新京报贝壳财经记者注意到,OpenAI发布了一份“为保护研究基础设施和前沿模型训练而设计的安全架构”的简介,OpenAI称,“希望这将使其他AI研究室和安全专业人员受益。”并表示目前正空缺四项职位:安全方向软件工程师、安全工程师、企业安全工程师和隐私安全工程师,希望招聘相关从业人员。

  来自13名顶尖人工智能机构员工的担忧:不相信AI公司

  “我们是各大前沿AI公司的现任和前任员工,我们相信AI技术有潜力为人类带来前所未有的好处。我们也理解这些技术带来的严重风险。这些风险包括加剧现有的不平等、操纵和误导信息以及失控的自主AI系统可能导致人类灭绝。”在这封联名信的开头,11名联名信签署者就开宗明义地表达了自己的担忧。

  信中写道,希望这些风险能够在科学界、政策制定者和公众的充分指导下得到有效的缓解,“然而,AI公司有强烈的财务动机避免有效的监督,我们不相信公司为自己量身定制的治理结构能够改变这一点。AI公司拥有大量关于其系统能力和局限性的非公开信息,这些信息涉及系统的保护措施以及系统的各种风险水平。然而,他们目前只需要向政府分享部分信息,并不背负着向政府汇报的强烈义务,更没有义务向社会公众分享任何信息。我们不认为他们可以完全自愿地分享这些信息。”

  联名信呼吁先进AI公司承诺以下原则:

  一、公司不会签订或执行任何禁止因风险相关问题而对公司进行诋毁或批评的协议,也不会通过阻碍任何既得经济利益来报复风险相关的批评。

  二、公司将创建一个可验证的匿名流程,使现任和前任员工能够向公司的董事会、监管机构以及具有相关专业知识的适当独立组织提出风险相关的担忧;

  三、公司将支持公开批评的文化,并允许现任和前任员工向公众、公司的董事会、监管机构或具有相关专业知识的适当独立组织提出他们对技术风险的相关担忧,只要适当保护商业秘密和其他知识产权利益即可;

  四、公司不会报复那些在其他流程失败后,公开分享风险相关机密信息的现任和前任员工。我们知道,任何报告风险相关担忧的努力都应避免不必要地泄露机密信息。因此,一旦存在一个足够安全的匿名提出担忧的流程,现任和前任员工应首先通过此类流程提出担忧。然而,只要此类流程不存在,现任和前任员工应保留向公众报告其担忧的自由。

  前员工要做“吹哨人” OpenAI急招安全员

  13名联名信签署者认为,只要AI公司没有有效的政府监督,那现任和前任员工就是少数能够让公司负起责任的公众人士之一。因此自己必须肩负起AI“吹哨人”的责任。

  在这13人中,有11名来自OpenAI,其中6名是OpenAI的现任员工,但因担心被打击报复而采取了匿名发布的方式。

  另一方面,保密协议也阻止了这些员工表达担忧,例如OpenAI前员工阿申布伦纳(Leopold Aschenbrenner)就因“泄露公司机密”遭到解雇。6月6日,他也发布了他对人工智能风险的回应:既不能采取“永远封锁”的方法,也不能放任自流,而是需要找到一种更聪明的方式来应对AGI的潜在风险,而其中关键是解决对齐问题。

  丹尼尔·科科塔约洛(Daniel Kokotajlo)是联名签署此封公开信的OpenAI前员工之一。他在2022年加入OpenAI,所任职务是公司的治理研究员。今年4月份他正式从OpenAI辞职,原因是他对公司“失去了信心,认为OpenAI无法在AI系统实现接近人类水平表现时负责任地行事”。

  在OpenAI,科科塔约洛看到,尽管公司已经制定了安全相关的规章制度,但这些规章制度常常处于被架空的状态。例如,OpenAI与微软共同建立了部署安全委员会,此委员会的主要目的是为了在正式发布模型之前评估新模型中可能包含的种种风险,但这一委员会似乎并没有起到应有的作用。

  “世界还没有准备好(迎接如此高级的AI智能),我们也没有准备好,我担心(这些商业公司)将不管不顾地一意孤行,并为自己的行为寻找借口。先进的人工智能毁灭人类或对人类造成灾难性伤害的可能性高达70%。”科科塔约洛说。

  也许是受到了舆论压力,也许是安全相关的雇员真的已经“所剩无几”。6月6日,OpenAI发布了一份简要说明,介绍了自己在威胁模型、架构、安全模型权重、审核测试等方面的工作,并表示将“确保我们领先于新出现的威胁,并继续增强人工智能基础设施的安全性”。

  值得注意的事,OpenAI在文章开头和末尾两次强调,自己正在招聘相关的安全人员职位。

(文章来源:新京报)

(原标题:通用人工智能将三年内实现?OpenAI多员工签联名信呼吁改革)

(责任编辑:137)

 
 
 
 

网友点击排行

 
  • 基金
  • 财经
  • 股票
  • 基金吧
 
郑重声明:天天基金网发布此信息目的在于传播更多信息,与本网站立场无关。天天基金网不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资决策建议,据此操作,风险自担。数据来源:东方财富Choice数据。

将天天基金网设为上网首页吗?      将天天基金网添加到收藏夹吗?

关于我们|资质证明|研究中心|联系我们|安全指引|免责条款|隐私条款|风险提示函|意见建议|在线客服|诚聘英才

天天基金客服热线:95021 |客服邮箱:vip@1234567.com.cn|人工服务时间:工作日 7:30-21:30 双休日 9:00-21:30
郑重声明:天天基金系证监会批准的基金销售机构[000000303]。天天基金网所载文章、数据仅供参考,使用前请核实,风险自负。
中国证监会上海监管局网址:www.csrc.gov.cn/pub/shanghai
CopyRight  上海天天基金销售有限公司  2011-现在  沪ICP证:沪B2-20130026  网站备案号:沪ICP备11042629号-1

A
安信证券资产安信基金
B
博时基金渤海汇金博道基金贝莱德基金管理北京京管泰富基金百嘉基金北信瑞丰宝盈基金博远基金
C
长盛基金长城基金诚通证券财通基金长安基金淳厚基金创金合信基金长城证券财通资管长信基金财达证券长江证券(上海)资管财信证券
D
东方红资产管理东莞证券东海基金德邦基金东方阿尔法基金东财基金东海证券德邦证券资管东兴证券东兴基金第一创业东吴基金达诚基金东证融汇证券资产管理大成基金东方基金东吴证券
F
方正富邦基金富国基金富达基金(中国)方正证券富荣基金富安达基金蜂巢基金
G
国海富兰克林基金国投瑞银基金广发资产管理国寿安保基金国联安基金国联证券资产管理光大保德信基金国投证券国联证券国都证券国海证券国新国证基金国泰基金国新证券股份国金基金国信证券国融基金格林基金广发基金国联基金工银瑞信基金国元证券
H
华润元大基金海富通基金华宸未来基金华泰柏瑞基金华富基金宏利基金华鑫证券汇百川基金汇丰晋信基金华安基金华商基金红土创新基金华泰保兴基金弘毅远方基金华安证券华西基金泓德基金汇泉基金合煦智远基金恒越基金惠升基金汇安基金恒生前海基金华夏基金红塔红土恒泰证券华创证券汇添富基金华宝基金华泰证券(上海)资产管理
J
嘉实基金建信基金金元顺安基金交银施罗德基金九泰基金景顺长城基金嘉合基金金信基金金鹰基金江信基金