首页 > 正文

OpenAI员工爆料:新模型“没有那么大飞跃”

2024年11月13日 00:29
来源: 每日经济新闻
编辑:东方财富网

手机上阅读文章

  • 提示:
  • 微信扫一扫
  • 分享到您的
  • 朋友圈
摘要
【OpenAI员工爆料:新模型“没有那么大飞跃”】近日,据The Information报道,OpenAI的下一代旗舰模型可能不会像前面几代产品那样实现巨大的飞跃。据报道,测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT- 3到GPT-4那么大。

  近日,据The Information报道,OpenAI的下一代旗舰模型可能不会像前面几代产品那样实现巨大的飞跃。

  据报道,测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT- 3到GPT-4那么大。

  换句话说,OpenAI进步的速度似乎正在放缓。根据一些内部员工的说法,在诸如编程这类任务上,Orion并不比之前的模型更可靠。OpenAI员工和研究人员表示,GPT研发速度放缓的原因之一是高质量文本和其他数据的供应量在不断减少。

  为应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。据报道,这些新策略包括使用AI模型生成的合成数据对Orion进行训练等。

  目前,OpenAI并未回应相关消息的评论请求。不过上个月OpenAI曾表示,“今年没有发布代号为Orion的模型的计划”。

  在语言任务上表现更好

  使用ChatGPT的用户数量正在飙升。不过,ChatGPT的底层模型改进速度似乎正在放缓。

  OpenAI即将推出的旗舰模型Orion所面临的挑战显示了OpenAI所面临的困难。今年5月,OpenAI首席执行官阿尔特曼告诉员工,他预计正在训练的Orion可能会比一年前发布的上一款模型好得多。

  The Information近日援引知情人士的消息称,阿尔特曼表示,尽管OpenAI只完成了Orion训练过程的20%,但就智能程度以及完成任务和回答问题的能力而言,它已经与GPT-4相当。

  然而,一些使用或测试过Orion的OpenAI员工表示,虽然Orion的性能超过了之前的模型,但与GPT-3到GPT-4的飞跃相比,质量的提升要小得多。

  OpenAI的一些研究人员认为,在处理某些任务方面,Orion并不比之前的模型更可靠。The Information援引OpenAI一名员工的话称,Orion在语言任务上表现更好,但在编码等任务上可能不会胜过之前的模型。其中一位员工表示,与OpenAI最近发布的其他模型相比,Orion在数据中心运行成本可能更高。

  OpenAI 研究员 Noam Brown上个月在TED AI会议上表示,开发更先进的模型在财务上可能不可行。

  “我们真要训练耗资数千亿美元或数万亿美元的模型吗?”Brown说,“在某个时候,扩展范式(Scaling paradigm)就会崩溃。”

  数据资源被榨干了?

  Scaling law是AI领域的一个核心假设:只要有更多的数据可供学习,以及额外的计算能力来促进训练过程,大语言模型(LLM)就会继续以相同的速度改进。

  扎克伯格、阿尔特曼等也公开表示,他们尚未触及传统Scaling law的极限。

  这就是为什么包括OpenAI在内的公司仍花费数十亿美元来建造昂贵的数据中心,以尽可能地从预训练模型中获取性能提升。

  虽然理论上目前的模型并没有触及Scaling law的极限,但是可供使用的数据来源却快要干涸了。

  OpenAI的员工和研究人员表示,GPT模型减速的一个原因是高质量文本和其他数据的供应不足。大语言模型需要在预训练期间处理这些数据,以理解世界和不同概念之间的关系,从而解决撰写文章或编程错误等问题。

  The Information援引知情人士的消息称,过去几年里,大语言模型在预训练过程中使用了来自网站、书籍和其他来源的公开文本和数据,但模型开发人员基本上已经把这类数据资源榨干了。

  已有合成数据用于训练

  为了应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。该团队由之前负责预训练的Nick Ryder领导。OpenAI表示,这个团队将研究如何应对训练数据的匮乏,以及Scaling law还能适用多长时间。

  OpenAI的一名员工称,Orion的训练数据里有一部分是AI生成的合成数据。这些数据由GPT-4和最近发布的推理模型o1生成。然而,该员工表示,这种合成数据导致了一个新问题,即Orion 最终可能会在某些方面与那些旧模型相似。

  软件公司Databricks的联合创始人兼董事长Ion Stoica表示,这种合成数据可能并不能帮助AI进步。

  除此之外,OpenAI的研究者们在模型训练后阶段进行了额外的改进。比如,OpenAI采用了强化学习方法,通过让模型从大量有正解的任务中学习(比如数学或编程问题),以此来改进处理特定任务的方式。

  同时,OpenAI还会请人工评估员对预训练的模型在特定任务上进行测试,并对答案进行评分。这有助于研究者调整模型,以更好地应对诸如写作或编程等特定类型的请求。这一方法,即附带人类反馈的强化学习,有助于改进之前的AI模型。

  o1就是OpenAI使用这种改进手段得到的成果,o1模型在给出答案前,会花更多时间来“思考”大语言模型在训练过程中处理的数据。这意味着,即使不对底层模型进行修改,只要在回答用户问题时提供额外的计算资源,o1模型的回应质量就能持续提升。据知情人士透露,如果OpenAI能够持续改进底层模型的质量,哪怕速度较慢,也能显著提升推理效果。

  “这为我们提供了一个全新的扩展维度。”Brown在TED AI大会上表示,研究人员可以通过将每次查询的成本从一分钱提升到十分钱来提高模型的响应质量。

  阿尔特曼同样强调了OpenAI推理模型的重要性,这些模型可以与LLMs结合。阿尔特曼在10月份一个面向应用开发者的活动中表示:“我希望推理功能能解锁我们多年来期待实现的许多功能——例如,让这类模型有能力贡献新的科学知识,帮助编写更复杂的代码。”

  但两位知情员工表示,o1模型目前的价格比非推理模型高出六倍,因此它没有广泛的客户群。

  与此同时,o1模型的安全性也被很多人诟病,《自然》杂志就曾表示,在评估过程中,他们发现o1有时会遗漏关键安全信息,例如未强调爆炸危险或建议不适当的化学品控制方法。

  值得一提的是,OpenAI安全系统团队负责人翁荔(Lilian Weng)近日宣布将离开已经工作了近7年的OpenAI。

(文章来源:每日经济新闻)

(原标题:OpenAI员工爆料:新模型“没有那么大飞跃”)

(责任编辑:73)

 
 
 
 

网友点击排行

 
  • 基金
  • 财经
  • 股票
  • 基金吧
 
郑重声明:天天基金网发布此信息目的在于传播更多信息,与本网站立场无关。天天基金网不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资决策建议,据此操作,风险自担。数据来源:东方财富Choice数据。

将天天基金网设为上网首页吗?      将天天基金网添加到收藏夹吗?

关于我们|资质证明|研究中心|联系我们|安全指引|免责条款|隐私条款|风险提示函|意见建议|在线客服|诚聘英才

天天基金客服热线:95021 |客服邮箱:vip@1234567.com.cn|人工服务时间:工作日 7:30-21:30 双休日 9:00-21:30
郑重声明:天天基金系证监会批准的基金销售机构[000000303]。天天基金网所载文章、数据仅供参考,使用前请核实,风险自负。
中国证监会上海监管局网址:www.csrc.gov.cn/pub/shanghai
CopyRight  上海天天基金销售有限公司  2011-现在  沪ICP证:沪B2-20130026  网站备案号:沪ICP备11042629号-1

A
安信基金安信证券资产安联基金
B
博时基金渤海汇金博道基金贝莱德基金管理北京京管泰富基金百嘉基金北信瑞丰宝盈基金博远基金
C
长盛基金长城基金诚通证券财通基金长安基金淳厚基金创金合信基金长城证券财通资管长信基金财达证券长江证券(上海)资管财信证券
D
东方红资产管理东莞证券东海基金德邦基金东方阿尔法基金东财基金东海证券德邦证券资管东兴证券东兴基金第一创业东吴基金达诚基金东证融汇证券资产管理大成基金东方基金东吴证券
F
方正富邦基金富国基金富达基金(中国)方正证券富荣基金富安达基金蜂巢基金
G
国海富兰克林基金国投瑞银基金广发资产管理国寿安保基金国联安基金国联证券资产管理光大保德信基金国投证券国联证券国都证券国海证券国新国证基金国泰基金国新证券股份国金基金国信证券国融基金格林基金广发基金国联基金工银瑞信基金国元证券
H
华润元大基金华泰证券(上海)资产管理华宸未来基金华泰柏瑞基金华富基金宏利基金华鑫证券华安证券资产管理汇百川基金汇丰晋信基金华安基金华商基金红土创新基金华泰保兴基金弘毅远方基金华安证券华西基金泓德基金汇泉基金合煦智远基金恒越基金惠升基金汇安基金恒生前海基金华夏基金红塔红土恒泰证券华创证券汇添富基金华宝基金海富通基金
J
嘉实基金金鹰基金建信基金金元顺安基金江信基金九泰基金景顺长城基金嘉合基金金信基金交银施罗德基金