生活资讯
DeepMind 联合创始人称 OpenAI 正秘密训练 GPT-5,比当前模型大 100 倍
2024-12-31 01:02  浏览:68

GPT-5 仍在秘密训练中!DeepMind 联合创始人在近日采访中透露,未来 3 年,Inflection 模型要比现在的 GPT-4 大 1000 倍。

DeepMind 联合创始人 Mustafa Suleyman,现 Inflection AI 的 CEO 最近在采访时投出了重磅炸弹:

OpenAI 正在秘密训练 GPT-5。

我认为我们都直截了当地说会更好。这就是为什么我们披露了拥有的计算总量。

在未来 18 个月内,Inflection AI 训练的模型比当前的前沿模型大 100 倍。未来 3 年内,Inflection 的模型比现在大 1000 倍。

其实,Sam Altman 此前曾否认训练 GPT-5 的这一说法。对此,网友表示,OpenAI 可能给它起了一个新名字,所以他们才说没有训练 GPT-5。

这就像当时 Code Interpreter 推出一样,许多人感觉其能力早已不是 GPT-4 模型,而应该是 GPT-4.5。

另外,采访中,Suleyman 还爆出了很多自己在 DeepMind 和 Inflection AI 工作时的内部信息,包括了谷歌当时收购 DeepMind 和之后的抓马,某种程度上解释了为什么 DeepMind 相比于 OpenAI「起了个大早,却赶了个晚集」。

他还认为,开源模型可能会增加 AI 带给人类的不稳定和危害。而 AI 安全性最大的威胁来源并不是大语言模型,而是未来可能出现的自主智能体。

当被问到未来 AI 是否有可能会成为一个有自主进化能力的智能体时,Suleyman 认为:

在短期之内,不太可能出现这种智能体 —— 能够自主运行,能够制定自己的目标,能够识别环境中的新信息、新的奖励信号,并学会用它作为自我监督,并且随着时间的推移更新自己权重的人工智能体。

但是这种自主进化能力的 AI 是所有人都不应该忽视的东西,因为如果某种 AI 技术真的展现出这种能力的,它可能会有非常大的潜在风险。

至少他知道的范围之内,Inflection AI 和 DeepMind 都没有在往这个方向上走。

Inflection AI 不是一家 AGI 公司,他们想做的事就是希望能够做出一个非常好用的个人助理。这个助理在能够充分访问用户个人信息的前提下,为用户提供高度定制化的 AI 服务。

他的公司,Inflection AI 正在建造世界上最大的超级计算机之一,并且他认为在接下来的 18 个月内,他们可能会进行一次比制造 GPT-4 的语言模型训练运行大 10 倍或 100 倍的训练运行。

当被问到,这种军备竞赛式的训练模型可能会增加 AI 的风险吗,他回答到:

100 倍的训练仍然会产生一个聊天机器人,可以理解为一个更好的 GPT-4,尽管这会成为一个更令人印象深刻的模型,但这并不危险 —— 因为它缺乏自主性,不能改造物理世界等让模型自身变得危险的基本要素。

仅仅生产一个非常好的、更好的 GPT-4 还不算危险;为了让它变得危险,我们需要增加其他能力,比如前边提到的,让模型能够自我迭代,自我制定目标等等。

那大约是五年、十年、十五年、二十年之后的事了。

Suleyman 认为,Sam Altman 最近说过他们没有训练 GPT-5,可能没有说实话。(Come on. I don’t know. I think it’s better that we’re all just straight about it.)

他希望所有拥有大规模算力的公司都能尽可能的保持透明,这也是他们披露自己拥有的计算总量的原因。

他们正在训练比 GPT-4 更大的模型。目前,他们有 6000 台 H100 正在训练模型。

到 12 月,22,000 个 H100 全面投入运营。从现在开始,每个月都会增加 1000 到 2000 台 H100。

他认为谷歌 DeepMind 也应该做同样的事情,应该披露 Gemini 接受了多少 FLOPS 训练。

从算力成本的角度来看,未来 AI 训练的规模不可能达到训练某个模型需要 100 亿美元的成本,除非真的有人会花 3 年时间去训练一个模型,因为堆叠越多算力去训练一个越大的模型,需要的时间也会更长。

虽然花的成本越高,可能能带来更强的能力,但是这不是一个没有上限的数学问题,需要考虑很多实际情况的限制。

但是因为算力成本随着芯片算力的迭代在不断下降,所以未来可能会出现训练某个模型的成本相当于在 2022 年花费了 100 亿美元来训练。

但是因为芯片算力会以 2-3 倍的效率增长,所以到时候训练一个这样规模的成本会远远小于现在看起来的成本。

比如说,现在开源社区中的 Llama2 或者 Falcon 等模型,只有 15 亿参数或 20 亿参数,就获得了有 1750 亿参数的 GPT-3 的参数的能力。

作为一直在闭源科技公司工作的 Suleyman,对于开源模型的价值和可能的风险,有非常与众不同的观点。

首先,他认为,在未来 5 年这个时间维度之内,开源模型始终会落后最前沿的闭源模型 3-5 年的时间。而且,开源模型会增加 AI 带来的社会风险。

如果所有人都能无限制地访问最新的模型,将会出现一个现象 ——「力量的快速扩散」。

举个栗子,就像新媒体平台让每个人都可以作为一份完整的报纸发挥作用,拥有数百万粉丝,甚至能影响全世界。

对于最前沿模型的无限制访问将会扩大这种力量,因为在未来 3 年内,人类能够训练出比现有模型规模大上 1000 倍的模型。

即便是 Inflection AI,也能在未来 18 个月内获得比现在最前沿的模型大 100 倍的计算能力。

而开源的大模型会将这种力量交到每个人的手中,相当于给了每个人一个潜在的大规模不稳定破坏性的工具。

而到时候,再想办法避免这些工具可能产生的破坏性后果,有人做了一个很巧妙的比喻 —— 图试图通过用手接住雨水来让雨停下来。

他曾经向监管部门解释过,AI 技术未来会降低很多潜在危险化合物或者武器的开发门槛。

AI 能在实际制作这些东西时提供大量的帮助 —— 比如告知在实验室中遇到技术挑战时从哪里获取工具等等。不过确实,从预训练中删除这些内容,对模型进行对齐等等办法,可以有效地降低这样的风险。

总之,对于用大模型能力来做坏事的人,需要尽量让他们在做这些事的时候变得困难。

但是如果尽可能的开源一切模型,未来面对能力越来越强的模型,将会把更多的类似风险暴露出来。

所以虽然开源模型对于很多人来说确实是一件好事,能够让所有人都获得模型并且进行各种各样的尝试,带来技术上的创新和改进,但是也一定要看到开源的风险,因为并不是每个人都是善意和友好的。

虽然我说这样的话可能会被很多人理解为我做的事和开源社区存在利益冲突,因此很多人可能会很生气,但是我还是要表达我的观点。

他还强调了,他不是为了攻击开源社区才说出这番言论的:

「虽然我说这样的话可能会被很多人理解为我做的事和开源社区存在利益冲突,因此很多人可能会很生气,但是我还是要表达我的观点,也希望获得人们的支持。」

在 DeepMind 度过的 10 年里,他花了大量时间试图将更多的外部监督融入到构建 AI 技术的过程中。

这是一个相当痛苦的过程。虽然他认为谷歌的出发点是好地,但它运作的方式仍然像传统的官僚机构一样。

当我们设立了谷歌的伦理委员会时,计划有九名独立成员,是对于开发敏感技术过程中进行外部监督的重要措施。

但因为任命了一个保守派人士,而她过去曾发表过一些有争议的言论,很多网友就在推特等场合抵制她,同时也抵制其他支持她的几个成员,要求他们退出委员会。

这是一场彻底的悲剧,非常令人沮丧。我们花了两年时间来建立这个委员会,这是朝着对我们正在开发的非常敏感的技术进行外部审查的第一步。

不幸的是,在一周内,九名成员中的三名辞职了,最终她也辞职了,然后我们失去了半数委员会成员。

然后公司转身说:「我们为什么要招人来限制自己?这纯粹是浪费时间。」

其实,当 DeepMind 被收购时,我们提出了收购的条件,即我们要有一个伦理和安全委员会。

我们计划在伦理和安全委员会之后,我们要将 DeepMind 打造成一个全球利益公司:一个所有利益相关者在做决策时都能发声的公司。

它是一个按担保有限责任公司设立的公司。然后,我们计划制定一个宪章,为 AGI 的开发制定相关的伦理安全的目标;这样使得我们可以将收入的大部分用于科学和社会使命。

这是一个非常有创意和实验性的结构。但是当 Alphabet 看到设立伦理委员会发生的事情时,他们变得胆怯了。他们说:「这完全疯了。你们的全球利益公司也会发生同样的事情。为什么要那样做?」

最终,我们将 DeepMind 合并进入到了谷歌,从某种程度上说,DeepMind 从未独立过 —— 现在当然也完全从属于谷歌。

The Information 独家报道称,谷歌多模态人工智能模型 Gemini 即将面世,直接对标 OpenAI 的 GPT-4。

其实,在今年谷歌 I / O 大会上,劈柴已经向大众宣布,谷歌正在研发下一代模型 Gemini。

有传言说,该模型将至少有 1 万亿参数,训练将使用数以万计的谷歌 TPU AI 芯片。

与 OpenAI 类似,谷歌使用 GPT-4 的方法来构建模型,由多个具有特定能力的人工智能专家模型组成。

简言之,Gemini 同样是一个混合专家模型(MoE)。

这也可能意味着,谷歌希望提供不同参数规模的 Gemini,因为从成本效益上考虑是个不错的选择。

除了生成图像和文本外,Gemini 接受过 YouTube 视频转录数据的训练,也可以生成简单的视频,类似于 RunwayML Gen-2。

另外,比起 Bard,Gemini 在编码能力方面也得到了显著提升。

Gemini 推出之后,谷歌也计划逐步将其整合到自家产品线中,包括升级 Bard,谷歌办公全家桶、谷歌云等等。

其实,在 Gemini 之前,DeepMind 还有一个代号为「Goodall」的模型,基于未宣布的模型 Chipmunk 打造,可与 ChatGPT 匹敌。

不过 GPT-4 诞生后,谷歌最后决放弃这一模型研发。

据称,至少有 20 多位高管参与了 Gemini 的研发,DeepMind 的创始人 Demis Hassabis 领导,谷歌创始人 Sergey Brin 参与研发。

还有谷歌 DeepMind 组成的数百名员工,其中包括前谷歌大脑主管 Jeff Dean 等等。

Demis Hassabis 在此前接受采访表示,Gemini 将结合 AlphaGo 类型系统的一些优势和大型模型惊人的语言能力。

可以看到,谷歌已经在全力备战,就等着 Gemini 开启逆袭之路。

    以上就是本篇文章【DeepMind 联合创始人称 OpenAI 正秘密训练 GPT-5,比当前模型大 100 倍】的全部内容了,欢迎阅览 ! 文章地址:http://ww.kub2b.com/tnews/3630.html
     栏目首页      相关文章      动态      同类文章      热门文章      网站地图      返回首页 企库往资讯移动站 http://ww.kub2b.com/mobile/ , 查看更多   
最新文章
耐水弹力海棉
产品属性用途区域产品包装、耐水 防潮密度0.02-0.18g/cm3原产地中国,江苏,常州品牌D-Foam形状可根据客户提供图纸生产颜色可根
耐水高强度海棉
产品属性用途区域产品包装、耐水 防潮密度0.02-0.18g/cm3原产地中国,江苏,常州品牌D-Foam形状可根据客户提供图纸生产颜色可根
防潮耐水EVA材料
产品属性用途区域产品包装、耐水 防潮密度0.02-0.18g/cm3原产地中国,江苏,常州品牌D-Foam形状可根据客户提供图纸生产颜色可根
耐油耐水海绵
产品属性用途区域产品包装、耐水 防潮密度0.02-0.18g/cm3原产地中国,江苏,常州品牌D-Foam形状可根据客户提供图纸生产颜色可根
供应耐水海绵
产品属性用途区域产品包装、耐水 防潮密度0.02-0.18g/cm3原产地中国,江苏,常州品牌D-Foam形状可根据客户提供图纸生产颜色可根
看了OPPO、vivo的新旗舰手机样张后,决定还是继续用微单吧
最近,OPPO、vivo都给出了自家旗舰手机的样张,大战一触即发。记得手机圈上一次这么火爆,还是小米15 Ultra的时候。具体来说,当
微信借钱不求人,6个步骤轻松搞定...手机微信怎么借钱「微信借钱不求人,6个步骤轻松搞定...」
微信,作为中国人日常生活中不可或缺的社交软件,不仅满足了人们的沟通需求,还悄然融入了金融服务,其中就包括微信借钱功能。无
小米8系列手机,有它才叫防摔保护手机爆屏「小米8系列手机,有它才叫防摔保护」
手机已成为日常生活必备品,而且小米8陶瓷后盖摔不得,维修的费用都赶上半个手机的钱了,选什么手机壳呢,贼难拆的磨砂硬壳?一
米其林指南开启江苏篇章,“江苏味”如何与世界“双向奔赴”
米其林指南作为餐饮界的“奥斯卡”,关注度高。2024年7月,米其林指南重调评价体系,转为省份榜单评选,并官宣江苏省、福建省成
重磅发布!5.4%!
4月16日,国家统计局发布的数据显示,一季度,在以习近平同志为核心的党中央坚强领导下,各地区各部门认真贯彻落实党中央、国务