新闻中心Position

你的位置:ayx手机版登录(综合)官方网站入口/网页版/安卓/电脑版 > 新闻中心 > ayx手机版登录而不是 2020 年的 OpenAI-ayx手机版登录(综合)官方网站入口/网页版/安卓/电脑版

ayx手机版登录而不是 2020 年的 OpenAI-ayx手机版登录(综合)官方网站入口/网页版/安卓/电脑版

发布日期:2025-06-29 08:22    点击次数:67

ayx手机版登录而不是 2020 年的 OpenAI-ayx手机版登录(综合)官方网站入口/网页版/安卓/电脑版

近日ayx手机版登录,一项对于大模子核激情论" Scaling Law "的发祥征询正在外网浓烈伸开。最新不雅点和凭据标明,中国科技巨头百度比 OpenAI 更早竣事了这一冲破。

有名媒体《南华早报》在其报谈《百度在 OpenAI 之前就发现了 Scaling Law?AI 鸿沟的申辩从头燃起》中指出,尽管好意思国在 AI 模子翻新方面一直被视为最初者,但最新的征询娇傲,中国在探索这些观点上可能更为超前。

大模子发展的中枢是" Scaling Law "——这一原则觉得,测验数据和模子参数越大,模子的智能才智就越强。这一想想庸俗归功于 OpenAI 在 2020 年发表的论文《Scaling Laws for Neural Language Models》,自那以后,这个观点已成为 AI 计划的基石。

然而,OpenAI 论文的合著者、前 OpenAI 计划副总裁  、Anthropic 首创东谈主 Dario Amodei  ,在 11 月的一期播客中显现,他在 2014 年与吴恩达在百度计划 AI 时,就照旧发现了模子发展的限定 Scaling Law 这一表象。Dario Amodei 示意,跟着提供给模子的数据量增多、模子限度的扩大以及测验时期的延伸,模子的性能启动显赫进步。这一非庄重的不雅察自后在 OpenAI 的 GPT-1 讲话模子中得到了考据,并被觉得是大模子发展的"金口玉音"。

此外,行业东谈主士也发文称,对于 Scaling Law 的原始计划实质上来自 2017 年的百度,而不是 2020 年的 OpenAI。Meta 计划员、康奈尔大学博士候选东谈主 Jack Morris 在 X(前 Twitter)上援用了一篇标题为《Deep Learning Scaling is Predictable, Empirically》论文,论文于 2017 年由百度硅谷东谈主工智能践诺室发布,隆重征询了机器翻译、讲话建模等鸿沟的 Scaling 表象。

但这篇论文的伏击性被严重疏远,OpenAI 在   2020 年的 Scaling Law 计划中援用了百度计划东谈主员在 2019 年发表的论文 《Beyond Human-Level Accuracy: Computational Challenges in Deep Learning》(越过东谈主类水平的准确性: 深度学习的计较挑战)。月旦者称,OpenAI   有礼聘地援用了百度   2019   年的论文,而忽略了   2017   年早些时候的计划,而该计划才是 Scaling Law 观点果然凿原始着手。

有计划者示意,恰是百度的早期计划为 AI 大模子的发展奠定了表面基础,并在 2019 年发布了第一代文心大模子,险些与 OpenAI 处于吞并时期。"中国在大型模子方面的逾越也赢得海外认同。"据《南华早报》,在上海举行的百度寰宇大会 2024 上,百度晓示了新时期,用以收缩图像生成中的幻觉问题——即生成误导性或事实不一致的图像。百度还显现,适度 11 月初,百度文心大模子的日均调用量照旧达到了 15 亿,相较一年前初度露出的 5000 万次,增长约 30 倍。

跟着 AI 时期的束缚逾越和期骗的潜入ayx手机版登录,中国在寰球 AI 鸿沟的影响力和交流地位将愈加突显。



TOP