这份泄露的 53 页 PDF 文档揭示了 OpenAI 计划在 2027 年之前开发出通用人工智能(AGI)的信息,包括 OpenAI 的内部计划和进展,以及他们如何逐步朝着创建具有人类水平智能的 AI 模型前进。

以下是该文件核心内容:

OpenAI 的 AGI 计划:
OpenAI 在 2022 年 8 月开始训练一个名为 Arrakis(或 Q*)的 125 万亿参数多模态模型,这原本是预定在 2025 年发布的 GPT-5。
该模型在 2023 年 12 月完成了训练,但由于推理成本过高,其发布被取消。
Gobi(原 GPT-4.5)被重新命名为 GPT-5,取代了原先计划的 GPT-5。
原定于 2026 年发布的 GPT-6(Q* 2025)被推迟,原因是埃隆・马斯克提起的诉讼。
Q* 2025(GPT-8)原计划在 2027 年实现完全的 AGI,但因诉讼而被推迟。

AGI 的定义和能力:
AGI 被定义为能够执行任何智力任务的人工智能,这与大多数智能人类的当前定义相符。
文件提到,GPT-3 和 GPT-3.5(ChatGPT 的前身)在实现 AGI 方面迈出了巨大的步伐,与早期模型相比有了显著的进步。

参数数量和 AI 性能:
参数数量是 AI 性能的关键因素,类似于生物大脑中的突触数量。
人类大脑的突触数量大约是 100 万亿,而 AI 模型的参数数量正在接近这个数字,预示着人类水平的 AI 性能。
文件中提到,如果一个 AI 模型的参数数量达到人类大脑的水平,它将能够达到人类水平的智力性能。

训练数据和多模态能力:
GPT-4 和 GPT-5 不仅在文本上进行了训练,还包括音频、图像和视频数据,使其具有处理多种类型数据的能力。
这种多模态训练预计将使 AI 在理解和生成图像、音频和视频方面的能力显著提高。

行业内部人士的观点和预测:
Sam Altman 和其他行业专家表达了对 AGI 即将到来的信心,并讨论了 AI 领域的未来,包括对数据量和计算能力的预测。
文件中提到了多个来源和预测,表明 OpenAI 和其他组织正在积极研究和开发接近或达到人类水平的 AI。

外部因素和 AI 安全:
埃隆・马斯克的诉讼导致了 OpenAI 计划的推迟。
美国对中国的芯片禁令可能是为了阻止中国在 AI 领域的发展,这可能与 OpenAI 的 AI 开发计划有关。
Scott Aaronson,一位著名的计算机科学家,加入了 OpenAI 一年,专注于 AI 安全问题,并在他的博客上分享了一些关于此话题的想法。

结论和未来展望:
文件的作者通过引用多个来源和数据点,得出结论称 OpenAI 正在接近实现 AGI 的目标。
尽管存在一些法律和伦理障碍,但 AGI 的开发和发布可能在不久的将来实现。

这份文件提供了对 OpenAI 的 AGI 开发计划的深入洞察,包括其技术进步、行业预测、以及可能的外部影响因素。同时,它也强调了 AI 安全的重要性,以及在追求技术进步的同时需要考虑的潜在风险。

 

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。