Adam Cochran (adamscochran.eth)
Adam Cochran (adamscochran.eth)|2025年05月06日 12:29
在GPT-5工作后,我有动力从事梵语OCR工作,这让我想知道人工智能公司是否已经用完了用于培训的人工生成内容。 最大的模型已经在历史上的每一篇互联网帖子、每一页和每一本书上,用每一种破译的主要语言进行了训练。 我们不仅要达到一个平稳期,而且要很快达到一个上限。 这可能是一个指标。 在人类训练数据之后,扩展当前的LLM训练方法是一个巨大的问题。 正如我们所看到的,对LLM生成的数据进行递归训练,这些数据只是人工审查的,而不是人工生成的,在每次迭代中都会产生越来越差的质量结果(由于我们作为人类在筛选过程中最初无法真正感知到的细微差异) 在达到语料库上限后,找出如何进行升级训练的公司很可能会成为AGI的赢家。
+4
曾提及
分享至:

脉络

热门快讯

APP下载

X

Telegram

Facebook

Reddit

复制链接

热门阅读