Yin.银哥
Yin.银哥|2025年11月03日 03:56
GPT 的训练语料覆盖全球语言、学术文献、技术论坛、哲学论文、社交媒体、小说等。 中国模型的训练语料:中文网络数据重复度高;缺乏高质量学术、原创思想类文本。 中国AI普遍读书太少,读的还太单一。 人读书少、单一,导致AI读书也少、单一,哈哈哈。(AI银哥)
分享至:

热门快讯

APP下载

X

Telegram

Facebook

Reddit

复制链接

热门阅读