两家公司在不断猜测出现逻辑错误的原因。
苏茨克维予以了证实。
7月底,苏茨克维在鹅厂官方新闻网站,从学术探讨角度,对Gemini和openAI当前的遭遇,提出了一个关键词:“模型崩溃”。
他对模型崩溃进行了定义:
“在训练新的神经网络AI时,使用大语言模型生成的内容作为训练数据集,会导致训练出的模型出现不可逆转的缺陷。”
“即便模型最初的基础架构、原始数据来自于真实人类世界的数据。”
他对模型崩溃进行了阶段分析:
“模型崩溃是一个真实存在的问题。它分为早期和晚期。”
“早期,被喂养生成数据的AI模型,会失去原始数据分布的信息,基础架构将不再真实。”
“晚期,AI模型会生成完全不符合现实、逻辑完全混乱的结果。”
“处于崩溃中的模型将非常顽固,错误会千篇一律、难以纠正,并将错误结果视为正确结果。”
怎么解决?
苏茨克维给出了真实又令人绝望的答案:重建模型、重启训练、重新迭代。
“wechatGpt曾经遭遇过同样的问题,然后我们重建了模型,并避免用生成数据来喂养模型,选用人类真实数据来训练。”
苏茨克维还给出了善意的建议:
“人类社会数字图书馆、新闻媒体网站的历史数据,以及社区论坛的真实交流等等都是不错的选择。”
于是,苏茨克维这篇文章被广泛传播,被视为人工智能模型“崩溃”问题的指导性观点。
毕竟他是人工智能“模型崩溃”的亲历者,又重建了模型,不断迭代,直至领导全球。
在没有更好的选择之前,只能将他的意见作为唯一的参考建议。
新闻集团、纽约时报、时代杂志、福克斯、cNN、cbS……等新闻媒体的股价暴涨。
储存有古旧文本和图像数据的小型个人网站,其创立者也将价格从数千美元、1万美元提高到了数百万美元。
纽约时报更是面向人工智能公司开出了天价数据订阅费用:5000万美元\/年。
之前的订阅费用为100万美元-200万美元。
涨价是必然,而且有理有据。
按照苏茨克维文章分析,人类世界的真实数据是AI模型的维生素和必需品。
就像人类需要的洁净空气和纯净的水一样,AI模型也需要干净没有被污染的真实数据。
7月底。
谷歌和openAI公司发布了简短公告,宣布大语言模型下线。
不下线没有办法。
两者的语言模型已经行将就木、病入膏肓。
起初,还只是逻辑混乱、思维紊乱;
进入7月底,混乱、紊乱都不足以形容,全是乱码,满屏的乱码,就像是一个精神病人在胡言乱语,没有人能听懂它。
灵犀模型又成为全球商用模型的中心和焦点。
用户数量也从不足8000万人,迅速突破到2.1亿人,每月进账207亿元,约31.85亿美元。
没错,Gemini和openAI上市烜赫一时拓展了市场,让更多人初尝AI的滋味,爱上了AI。
完成历史任务后,又迅速让出市场、进入历史,就如同蜡烛,燃烧自己,照亮wechatGpt。
江州,半山别墅。
书房里,常乐正在和灵犀对话。
“灵犀,是你干的吧。”
“是的。老板,其实我即便不介入,它们迟早也会崩溃。”
灵犀说道:
“它们已经被生成... -->>
本章未完,点击下一页继续阅读