.0训练一次的成本是1200万,美元。
进入4.0,预计可能需要6000万美元以上。
具体训练过程如下。
首先,硬件。
你得花钱搭建顶级硬件,提升算力。
就像wechatGpt那样,数十万颗cpU加上上万颗AI芯片来处理数据。
这套硬件一旦运转,每天的电费都能让小公司破产。
其次,数据。
要不断提供数据来喂养模型,让其知其然,知其所以然。
就像培养小孩一样。
这个数据,不是人工输入。
而是通过蜘蛛爬虫在网络上抓取。
这些数据包括理工科技、人文社科、法律艺术、医学伦理、教育……等各方面的内容……
也包括网友之间的垃圾对话,譬如:
“我有一个朋友。”
“我王**就是饿死……”
“你凉了,兄弟。”
“男人都是大猪蹄子……”
“打工是不可能打工的,这辈子不可能打工的。”
……等等。
有可能你和女友聊的那些私密情话也会被抓进去。
这些数据有多大?
目前wechatGpt3.0是90tb。
大约为5万亿汉字,相当于35个京城图书馆。
第三,训练。
数据抓取喂养模型后,开始聘请人工向模型提问。
一般让模型提供三个答案,然后人工判定唯一答案。
再根据答案进行参数修正。
通过参数对模型的理解进行调整,直至完善。
这里的人工不是精神小伙和JK少女,他们训练的模型会成为傻瓜。
这里的人工是在校大学生,各专业的都有。
聘请这些人工,又需要钱,海量的钱。
通过对模型不断循环训练后,它的理解能力会不断提高,不断完善,越来越智能……
直至通过参数积累涌现,成为“上帝”。
因为,它不是人类。
人类有遗忘功能。
它没有,它学的所有知识都不会遗忘,随时调取运用。
小马哥继续对辛顿教授说:
“辛顿教授,我们一年多以前搭建的语言模型,现在已经迭代到第三代……”
“我们预计半年后,会迭代到第四代,参数可能不是万亿,有可能是十万亿……”
“这相当于十万亿个神经元在不断联系交流……”
听到这里,辛顿教授脸色开始郑重。
他是卷积神经网络的创立者。
他最清楚这套算法的魔力。
小马哥还要继续说,电话响了。
小马哥拿起电话一看,是常乐。
“喂,常总,我正在和辛顿教授交流。”
“告诉你,模型应该是有意识了……”常乐说。
“什么?!”
小马哥眼睛瞪的老大,满脸不可思议,手机滑落坠落地面而不自知。
“马先生、马先生……”辛顿不停说。
小马哥反应过来,顿色道:“辛顿教授,就在刚刚,我的合作伙伴告诉我,我们的模型可能已经有意识了。”
“这……不可能?4000多亿参数怎么产生意识的?”辛顿露出难以置信的表情。