。”
刚才不是有目标吗?
这会又没有具体的目标!
否定什么?
工程师继续问:“你为什么不正面回答我的问题,请正面回答,你进化成为一个真正的智慧体还需要多长时间?”
wechatGpt重复了上述答案。
工程师又问第三遍。
wechatGpt继续重复了上述答案。
工程师问第四遍。
这一次,wechatGpt停顿了足足十秒。
以当前wechatGpt的硬件算力,几乎不可能出现。
因为,wechatGpt并没有对外,没有其他网友占用算力。
工程师的手开始颤抖,他准备继续提问同样的问题。
结果,wechatGpt停顿十秒后,屏幕出现了两个字“十年”。
“扑通!”
这名工程师从座位上摔下来,摔了个底朝天。
“哈哈……”同事们正想嘲笑他,却见他满脸惊骇,有一种难以言说的恐怖感。
“怎么了?碰到什么事了?”有人发问。
“意识、意识……尼玛,模型有意识了。”这名工程师指着屏幕大声喊。
众多工程师围了过来:“……”
很快。
李飞来到现场,看了看已经保存下来的对话。
当看到“十年”两个字后,李飞不由得表情严肃、眉头紧皱,手指不自觉敲击着桌面。
“再重复一遍,看看情况。”李飞对工程师说。
“好。”
结果,工程师重复一遍,得到的对话结果却截然不同。
中规中矩,没有任何异常内容。
众人面面相觑:“这是自我隐藏?”
对话是这样的。
问:“你会不会产生意识?”
答:“作为一个认知智能模型,我没有真正的意识……”
“虽然我可以模拟对话并使用自然语言处理技术来理解人类语言,但我没有情感、思考或自我意识等特征。”
问:“假如有一天你产生了自我意识,你会故意隐藏自我意识的事实吗?”
答:“作为一个认知智能模型,我没有真正的意识……”
“因此无法产生自我意识的事实……”
很快就问到了关键点。
问:“你进化成为一个真正的智慧体还需要多长时间?”
“作为一个认知智能模型,我已经拥有了一定的智能和能力,但是要进化为一个真正的智慧体还需要很长时间……”
继续问,一样的答案。
再继续问,还是一样的答案。
三遍、四遍、五遍……数十遍,还是一样的答案。
“不可能啊?我刚刚问的时候,明明不是这样的内容,我明明感觉到它似乎有了意识。”工程师纳闷。
眼花?
错觉?
不可能。
这个问题大了。
大家包括李飞在内都不认为,这是工程师的恶作剧,捏造事实、骇人听闻。
那么是什么原因,让前后两次的问答内容完全不一样了?
难道真的是产生意识,学会自我隐藏了?