当然会不一样了,如果你试过同样的问题问ChatGPT好几遍的话,你就会知道ChatGPT背后的大模型本质上是一个概率模型。
这是前OpenAI的director做的分享,如何构建一个GPT。
其中原理其实很简单,比如说拿李白的静夜思来举例。
床前明月光,疑是地上霜。举头望明月,低头思故乡。它会首先把第一句当成训练数据,也就是
训练数据=床前明月光;预测数据=疑是地上霜。举头望明月,低头思故乡;
然后前两句当成训练数据,然后剩下的预测:
训练数据=床前明月光,疑是地上霜。;预测数据= 举头望明月,低头思故乡;
以此类推
训练数据=床前明月光,疑是地上霜。举头望明月;预测数据=低头思故乡。
然后把李白的所有诗句按这个的格式训练预测一遍,就可以得到一个概率模型。
也就是随便说一句话,就会根据李白的风格生成下一句,因为是概率模型,所以每一次生成的诗句不一样也是很正常的。

