Token量的是烧了多少煤,不是发了多少电。李彦宏今天说要换个算法。大模型每天跟你说话,但它其实从来没「读」过你说的话。这句话听起来有点玄,但你往下看,我觉得你会跟我一样,有点被这件事惊到。事情是这样的。你打开Claude或者文心一言,输入「帮我总结这篇文章」,按下发送。然后呢?模型第一件事,不是去「看」你的文章,而是把你输入的每一个字,切成一个个小碎片。这些碎片,叫Token。「帮」是一个Token,「我」是一个Token,「总结」可能是两个Token,「这」是一个Token,「篇」是一个Token……全部切碎,全部变成数字,然后模型拿着这些数字去计算。所以严格来说,模型处理的不是你说的「话」,是你说的「字符串切片」。这就是Token最大的问题所在。它只衡量了投入,没有衡量产出。Token到底是什么,为什么全行业都在用它你可以把Token理解成大模型世界里的「分」。人民币有元、角、分,Token就是大模型的「分」,最小计量单位,所有东西都以它为基础。你调用GPT-4花多少钱,按Token算。你用Claude有上下文限制,按Token算。训练一个大模型要多少算力,也按Token算。Token是计费单位、算力度量、也是模型处理信息的基础货币,三合一。Token机制是GPT-3那一代建立起来的。当时的逻辑很简单,要让模型处理语言,总得有个最小单位,Token简单、可计算、方便计费,够用,于是就成了标准。全球大模型行业跟着用,国内厂商也跟着用,Token就这么变成了行业公约。但「够用」不等于「对」。