Generative Ai for Everyone
生成式AI能够自动生成高质量内容文本、图像、音频的人工智能系统如chatgpt。生成式AI除了面向消费者的应用从长远来看人工智能用作开发者工具更具有影响力。监督学习监督学习是一种技术能够根据输入生成对应的输出。监督学习过程前向传播模型根据输入前缀计算出对下一个词的概率分布。计算损失比较模型预测的概率分布与“真实下一个词”的差距例如用交叉熵。反向传播根据损失值计算每个参数的梯度。更新参数优化器如Adam微调模型参数使下次预测更接近真实词。举例第一步分词训练LLM时通常不按单个汉字切分而是按词或子词比如用BPE、WordPiece等算法。假设分词结果是[我, 最, 喜欢, 的, 食物, 是, 奶油, 贝果]第二步构建所有“前缀 → 下一个词”对对每一个“从第一个词到某个位置”的前缀预测紧跟着的下一个词。输入前缀已看到的词目标输出下一个词[我]最[我, 最]喜欢[我, 最, 喜欢]的[我, 最, 喜欢, 的]食物[我, 最, 喜欢, 的, 食物]是[我, 最, 喜欢, 的, 食物, 是]奶油[我, 最, 喜欢, 的, 食物, 是, 奶油]贝果一共得到 7 个数据点因为8个词可预测7次。第三步模型如何利用这些数据点训练每个数据点独立送入模型模型看输入前缀输出一个概率分布然后与目标词计算损失反向传播更新参数。模型既学会“我” → “最”这样的极短程依赖也学会“我最喜欢的食物是” → “奶油”这样的较长依赖。即使句子只有短短一句话也会贡献多个样本大大增加了训练信号的丰富度。第四步“大量”从何而来单个句子产生若干个数据点而训练LLM的互联网文本包含万亿级别的句子每个句子又裂变成几十、几百个数据点。最终训练数据的总条目数 所有句子的总词数约等于数十万亿个“前缀→下一个词”对。这正是LLM能够学会复杂语言规律的基础无数个这样微小的预测任务共同塑造了模型的参数。