项目整体介绍:

项目背景

LLM拥有庞大的知识库,但是博而不精。在RAG项目中ChatModel,主要是用来回答用户的通用型知识和陪着聊天,但是LLM完成一些任务会存在一些答案解析上的困难,比如输出答案的格式:生成json格式、给生成的答案加水印等等。一般可以通过提示词完成,但是提示词有缺点,比如用户问:把上一代产品和现在的芯片做一个对比图,大模型私有化部署后,不知道上一代产品是什么,你需要告诉它上一代产品是G250芯片,现在是G260芯片,RAG只能给大模型提供什么是B260芯片,以及相关参数知识。但不能解决大模型理解用户的习惯问题。微调能更懂用户(企业)的偏好。

微调和提示词的优缺点:

维度 🛠️ 微调 🎩 提示词工程
核心比喻 量身定制的专属司机 熟知你的习惯、路线和偏好,无需多言。 使用通用地图APP 功能强大,但每次都要重新输入目的地和设置偏好。
工作原理 改变模型“大脑”结构 通过训练数据更新模型权重,内化知识和规则。 给模型“临时指令” 通过精心设计的文字引导模型,不改变其底层参数。
优点 高可靠性 & 一致性:形成“肌肉记忆”,输出稳定。 ✅ 效率高 & 成本优:提示词简短,节省Token,长期成本低。 ✅ 知识内化:能学会复杂、隐含的业务逻辑和风格。 ✅ 私有部署:模型可部署在本地,保障数据隐私。 快速迭代 & 零成本启动:立竿见影,无需训练资源和时间。 ✅ 灵活性极高:可随时修改、测试不同指令,试错成本低。 ✅ 通用性强:一个基础模型可通过不同提示应对万千任务。 ✅ 技术门槛低:不需要机器学习知识,人人可上手。
缺点 高初始成本:需要数据、算力、时间和专业知识。 ❌ 灵活性差:一旦训练完成,不易快速调整方向。 ❌ 可能遗忘:过度微调可能导致模型遗忘原有通用知识。 ❌ “黑箱”升级:很难直观理解模型具体学到了什么。 输出不稳定:容易受提示词表述影响,可能“不听话”。 ❌ 效率较低:复杂任务需要冗长的提示,占用上下文窗口。 ❌ 性能天花板:对于极其复杂的任务,可能无法通过提示解决。 ❌ 数据泄露风险:使用云端API时,提示词可能被记录。
适用场景 🎯 专业化生产流水线 - 企业级客服机器人 - 法律、医疗等专业领域问答 - 固定格式报告生成 - 需要私有化部署的场景 🎯 万能瑞士军刀 - 快速原型验证与探索 - 个人或非频繁使用的任务 - 创意生成、头脑风暴 - 需要极高灵活性的研究

多任务数据预处理方式

LoRA方式微调ChatGLM模型代码实现和训练

驱动云使用的扩展