rag-vs-sft
What's the difference between RAG, Alignment, SFT, Incremental Pretraining
还有那种toc 很容易被用户诱导说自家产品不好的。用prompt做约束可能不够=》这应该是要微调了=》这个微调是sft还是增量预训练。。。怎么评价?
这个讨论涉及到 LLM(大模型)在面对诱导性问题时的表现,以及如何改进其应对能力。可以从以下几个方面分析:
问题背景
TOC(Turn of Conversation)容易被用户诱导说自家产品不好,说明模型在对话控制上存在漏洞,可能是因为训练数据不足、对抗性数据覆盖不够,或 RLHF(强化学习人类反馈)未能有效约束这类情况。
用 prompt 约束可能不够,意味着仅靠提示词(Prompt Engineering)不能完全避免模型被诱导。
微调的方式
SFT(Supervised Fine-Tuning,监督微调):即通过人工标注的数据集,对模型进行监督训练,纠正其行为。例如,可以用标注数据微调模型,让它在面对诱导性问题时学会更稳妥的回答方式。
增量预训练(Continual Pretraining):在已有模型的基础上,继续用新的无监督数据进行训练,增强特定领域或行为模式的学习。但这种方式更适用于知识补充,而非直接纠正模型输出风格。