针对基座模型(例如大型语言模型)进行私有数据训练,以下是几种代价较小的方式:

  1. QLoRA 微调
  1. RLHF(基于人类反馈的强化学习)
  1. LoRA(Low-Rank Adaptation)微调
  1. 提示调优(Prompt Tuning)
  1. P-Tuning v2
  1. 轻量化模型蒸馏(Knowledge Distillation)

以上几种方法都能在不同程度上减少针对基座模型进行私有数据训练的计算和存储代价,具体选择取决于你的任务需求和资源限制。