
- 任务匹配:如果预训练任务和新任务相差太远,效果会打折。比如,用风景模型认猫狗,可能不能抓住自己的细节。
- 过风险:大象数据太少,模型可能“死记硬背”。比如,只见过短毛猫,遇到长毛猫就懵了。
- 依赖基础:预训练模型不好,迁移也救不了。得挑个靠谱的“大师笔记”。
- 调整噪音:参数不太方便改,参数调不好,可能还原了具体的好模型。
比如,“分区自适应”技术让模型更好地适应新任务;还有“冻结层”策略,先锁住模型基础,只修改最后几页“笔记”,降低风险。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然。
