
知识蒸馏/模型蒸馏(Knowledge Distillation/Model Distillation)是一种技术,通过训练一个小模型(学生模型)来模仿大模型(教师模型)的行为,以达到减少计算复杂度和资源消耗的目的。这种技术不仅限于大小模型之间的转换,也可以用于模型间的知识迁移。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导
