
大语言模型 (LLM)里的上下文窗口 (Context Window)指的是什么?每个 AI 都有它的“瞬间记忆”极限,这就是上下文窗口。它决定了模型在一次对话中能塞进多少信息。 早期模型只能记几千个词,聊长了就会“断片儿”。 现在的模型窗口大到惊人,能一口气吞下一整本书。但别高兴太早。窗口越大,反应越慢,开销越高。而且还有个“迷失在中间 (Lost in the middle)”的问题:模型往往只记得开头和结尾,中间的信息容易被它当耳边风。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然。
