数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|人工智能里面的量化 (Quantization)指的是什么?

大模型太胖了,挤不进普通电脑。量化就是给模型“脱水”。通过降低数字的精度,模型体积可以瞬间缩小几倍。 虽然精度会有一丁点损失,但它让普通笔记本跑大模型成为了可能。这就是为什么 AI 能够真正走进千家万…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|LoRA (低秩自适应)是什么?

微调太贵了,怎么办?LoRA 是平民开发者的救星。它把庞大的模型“冻结”,只在旁边加一点点可训练的小插件。 这让曾经需要一个机房才能干的活,现在一张显卡就能搞定。它用最轻量的成本,换取了最高效的定制化…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|RLHF (人类反馈强化学习)是什么?

如果没有 RLHF,AI 模型可能只是一个会说话的怪胎。是 RLHF 让它变得有礼貌、好用、且符合人类价值观。我们让模型生成几个回答,让人类来打分。 久而久之,模型学会了“人类喜欢听什么”,从而不再只…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|AI的微调 (Fine-Tuning)是指什么?

怎么理解AI的微调 (Fine-Tuning)?这是让“通才”变成“专才”的必经之路。预训练模型已经懂语言了,我们只需在特定的小数据集上再拉练它一下。比如,给它看海量的医疗合同,它就能变成“法律医疗助…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|什么是AI幻觉 (Hallucination)?

什么是AI幻觉 (Hallucination)?这是每个 AI 用户的噩梦:它一本正经地胡说八道。它会自信地给你编造一个不存在的法律条文,或者推荐一个死活跑不通的接口。为什么?因为它的底层逻辑是“概率…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|大语言模型 (LLM)里的温度 (Temperature)是指什么?

大语言模型 (LLM)里的温度 (Temperature)是指什么?模型生成文本时,并不是死板地选概率最高的那个词,它会进行选择。温度决定了这种选择是“保守”还是“狂野”。数智化转型网www.szhz…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|大语言模型 (LLM)里的上下文窗口 (Context Window)指的是什么?

大语言模型 (LLM)里的上下文窗口 (Context Window)指的是什么?每个 AI 都有它的“瞬间记忆”极限,这就是上下文窗口。它决定了模型在一次对话中能塞进多少信息。 早期模型只能记几千个…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|大语言模型 (LLM)是什么?

什么是大语言模型 (LLM)?LLM 就是在一个天文数字级的文本库上练出来的 Transformer。它的训练目标简单到让人想笑:预测下一个 Token。就这样,但当这个简单的动作重复了万亿次后,奇迹…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|Transformer 架构是什么?

Transformer 架构是什么?把分词、嵌入、注意力全捏在一起,就成了 Transformer。 它是 2017 年那篇神级论文《Attention Is All You Need》的结晶。它的核…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|注意力机制 (Attention)是指什么?

人工智能中的注意力机制 (Attention)指的是什么?这才是真正拉开差距的技术。词的意思从来不是死的,它取决于上下文。 就拿 “Apple” 来说。在一个句子里,它是水果;…

数字化转型1000问-数字化转型网szhzxw.cn

人工智能1000问|什么是嵌入 (Embeddings)?

Transformer里面的嵌入 (Embeddings)是指什么?是指文字拆成 Token 后,下一步就是让模型能处理它。 这时候,嵌入登场了。每个 Token 都会被转化为一个向量,其实就是一串代…

联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部