数字化转型网(Professionalism Achieves Leadership 专业造就领导者)人工智能专题
与全球关注人工智能的顶尖精英一起学习!数字化转型网建立了一个专门讨论人工智能技术、产业、学术的研究学习社区,与各位研习社同学一起成长!欢迎扫码加入!

DeepSeek,国产大模型之光,免费开源效果好。今天介绍一下它的三种调用方法,看看哪种适合你。
1.官网调用
使用方法
直接去DeepSeek官网,或者启动DeepSeek app。
优势:
1.简单
缺点:
1.随着DeepSeek爆火,用的人越来越多,DeepSeek的服务器也卡起来了,经常提示“服务器繁忙,请稍后再试”
2.要把自己的聊天数据传到他们的服务器上,隐私不够安全,还要经过一些审核
适用人群
所有人,除非对延迟有要求,以及想聊点不能传到服务器上的东西(懂的都懂)
2.API调用
使用方法
如图,DeepSeek官网右上角有一个API开放平台
点击左边的接口文档,国内用户好像有免费试用的额度,十几块钱吧,反正用不完
接口文档里有详细的调用教程,我一般喜欢用Python调用
然后就可以在终端和DeepSeek对话了
咳咳……优势1.畅所欲言
2.几乎免费
缺点
1.需要会一点点代码(虽然非常非常简单)
2.与第一种方法一样,网络延迟也很高
3.本地调用
使用方法
去Ollama官网下载Ollama,然后在Ollama里Deepseek,结果如图。左边的红框是,模型参数,参数越大,效果越好,同时也越吃配置。右边的红框是终端运行的指令,在终端运行这个指令就可以下载模型。
然后在本地代码里调用就可以了。普通用户建议下载16b及以下的模型,否则电脑扛不住
优势
1.反应快,没有延迟
2.本地部署,管理方便,一个Ollama可以装很多开源模型,比如通义千问等。
3.畅所欲言
4.隐私没有问题
缺点
1.低配模型效果不好,高配模型需要非常贵的配置
总结
一般人,选官网调用会代码,想畅所欲言,选API调用会代码,有钱/希望数据安全,选本地调用
声明:本文来自纸片社,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于纸片社;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然。
