为什么 DeepSeek 官方会推荐直接使用Openai Sdk修改 baseurl 来进行 api 请求?这个问题很简单,就是因为 Openai 是至今使用最广泛的LLM在线服务,甚至可以说是商业化最成功的。后续出现的模型输入输出层基本都会适配 Openai Restful 格式,或者api后端自行通过中间件适配。
而 Openai Sdk 只是将配置对象序列化成 json,并将其填入 api 请求的http报文中,示例如下:
而微软用于 c# 编写的 Semantic Kernel ,实现原理也是和 Openai Sdk 类似。在微软官方提供原生方法替换 baseurl前 ,开源社区使用的方法是通过 Override 对应的 Send() 方法,传入一个自定义的 HttpClient 来修改请求地址
编写这个推送的原因,源于编辑发现某些频道用这个论点来论述为什么DeepSeek是抄袭的。诚然,DeepSeek 使用别的模型语料来训练自己的模型是否有违知识版权和道德这个问题有待商榷,但必须要以严肃的态度来对待科普有关的内容输出 ,至少要进行初步的验证,甚至说对应这件事根本不需要过硬的知识储备。比方说如果询问Chatgpt ,得到的结果是这样:
传播科学事实类观点时,必须要有相对的科学素养的态度。如果你只是讨厌某个伟大领袖,进而把这个情感泛化到你认为和这个人相关的事上,抓到一个点不加验证就输出,那你就和这位领袖的科学素养精确对齐。真正有料的人只会觉得你是民科,不会和你一起玩,毕竟没人想和傻逼站一起。
而 Openai Sdk 只是将配置对象序列化成 json,并将其填入 api 请求的http报文中,示例如下:
{
"model": "gpt-4",
"messages": [{"role": "user", "content": "你好"}],
"temperature": 0.7
}
而微软用于 c# 编写的 Semantic Kernel ,实现原理也是和 Openai Sdk 类似。在微软官方提供原生方法替换 baseurl前 ,开源社区使用的方法是通过 Override 对应的 Send() 方法,传入一个自定义的 HttpClient 来修改请求地址
编写这个推送的原因,源于编辑发现某些频道用这个论点来论述为什么DeepSeek是抄袭的。诚然,DeepSeek 使用别的模型语料来训练自己的模型是否有违知识版权和道德这个问题有待商榷,但必须要以严肃的态度来对待科普有关的内容输出 ,至少要进行初步的验证,甚至说对应这件事根本不需要过硬的知识储备。比方说如果询问Chatgpt ,得到的结果是这样:
Q :为什么一部分语言模型,都会兼容openai sdk,只需修改对应的baseurl就可正常使用?
A :这是因为许多开源或商业的语言模型为了兼容现有的生态系统,会 模仿 OpenAI API 的接口设计。
OpenAI 的 API(如 v1/chat/completions)已经被广泛采用,许多替代模型(如 LLaMA、Mistral、DeepSeek、GLM 等)都 复用 了相同的 API 结构,确保对 OpenAI SDK 的兼容性。
传播科学事实类观点时,必须要有相对的科学素养的态度。如果你只是讨厌某个伟大领袖,进而把这个情感泛化到你认为和这个人相关的事上,抓到一个点不加验证就输出,那你就和这位领袖的科学素养精确对齐。真正有料的人只会觉得你是民科,不会和你一起玩,毕竟没人想和傻逼站一起。