Skip to content

Conversation

@water-boom
Copy link

我在尝试使用qwen模型的过程中发现litellm官方提供的样例无法使用,下面是我的解决方案

litellm文档中给出的dashscope/qwen-turbo的形式在实际使用中并无法正确运行
下面是报错

litellm.BadRequestError: LLM Provider NOT provided. Pass in the LLM provider you are trying to call. 
You passed model=dashscope/qwen3-max
Pass model as E.g. For 'Huggingface' inference endpoints pass in `completion(model='huggingface/starcoder',..)` 
Learn more: https://docs.litellm.ai/docs/providers

可以注意到litellm文档标注的网址https://dashscope.console.aliyun.com/当前已经停接近停止服务
我提取出了项目中对于api验证的部分,构建了最小的api和模型提供格式的验证脚本
查阅官网可知,当前中国大陆地区替换为了https://dashscope.aliyuncs.com/compatible-mode/v1
但是使用这个网址还是无发链接,出现相同报错。
经过测试,发现openai/model_id的格式是可以通过验证的
为了方便使用,我在前端加入了千问百炼平台的模板
image

加入前端的选项
最小的验证脚本,可以使用这个来尝试
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

1 participant