波普智能助手 V2.0更新日志
BOPUX [v0.6.28] Beta2.0
感谢您能支持波普智能助手,现在的模型质量远不及大厂,在使用过程中的问题都可以提出,我们会积极提供服务。
如果您对此项目感兴趣,或是想接入API服务,可以联系:1929782060@qq.com
👁🗨️模型功能支持
联网搜索支持:这次我们引进了Bocha seach API,使得结果能联系网络。联网搜索将会根据3个网络结果进行汇总。
网页加载引擎:这次我们引进了Firecrawl API URL,使得网络搜索结果会经过加载引擎来汇总,并且我们扩大了并发请求数量,由原本的3扩大为10并发。
代码执行引擎及代码解释器:本次我们添加了代码执行引擎于代码解释器pyodide。
模型支持:我们添加了诸多网络模型,例如自学习的波普智能引擎、DeepSeek V3.1等,其中部分模型支持思考与非思考模式。部分模型将需要收费使用,但仍然有部分模型将免费开放给用户使用,其中包含了对话、视频、嵌入、生图、语音、重排序模型,这些模型将会给用户带来更优质的体验。
对话标签生成:部分模型将会根据用户的对话来生成与之对应的标签。
对话追问生成:部分模型在对话过程中将会根据上下文信息,为用户推荐1-5个追问快捷项。
对话标题生成:部分模型将会在用户首次进行提问时根据内容来总结本次对话的中心要点。
对话建议:本次添加了在首页的默认提示词建议,将会方便用户在首次对话中快速了解助手的功能。
语音模型:本次更新中我们添加了语音模型,用户可以在回答中选择文字转语音,生成的语音将会更贴近生活,本次语音模型由ElevenLabs提供,使用的模型是eleven_v3。
图像生成(实验):我们添加了图像生成能力,该能力目前还在试运行状态。
⚙️通用支持
主题功能:您可以切换 系统、暗色、漆黑、浅色、Her来选择自己喜欢的配色。
语言支持:现支持简体中文、繁体中文、英文。
桌面通知:在收到新回答、消息时可以通过桌面通知。
⚙️界面支持
高对比度模式 (Beta):为保证所有用户的体验,我们新增了高对比度模式,也许这会更适合你。
通知提示音:在收到新回答、消息时会通过铃声来提示用户
允许获取您的位置:当你选择获取您的位置信息时,您将会收到更个性化的结果。
震动反馈 (Android):本次更新添加安卓系统的震动反馈,在完成回答时您将会受到震动反馈
复制格式化文本:新增了格式化文本,如果您不喜欢Markdown格式的文本,您可以开启此选项来复制格式化后的文本。
更新后弹窗提示更新内容:为了保证用户能收到更精确的更新信息,我们添加了此选项,您将会在每次登录时查看最新更新状态。
⚙️对话支持
默认主页样式:我们新增了多种首页布局。
对话背景图片:我们新增了个性化的背景图片功能,使得首页与对话页会显示您的自定义背景。
对话气泡样式:我们新增了多种对话气泡的样式。
在对话中显示用户名而不是“你”:如果用户更喜欢你来称呼而不是 用户名 ,我们提供此选项。
宽屏模式:我们为部分显示屏添加了宽屏模式。
默认使用临时对话:临时对话将会给用户更多的隐私性。
⚙️输入功能支持
Enter 键行为:您可以选择Enter键发送或是Ctrl+Enter键发送。
⚙️语音支持
允许语音通话时打断对话:添加了此项
在通话中显示 Emoji 表情符号:添加了此项
⚙️文件支持
图像压缩:我们的服务器将会提供图像的压缩服务,您可以更快速的上传兵并解析你的图片内容。
💰️付费支持
模型付费支持:部分模型添加了付费模式,我们将根据请求的数量与模型定价进行计算费用/M。
支付支持:新增了支付方式:包含官方支付及兑换码。
💻功能支持
笔记功能添加:现在用户可以通过左侧的笔记项目来记录任何事情。且笔记内容也支持Ai润色与对话功能。
空间功能增加:现用户可通过Open WebUI来发现更多模型、知识库、提示词与工具。
对话搜索功能:现用户可通过搜索关键词来找到所需要的对话内容。
💻遗留的问题及未完成项目
模型竞技场:我们将推出模型竞技场,用户将可以通过使用或评价各家模型来推选出最佳模型。
本地化模型服务:对接他方的模型并不是长久之计,我们将会在不久推出本地化的服务,旨在为用户提供更隐私的模型。
❌BUG 首次访问:部分用户在首次使用助手时遇到卡屏于加载页(LOGO页面),此问题将会在不久的版本中修复。
❌BUG 首次提问及偶见:部分用户在使用过程中会遇到Json传输问题,原因是服务为Docker部署,在反向代理的过程中Socket无法握手。
❌BUG 默认模型:部分问题中默认模型会刻意强调自己的身份,问题出在模型训练,会在不久后的版本中修复。
💻模型列表
inclusionAI/Ling-mini-2.0
,
ByteDance-Seed/Seed-OSS-36B-Instruct
,
deepseek-ai/DeepSeek-V3.1
,
Pro/deepseek-ai/DeepSeek-V3.1
,
stepfun-ai/step3
,
Qwen/Qwen3-Coder-30B-A3B-Instruct
,
Qwen/Qwen3-Coder-480B-A35B-Instruct
,
Qwen/Qwen3-30B-A3B-Thinking-2507
,
Qwen/Qwen3-30B-A3B-Instruct-2507
,
Qwen/Qwen3-235B-A22B-Thinking-2507
,
Qwen/Qwen3-235B-A22B-Instruct-2507
,
zai-org/GLM-4.5-Air
,
zai-org/GLM-4.5
,
baidu/ERNIE-4.5-300B-A47B
,
moonshotai/Kimi-K2-Instruct
,
ascend-tribe/pangu-pro-moe
,
tencent/Hunyuan-A13B-Instruct
,
MiniMaxAI/MiniMax-M1-80k
,
Tongyi-Zhiwen/QwenLong-L1-32B
,
Qwen/Qwen3-30B-A3B
,
Qwen/Qwen3-32B
,
Qwen/Qwen3-14B
,
Qwen/Qwen3-8B
,
Qwen/Qwen3-235B-A22B
,
THUDM/GLM-Z1-32B-0414
,
THUDM/GLM-4-32B-0414
,
THUDM/GLM-Z1-Rumination-32B-0414
,
THUDM/GLM-4-9B-0414
,
THUDM/GLM-4-9B-0414
,
Qwen/QwQ-32B
,
Pro/deepseek-ai/DeepSeek-R1
,
Pro/deepseek-ai/DeepSeek-V3
,
deepseek-ai/DeepSeek-R1
,
deepseek-ai/DeepSeek-V3
,
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B
,
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B
,
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B
,
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
,
Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
,
deepseek-ai/DeepSeek-V2.5
,
Qwen/Qwen2.5-72B-Instruct-128K
,
Qwen/Qwen2.5-72B-Instruct
,
Qwen/Qwen2.5-32B-Instruct
,
Qwen/Qwen2.5-14B-Instruct
,
Qwen/Qwen2.5-7B-Instruct
,
Qwen/Qwen2.5-Coder-32B-Instruct
,
Qwen/Qwen2.5-Coder-7B-Instruct
,
Qwen/Qwen2-7B-Instruct
,
TeleAI/TeleChat2
,
THUDM/glm-4-9b-chat
,
Vendor-A/Qwen/Qwen2.5-72B-Instruct
,
internlm/internlm2_5-7b-chat
,
Pro/Qwen/Qwen2.5-7B-Instruct
,
Pro/Qwen/Qwen2-7B-Instruct
,
Pro/THUDM/glm-4-9b-chat
💻Python Chat Completions
import requests
url = "https://api.siliconflow.cn/v1/chat/completions"
payload = {
"model": "Qwen/QwQ-32B",
"messages": [
{
"role": "user",
"content": "What opportunities and challenges will the Chinese large model industry face in 2025?"
}
]
}
headers = {
"Authorization": "Bearer <token>",
"Content-Type": "application/json"
}
response = requests.post(url, json=payload, headers=headers)
print(response.json())
💻Curl Chat Completions
curl --request POST \
--url https://api.siliconflow.cn/v1/chat/completions \
--header 'Authorization: Bearer <token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "Qwen/QwQ-32B",
"messages": [
{
"role": "user",
"content": "What opportunities and challenges will the Chinese large model industry face in 2025?"
}
]
}'
💻Javascript Chat Completions
const url = 'https://api.siliconflow.cn/v1/user/info';
const options = {method: 'GET', headers: {Authorization: 'Bearer <token>'}, body: undefined};
try {
const response = await fetch(url, options);
const data = await response.json();
console.log(data);
} catch (error) {
console.error(error);
}
💻v0.6.28 Added and Fixed
Added
🔍 The "@" command for model selection now supports real-time search and filtering, improving usability and aligning its behavior with other input commands. #17307, Commit
🛠️ External tool server data handling is now more robust, automatically attempting to parse specifications as JSON before falling back to YAML, regardless of the URL extension. Commit
🎯 The "Title" field is now automatically focused when creating a new chat folder, streamlining the folder creation process. #17315, Commit
🔄 Various improvements were implemented across the frontend and backend to enhance performance, stability, and security.
🌐 Brazilian Portuguese and Simplified Chinese translations were expanded and refined.
Fixed
🔊 A regression affecting Text-to-Speech for local providers using the OpenAI engine was fixed by reverting a URL joining change. #17316, Commit
🪧 A regression was fixed where the input modal for prompts with placeholders would not open, causing the raw prompt text to be pasted into the chat input field instead. #17325, Commit
🔑 An issue was resolved where modified connection keys in the OpenAIConnection component did not take effect. #17324