nyarime 发表于 2025-8-10 20:01:59

【翻译限免】奶昔New API加速源上线,有中国节点的全球加速

奶昔New API加速源上线 - 有中国节点的全球加速!

您只需把 newapi.naixi.net 替换为 newapi.moecloud.cn ,其他都不变。
以OpenAI端点举例,将 https://newapi.naixi.net/v1/chat/completions 改为 https://newapi.moecloud.cn/v1/chat/completions 即可。



你是否也有这些困扰?
最近“沉浸式翻译”插件暴雷、Claude Code热度高,但是:
1、官方订阅贵、限速、容易封号
2、套餐额度用不完,非重度小伙伴感觉亏亏的
3、API计费不透明,感觉用的又快又贵

CC倍率降低于北京时间2025-08-10 20:00开启,由3降低至2。另外translate倍率由0.01降低至0,限免到热度过去{tieba11}
我们对于Anthropic爆炸导致Claude Code部分服务不可用向各位道歉,这两天也在加紧恢复中。
说实话,这是一次非常难过的周末,坐在电脑桌面前修问题。。。

超值定价策略
全站10:1汇率:1点数=$1,清晰透明
每日签到送1-20点数,10点起换。更多可以前往积分商店购买

核心亮点 - 沉浸式翻译
选择困难?让每一场翻译都像赛马:【沉浸式翻译】和【沉浸式翻译-Auto】任选其一

自动从翻译令牌中的可用模型,同时请求翻译结果,谁最快选哪个!后台只记录最快结果的生成费用,再加上限免,简直不要太爽
而且坛友也写了KISS Translator的教程,是替代沉浸式翻译的好插件~

不过我不明白为什么“沉浸式翻译”会提供GLM4.5给Pro用户翻译。实测glm4.5用于翻译速度较慢(50 tokens/s),因此我是不建议用于翻译使用
对于翻译模型... 用DeepSeek有点像大炮打蚊子。不过我日常用qwen-plus-latest翻译

限免活动及相关疑问解答
影响分组:对translate令牌免费,对Claude Code分组降低倍率
免费范围:原先:free模型(default令牌下)的基础上加translate令牌的所有模型
特别注意:请勿使用default令牌请求翻译模型,否则将会被后台计费。若产生扣费行为无法退回
建议:由于Opus模型消耗大、资源紧张,建议优先使用Sonnet模型(glm4.5与cc搭配绝配:较难的项目可以用GPT-5或者opus-4.1构建初版,然后用glm细化调整。修复bug能力足够强)

heardic 发表于 2025-8-10 20:02:04

支持奶昔!

小弹珠 发表于 2025-8-10 21:20:07

正在看教程测试,感谢奶昔!

fseut 发表于 2025-8-10 22:14:48

感谢奶昔

aaa 发表于 2025-8-10 23:36:32

怒赞!孩子很喜欢吃(

umida 发表于 2025-8-11 12:44:19

太棒啦太棒啦,终于有稳定的api源了

oki 发表于 2025-8-11 12:47:45

支持奶昔

Arlia 发表于 2025-8-11 12:56:43

支持昔老板

KANXV 发表于 2025-8-11 14:00:54

支持奶昔

nnas 发表于 2025-8-11 17:01:47

感谢,支持奶昔

晴雪狐 发表于 2025-8-12 01:41:16

好耶

sensen 发表于 2025-8-15 03:37:09

支持奶昔,New API看着很不错

luojingjun 发表于 2025-8-15 09:48:41

感谢奶昔
页: [1]
查看完整版本: 【翻译限免】奶昔New API加速源上线,有中国节点的全球加速