【翻译限免】奶昔New API加速源上线,有中国节点的全球加速
奶昔New API加速源上线 - 有中国节点的全球加速!您只需把 newapi.naixi.net 替换为 newapi.moecloud.cn ,其他都不变。
以OpenAI端点举例,将 https://newapi.naixi.net/v1/chat/completions 改为 https://newapi.moecloud.cn/v1/chat/completions 即可。
你是否也有这些困扰?
最近“沉浸式翻译”插件暴雷、Claude Code热度高,但是:
1、官方订阅贵、限速、容易封号
2、套餐额度用不完,非重度小伙伴感觉亏亏的
3、API计费不透明,感觉用的又快又贵
CC倍率降低于北京时间2025-08-10 20:00开启,由3降低至2。另外translate倍率由0.01降低至0,限免到热度过去{tieba11}
我们对于Anthropic爆炸导致Claude Code部分服务不可用向各位道歉,这两天也在加紧恢复中。
说实话,这是一次非常难过的周末,坐在电脑桌面前修问题。。。
超值定价策略
全站10:1汇率:1点数=$1,清晰透明
每日签到送1-20点数,10点起换。更多可以前往积分商店购买
核心亮点 - 沉浸式翻译
选择困难?让每一场翻译都像赛马:【沉浸式翻译】和【沉浸式翻译-Auto】任选其一
自动从翻译令牌中的可用模型,同时请求翻译结果,谁最快选哪个!后台只记录最快结果的生成费用,再加上限免,简直不要太爽
而且坛友也写了KISS Translator的教程,是替代沉浸式翻译的好插件~
不过我不明白为什么“沉浸式翻译”会提供GLM4.5给Pro用户翻译。实测glm4.5用于翻译速度较慢(50 tokens/s),因此我是不建议用于翻译使用
对于翻译模型... 用DeepSeek有点像大炮打蚊子。不过我日常用qwen-plus-latest翻译
限免活动及相关疑问解答
影响分组:对translate令牌免费,对Claude Code分组降低倍率
免费范围:原先:free模型(default令牌下)的基础上加translate令牌的所有模型
特别注意:请勿使用default令牌请求翻译模型,否则将会被后台计费。若产生扣费行为无法退回
建议:由于Opus模型消耗大、资源紧张,建议优先使用Sonnet模型(glm4.5与cc搭配绝配:较难的项目可以用GPT-5或者opus-4.1构建初版,然后用glm细化调整。修复bug能力足够强) 支持奶昔! 正在看教程测试,感谢奶昔! 感谢奶昔 怒赞!孩子很喜欢吃( 太棒啦太棒啦,终于有稳定的api源了 支持奶昔 支持昔老板 支持奶昔 感谢,支持奶昔 好耶
支持奶昔,New API看着很不错 感谢奶昔
页:
[1]