智能助手网
标签聚合 token

/tag/token

linux.do · 2026-04-18 22:25:04+08:00 · tech

虽是V0.3版本,但实际上对体验进行了大量完善优化,力求降低AI接入的门槛,为更多人人群带来专注AI体验; 1.独立导入模式支持:支持直接从当前浏览器打开的中转站自动化导入了 插件/备份导入依旧支持,可通过此最佳实践路径补充完善; 2.批量检测模型进一步优化:余额查看、快速对话、模型性能统计(TTFT、TPS、Latency)能力、站点管理 引入站点管理,简化每次导入逻辑,批量检测更加方便 3.高级代理网关,支持优先级自定义、自动切换、故障转移、多渠道队列、整流修正功能; 支持claude客户端使用openai等模型、自行排序队列、RPM限定等高级设置 mini侧栏可实时观看哪些节点被调度中、实时检测调用性能 4.优化体验:自定义key、标签备注、侧栏实时队列监控、全平台适配已完成 如有疏漏不佳体验、欢迎继续发掘指正问题 开源地址在初始发布贴: https://linux.do/t/topic/1828809 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-18 22:06:31+08:00 · tech

1:结构化agents/claude 初始提示词. 只应该放置你是谁你在什么环境,本机有什么内容,现在的项目介绍一句话. 2:mcp标准化简略化. 可以配置disable 把不需要的mcp 工具给关闭. 3:skill搭配mcp工具特化如grok/context7/adb/chrome/supabase等 4:重点model基本化 配置示范 codex config.toml (点击了解更多详细信息) claude CLAUDE.md (点击了解更多详细信息) 项目说明使用 github.com GitHub - TokenRollAI/llmdoc: TokenRoll LLMDoc for Coding Agent TokenRoll LLMDoc for Coding Agent 记忆管理使用 github.com GitHub - gaoziman/claude-context-manager: claude-context-manager for claude code claude-context-manager for claude code model setting 使用 high 代替xhigh. todoplan 任务纲要使用 chatgpt 网页的pro对话完成 pro 反代公益站点 一次对话完成一件事情. 避免长上下文. 第一是我打出来的高缓存+高token 对话切费率低. 如果你们看懂了 就知道我说的是什么. llm最爱 代码行数低于1000/1个文件 组织结构化的文件目录. 清晰的顶层目录 每个大目录都应该有claude/agents文档. 从0~1~95%号池自建 自建号池状态页1Etoken=67刀 留下小爱心 冲击lv 3 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-18 12:59:31+08:00 · tech

之前用古法注册机弄了点GPT的Free账号,然后自己搭了个sub2api进行反代。在CC中调用时,发现sub2api的使用记录里的缓存值一直是一个固定值,似乎没有命中更多缓存。 这也导致每次请求消耗的额度很高,二十几个账号的额度很快就没了。 虽然Free账号额度本来也比较少,但还是想请教下各位佬友,有什么办法能提高这个缓存token命中率吗?或者CC的配置中需要加什么特殊的值吗? 3 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-18 10:43:30+08:00 · tech

可以不需要邀请码了,直接就能用了 需要赞助plus token。 第一天送1850个积分。以后每天送950积分。 之前的用户不受到影响。没有赞助的用户每天只有50积分。 api也弄好了,大家可以试试看。 我之前弄了一个free的gpt图片生成站,然后我今天发现只要改一个模型就能用 GPT-Image2。 现在我遇到的问题如下: 1.我只有5个plus账号。我后面会弄成提供plus账号送积分。我只需要accessToken就可以了。如果你愿意提供cli的格式我也不说什么。之前是1个账号120个图片额度。我不知道 GPT-Image2。是不是也是这样算的。 2.我需要一个公益的图床。我的服务器在日本,传国内免费的图床很慢。还不如直接从服务器下载。 3.暂时没想到 。 记得选gpt-image2 提示词最好告诉ai,需要的是图片,如果ai回复你文字 可能就没有图了。 47 个帖子 - 35 位参与者 阅读完整话题

hnrss.org · 2026-04-18 08:47:20+08:00 · tech

I built this to run OpenClaw safely. The problem: every sandbox I tried still handed the real API token to the agent as an env var. nilbox never gives the agent the real token. It gets a fake placeholder instead (ANTHROPIC_API_KEY=ANTHROPIC_API_KEY). nilbox intercepts outbound API calls and swaps in the real token at the network layer. So if the agent leaks the "token" — attacker gets a useless string. That's it. Also ships a managed Linux runtime (consistent across mac/win/linux) and a Store for one-click agent app installs. Full shell access too. Available for macOS, Windows, and Linux https://nilbox.run Curious how others are thinking about token security when running agents locally. Comments URL: https://news.ycombinator.com/item?id=47812193 Points: 3 # Comments: 0