Skip to main content

黄金海岸

  1. SeqLog — Apple 原生的 Logseq 替代品。

    SwiftUI + Rust FFI,没有 Electron,没有 300MB 运行时,没有云。

    - 不做数据库(.md 就是真相)
    - 不做索引(ripgrep 够快,VS Code 同款引擎)
    - 不做云(你自己选 iCloud/Git/Dropbox)
    - 不做 Electron(SwiftUI 原生)

    seqlog.com
  2. 7个提示词,让 Claude 从聊天机器人变成思考伙伴 | 帖子

    普通人给 AI 一个问题,等一个答案。Karpathy 给 AI 一套思维框架,然后让它在框架里工作。

    有网友一语点破:这些提示词本身只是表象,真正的差距在于你如何定义问题。提示词是结果,思维方式才是原因。

    以下是 7 种具体用法:

    1. 系统拆解提示:遇到复杂问题,强制 Claude 按步骤走:明确问题、列出假设、识别约束、拆分子问题、提三种方案、比较权衡、给出执行路径、预判失败点。这套流程本质上是把你的思维过程外包出去,然后让 AI 替你跑一遍。

    2. 第一性原理提示:不要类比,不要总结,从最底层概念开始,一层一层建起来,最后给出心智模型、真实应用和常见误解。适合搞懂 LLM、系统设计、数学原理这类容易“以为自己懂了”的东西。

    3. 研究简报生成:让 Claude 给出某个领域的全景图,包括玩家格局、当前路径、失败案例、市场空白、逆向洞察和可落地机会。它会变成一个还不错的分析师。

    4. 构建架构提示:从想法到实现,要求它给出最简版本、组件结构、数据流、技术栈、构建顺序、边界情况和扩展策略。省去大量乱猜阶段。

    5. 提示词优化器:把你自己写的提示词扔进去,让它优化清晰度、结构、约束条件和输出格式,并解释改了什么、为什么更好。提示词质量会随时间复利增长。

    6. 专家模式切换:让它以高级工程师对工程师的方式回答,跳过入门解释,直接聚焦实现、权衡和踩坑点。

    7. 批判性思考伙伴:让它不要盲目附和,主动挑战你的假设、指出逻辑漏洞、提出替代方向。这一步大多数人从来不做。

    有网友补充了一个实践细节:在开发应用的过程中,你得反复做审计,一旦发现模型开始循环并强行引入不必要的改动,那就是该叫停的时机。

    这 7 个提示词值得存起来反复用。不过更值得记住的是:AI 给出的答案质量,上限就是你提出问题的质量。
  3. 在线开发经常需要面对前端设计、后端架构、移动开发和图形着色等多样技能,学习曲线陡峭且缺少系统化指引。

    MiniMax Skills 专为 AI 编码助手打造了一套结构化的开发技能库,覆盖从前端动画、全栈集成,到安卓 iOS 原生开发,再到 GLSL 着色器视觉特效。

    项目不仅支持丰富技术栈和产业标准,还能兼容多种 AI 工具如 Claude、Cursor、Codex 和 OpenCode,通过简单配置即可集成使用,极大提升开发效率和代码质量。

    主要内容:

    - 前端开发:React / Next.js + Tailwind CSS,支持动态图形与 AI 生成媒体;
    - 全栈开发:REST API、认证、安全、实时通信及数据库整合指南;
    - 安卓原生:Material Design 3,Jetpack Compose,性能与易用兼顾;
    - iOS 应用:SwiftUI、UIKit、Apple HIG 标准实现无障碍设计;
    - 着色器开发:GLSL 高级技巧,流体、粒子和光影特效制作;
    - 丰富文档生成:PDF、PPTX、XLSX、DOCX 格式的创建与编辑。

    支持多平台插件,适合 AI 辅助开发者、培训机构和大型团队协作。
  4. Reddit上一个关于“最短高效提示词”的帖子引起了广泛讨论。核心结论是:几句话的设计,远比长篇大论更有力量。提示词不是越多越好,而是要打在要害上。| 帖子

    多数人用AI的方式,是在跟一个想取悦你的人聊天。它会点头,会夸你,会把你的问题包装成智慧。

    改变这一切只需要一句话:

    “Be honest, not agreeable.”

    高赞回复里,有观点认为最有效的不是“聪明提问”,而是在提问之前先做一件事:让AI在回答前,先说出你隐含的假设、最常见的错误、以及会改变答案的缺失信息,然后问你一个关键问题,等你回答之后才给出结论。

    这个结构的逻辑很简单:AI默认填补你的认知空白,而这个填补过程你是看不见的。把它拿出来,你才知道自己在问一个什么样的问题。

    另一个被反复提到的方向是反拍马屁设定。有网友在自定义指令里写:停止表示赞同,作为我的高级顾问,不要验证我,不要软化真相,不要奉承,挑战我的思路,指出我在回避什么,告诉我机会成本。

    有观点认为这类提示有个陷阱:命令AI“停止赞同”,它可能变成一个表演批评的模型,而非真正提供有价值的反馈。让它太对抗性,会产生疲惫感,而非突破感。

    一些简短但实用的提示词,按效果排列:

    -“Think step by step before answering.”多步推理准确率显著提升

    -“Assume I am wrong. Show me where.”评审、代码审查、逻辑验证最好用

    -“If you don't know exactly, say UNKNOWN.”把不确定变成可识别信号

    -“You are a [role]. Never [that role's most common failure mode].”一行完成角色设定和反模式封堵

    -“Systematically”加在任何指令前,Claude会自动结构化任务

    有网友提到一个反常识的点:公开流传的提示词,往往在你手里效果打折。因为提示词的输出高度依赖对话上下文,原作者隐性提供了大量背景,你复制的只是字面,不是那个上下文。

    所以真正的问题或许是:你到底需要AI给你答案,还是帮你想清楚问题本身?
  5. > 理解了这三句啊,会让自己活得更通透。第一句、别人的认可,是廉价的枷锁。第二句、自我接纳,是最低成本的自由。第三句、被别人讨厌不可怕,想让人喜欢才是你的弱点。

    是吗
  6. 开发者自荐 | 漫画胶囊:给本地漫画党做的阅读器,支持 NAS 挂载和 AI 高清

    检索标签:#漫画胶囊 #漫画 #MangaCapsule #漫画阅读器

    详情介绍:这是一个给 本地漫画党 做的阅读器,你放在 NAS、网盘和本地 的资源都能接进来,不用先折腾下载和搬运;它支持 WebDAV、SMB、OPDS,连 阿里云盘、百度网盘、Google Drive、Dropbox

      它真正讨喜的地方:大压缩包加载、双页拆分、跨页合并、老漫画 AI 高清 这些都支持。再加上 流式加载,远端资源不用等下完就能翻,挺适合已经有自己漫画库的人

    限时终身会员·早鸟价48元

    官网 · 漫画胶囊·App Store

    开发者:@xiaotianhu1

    频道 |群聊 |中文包 |搜索
  7. 三条隐藏指令让Claude不再“胡编乱造” | 帖子

    一位开发者在构建每日研究工作流时,偶然发现了Anthropic文档中的“减少幻觉”页面。三条简单的系统提示指令,彻底改变了Claude的输出质量。

    第一条:“允许Claude说我不知道(Allow Claude to say I don't know)”。没有这个指令,Claude会用听起来合理的虚构内容填补知识空白。有了它,你会真正得到“我没有足够信息回答这个问题”的回复。听起来简单,但默认行为是无论如何都要给出答案。

    第二条:“用引用验证(Verify with citations)”。告诉Claude每个断言都需要来源,找不到就收回。开启这个后,许多之前听起来很权威的陈述直接从输出中消失了,因为根本没有依据。

    第三条:“用直接引用进行事实验证(Use direct quotes for factual grounding)”。强制Claude在分析前先从文档中提取逐字引用。这能阻止“释义漂移”,模型在总结时会微妙地改变含义。

    单独使用每一条都有帮助,三条一起用会根本性地改变输出质量。

    但有个权衡。一篇论文(arXiv 2307.02185)发现,引用约束会降低创造性输出。所以这位开发者做了个切换开关:研究模式激活全部三条,默认模式让Claude自由思考。

    奇怪的是,这些都公开发布在Anthropic的平台文档上。并不隐蔽。但问了一圈用Claude开发的人,没人见过它。

    有用户将这些指令应用到客服机器人后,效果立竿见影。之前Claude会自信地回答FAQ之外的问题,编造看似合理的答案。现在遇到没有的信息,它会说“我没有这方面信息,让我为您联系店主”,而不是瞎编。

    社区讨论的焦点是:为什么这些不是默认设置?

    答案很现实。对于编程、头脑风暴、写小说这类任务,你希望Claude做出跳跃性的联想和连接。强制这些约束会让创造性工作变得糟糕。对某些用户最好的设置,对其他人可能是灾难。

    有人建议让Claude给出“置信度百分比”,但这个想法被社区强烈否定。任何Claude给出的置信度分数本身就是一种幻觉,它衡量的是统计上的词语选择,不是事实准确性。

    更高级的做法是在自定义指令中创建可切换的“研究模式”,用斜杠命令(如/research)为某个会话激活这些规则。

    一位用户分享了他的系统提示:将Claude定位为研究协作者而非权威,标记置信度水平,为每个概念提供至少两个类比,并明确说明每个类比的局限性。对每个理论,识别它失败的具体条件。

    这不是万能药。这只是众多可能的防护栏中的几个,不要以为它能完全消除幻觉。但如果你需要事实准确性而不是创意输出,这三条指令值得一试。
  8. 分享一个最近做的和 AI 不太有关系的小插件「拾刻-中学文学时钟」:

    四年前看到一个外国项目,把文学作品里的时间描写做成了时钟——下午三点,屏幕上出现的是某本小说里写的"It was three o'clock"。

    当时就想:为什么没有中文版的?并在自己的头脑风暴文档里记下了这个想法。

    这个 idea 一放就是四年,上周的某一刻,我突然又翻出了这个想法。动手做了一个 Chrome 新标签页插件,叫「拾刻」。

    功能很简单,每次打开浏览器新标签页,会看到一句和当前时刻对应的中文文学引文。比如:

    🕐 凌晨 1 点——"整个宇宙将为你闪烁。" ——《三体》

    🕓 下午 3:30——"下午三点半左右,阿廖沙在那条路上走着。" ——《卡拉马佐夫兄弟》

    背景色也会跟着时间变化(HEX 十六进制色值),还做了一个「虫洞穿越」模式——按空格键,时间倒流,以引力加速度的动画在三分钟内快速闪回今天经过的每一分钟。

    目前我收录并校对了 967 条引文,覆盖余华、村上春树、刘慈欣、纳兰性德、苏轼、老舍等 200+ 位作家。每一条都有真实出处,不是 AI 编的。语料库是一个体力活,即便有AI,做这个事情也不轻松,后面我会持续再更新,欢迎感兴趣的朋友持续关注。

    如果对这个工具感兴趣,可以直接去 Chrome Web Store 搜「拾刻」就能装。目前仅支持 Chrome、Edge 等 Chrome 内核的浏览器(目前 AI 浏览器因为对于 newtabs 进行了改造,新标签页的插件都不支持,所以这类 AI 浏览器暂时都不支持,包括 Dia、Arc、Atlas 等)

    最后,希望在你无聊的工作间隙,也能从文学中拾取到一个有趣的时刻。

    「拾刻」插件链接:https://chromewebstore.google.com/detail/agoanicnncfnnilkkihplfkpkpkhdbac?utm_source=item-share-cb