这两天,我把一条链路彻底打通了:在 OpenClaw 中写文章框架和核心思路 → openclaw大模型润色生成文章 → 自动发布到 Blog → 通过 RSS → 自动同步到微信公众号草稿箱。不再复制粘贴,不再手工排版,不再盯着图片是否失效。整条链路,从编辑到分发,完全自动运行。这篇是完整的操作日记。一、起点:从 OpenClaw 直接编辑 Blog核心目标只有一个:想法是随时出现的,出现后随手写写核心想法扔给openclaw,openclaw读取你的博客了解你的文字风格,将想法生成出完整的博客。让写作随时谁地完成,自动后台完成发布。我已经有 Blog(支持 RSS 输出),现在要做的,是把 OpenClaw 变成“写作前端”,Blog 变成“内容源头”,再由程序自动分发。结构是这样的:OpenClaw → Blog(生成文章)→ RSS → VPS 脚本 → 微信公众号Blog 只负责两件事:正确生成文章正确输出 RSSRSS 是桥梁。二、搭建“云端数据桥梁”:VPS + Python家里是动态 IP,不稳定,也不适合长期对接微信 API。于是我租了一台固定公网 IP 的 VPS
今天把 openclaw 里的 blogwatcher 配置完成了,并按照 Claude 的建议加了几个信息源(AI、创业、技术社区方向)。配置完成没多久,就推送来一篇英文内容。我当时没点原始链接,但从内容结构和表达风格判断,大概率来自:Hacker NewsYC(Y Combinator)招聘/创业信息流因为整篇文章非常典型:创业公司介绍招聘技术型创始人强调 AI agent、产品 ownership、PMF完全是 YC 体系的语言风格blogwatcher 在这里的作用已经很清晰:它不是普通 RSS 订阅器,而是一个AI 驱动的信息筛选入口。不是简单“抓文章”,而是:信息源 → AI筛选 → 推荐 → 阅读 → 进入知识流本质是:我在搭一个“自动获取高价值信息”的系统。那篇文章讲的是什么岗位文章内容是一家 YC 创业公司在招人,岗位名字很有意思:Ex Technical Founder(前技术型创始人)简单说就是:招“做过创业、会写代码、能用 AI 做产品”的人。不是算法岗,不是普通工程师,而是一种新型角色。薪酬待遇什么水平岗位给出的条件:£90K – £180K 年薪0.10%
今天打通了通过 Clawdbot 直接编辑和生成 Obsidian 文档的功能。结合我之前“Obsidian 到 Blog”的自动化流程,现在真正实现了围绕 Obsidian 的文稿+短视频全自动化生成:前端由 Clawdbot 负责语音识别与大模型润色,生成 Obsidian 笔记后,进而自动触发博客和短视频的发布。另外,因为这套系统部署在 macOS 上,Clawdbot 还能直接调用本地能力,搞定 Apple Notes 和 Google Sheets 的自动化处理。对了,邮件流也打通了:自动收信、处理、回复,一条龙。
今天终于下定决心开通了 Claude Pro,主要是为了使用 Opus 4.6,在复杂推理和代码审查方面的能力确实更强。现在整体的使用方式也逐渐清晰起来:让 Codex 和 Claude Code 分工协作。Codex 负责高强度、批量化的代码生成与实现,侧重“把功能快速写出来”;Claude Code 负责代码检查、逻辑稽核和结构优化,重点是“把问题找出来、把质量兜住”。一个偏生产,一个偏审核,相当于搭建了一条 AI 开发流水线。此外,Gemini 主要通过 API 接入到 OpenClaw 中,承担工具化调用和能力补充;日常还会配合 NotebookLM 做资料整理与知识归纳,使用 Nanobanana 进行绘图和可视化表达。整体形成了“编码—审校—知识处理—可视化”的多模型协同工作体系。
周末按捺不住在 macOS 上部署 ClawdBot 的冲动,把早些年折腾的那台黑苹果(Mac mini 2018 / i7-8700B)又找了出来。安装过程还算顺利,但考虑到这是一个需要长期运行的服务端机器,断电后自动重启、以及系统启动后自动登录是必须的配置。所以我就对这个黑苹果做了两项操作:一是在 macOS 设置了macos优先启动,二是设置了用户的自动登录。后面证明,第二项操作是致命的,直接导致 macOS 彻底无法进入桌面。根据 Gemini 给出的方案,我开始进行修复。第一步非常顺利,按照它的指导,我进入 Windows 系统,使用 ProperTree 挂载并修改了 EFI 分区的 config.plist,关闭了启动的安全校验。重启后,进入了macos的系统引导,原本以为问题就此解决时,进度条跑了一半机器就自动黑屏重启,周而复始。真正的挑战:无限重启的死循环为了定位导致问题的原因,在启动参数中添加了 -v以便查看卡顿原因。原本以为像以前一样,看个日志就能定位问题,但现实很骨感。屏幕上代码滚动后,确实抓到了内核崩溃(Kernel Panic)的信息,但电脑依然处于无限重启
基于黄仁勋在2026年思科AI峰会上“酒后真言”的观点概括。1. 所谓“护城河”的崩塌:编程?那只是打字而已如果这番话发生在三年前,会被视为疯言疯语。但站在2026年,黄仁勋直接撕开了科技圈最后一块遮羞布。“编程?那只是打字而已。打字已经不值钱了。”过去三十年,我们被灌输的理念是:学会Python,学会Java,你就掌握了通往未来的钥匙。但黄仁勋告诉我们,那个时代结束了。随着AI代码生成能力的指数级跃升,语法(Syntax)不再是壁垒。这是否意味着程序员的末日?不,这是一种解放。2. 领域专家的崛起:不懂代码,却是最好的时代黄仁勋的逻辑非常残酷但也充满希望:当技术门槛降为零,业务门槛就会变得无限高。既然AI能在一秒钟内写出完美的函数,那么真正值钱的是什么?是知道该写什么函数的人。是理解生物学深层机制的医生。是洞悉供应链复杂逻辑的管理者。是深谙人性与市场的营销专家。未来的超级个体,不再是那些闷头写代码的极客,而是“懂业务、懂客户、且懂得指挥AI干活”的领域专家。黄仁勋甚至直言:“刚毕业的计算机高材生代码写得再溜,也不如一个懂客户痛点的资深销售值钱。因为代码AI会写,但客户的心,AI猜不透
摘要:当 AI 不再仅仅是陪你聊天的机器人,而是帮你操作电脑的“智能体”时,谁才是真正的王者?最新的基准测试数据显示,Anthropic 的 Opus 4.6 正在重新定义“Agent”的上限,而 OpenAI 和 Google 依然在各自的优势领域坚守阵地。最近,一份备受瞩目的 AI 大模型基准测试数据在社区流传。这份图表横向对比了 Opus 4.6、Opus 4.5、Sonnet 4.5、Gemini 3 Pro 以及 GPT-5.2。如果这些型号代表了未来的旗舰模型格局,那么数据告诉我们一个核心事实:大模型正在从“对话者(Chatbot)”向“执行者(Agent)”发生质的飞跃。以下是对这份“神仙打架”数据的深度剖析。1. Opus 4.6:智能体(Agentic)时代的绝对统治者这份表格最震撼的部分,在于 Opus 4.6 在 Agentic(智能体/代理) 相关任务上的表现。如果你需要一个能像人一样浏览网页、操作软件、处理复杂工作流的 AI,Opus 4.6 似乎是目前的唯一解。自主操作电脑 (Agentic Computer Use): 在 OSWorld 测试中,Opus
黄仁勋说“代码已死”?作为独立开发者,我用AI手搓了一套平台+App后的真实感悟。最近,英伟达CEO黄仁勋的一番言论在科技圈引起了轩然大波。他说:“软件代码编写已死。”很多人对此感到恐慌,但我却深表认同。当然,这并不是说我们可以把电脑扔了,而是说“写代码”这个动作本身的门槛正在无限降低。真正的核心竞争力,已经从“掌握语法”转移到了“专业知识的转化能力”上。谁能利用好AI的能力,将自己脑海中的专业领域知识(Domain Knowledge)快速转化为产品,谁才是新时代的赢家。这就是所谓的“如虎添翼”。最近,我正是在这种理念的驱动下,一个人单枪匹马构建了一套完整的平台以及配套的App。今天想和大家分享一下这个过程中的实战经验,特别是关于AI工具的选择以及对“专业知识”的重新理解。一、 AI开发实战:Codex搭骨架,Cursor做精修在这个项目中,我独立完成了一个平台端的搭建以及移动端App的开发。这在以前,可能是一个小型开发团队几周的工作量。我的主力AI工具组合是:Codex + Cursor。1. Codex:大刀阔斧的构建者在项目初期,利用Codex这类模型强大的生成能力,我能够迅速
OverviewThis article will briefly discuss CNNs, a special variant of neural networks designed specifically for image-related tasks. The article will mainly focus on the implementation part of CNN. Maximum efforts have been made to make this article interactive and simple. Hope you enjoy it.Happy learning!!Image SourceIntroductionConvolutional Neural networks were introduced by Yann LeCun and Yoshua Bengio in the year 1995 which later proved to show exceptional results in the domain of images. So
今天,我给自己的 Obsidian 做了一次大扫除。清理掉了一批当时记录得热火朝天,但后来戛然而止的内容。看着这些“半途而废”的笔记,反而像在回看自己思路的进化史。其中最显眼的,是 2024 年 4 月关于 「大模型微调」 的系列记录。当时的我,满腔热忱地想用专业知识去“训练”一个模型。1. 2024年的执念:打造一个“数字同事”在 2024 年 4 月 23 日的笔记里,我曾勾勒过一个朴素的愿景:希望模型像一个刚入职的大学生。 它拥有极强的通用基础,但缺乏行业背景和业务逻辑。我当时坚信,“微调”是把它带进岗位的唯一路径,通过注入行业知识和规则,把它从一个通用模型演变为一个行业模型。为了这个目标,我在 4 月 27 日配置了专门带英伟达显卡的独立电脑;5 月 8 日,我经历了环境配置、显存限制、数据清洗等一系列“折腾”后,终于让模型在本地跑了起来。那种“掌控模型”的成就感,在当时看来就是技术的终点。2. 判断的转向:微调不再是“默认路径”然而,用现在的眼光回看,大模型生态的演进速度超出了所有人的预料。当我今天重新审视这些笔记时,我发现自己的核心判断已经发生了结构性位移:能力溢出: 通用
walker
万事随性而为,因好而研,因趣而学,从心所欲。脱离依赖,谋划将来,避免经济之险,迈向希望之光。