Anthropic 出了个新产品叫 Claude Design——打字描述你要什么,它直接帮你生成原型图、演示 deck、one-pager。做完可以导出 PDF、PPTX,或者直接丢进 Canva 继续改。还能读你公司的设计规范,保持品牌一致性。目前是 research preview,Pro/Max/Team/Enterprise 用户可用。
如果你是 PM、consultant、或任何需要"快速把想法变成能看的东西"的人——以前要等设计师排期或者自己硬啃 Canva。现在打字就出。Figma 股价当天跌了 7%,市场信号很明确。
通用非技术背景获益最大
Claude Code 桌面版彻底重做了:支持多个 session 并排跑、侧边栏管理所有任务、内置终端和文件编辑器。更重要的是新出了 Routines——把自动化任务打包成一个配置,定时跑、API 触发、或者 GitHub 事件触发,你的电脑关了也能在云端继续执行。
对技术人来说,这是从"跟 AI 一对一聊"到"同时指挥多个 AI 并行干活"的跳跃。Routines 意味着每天自动审查代码、跑测试、生成日报这种事可以完全后台运行。对非技术人暂时用不上,但代表了方向——AI 从对话助手变成自动化员工。
技术背景工程管理者
GPT-5.4 加了 computer use 功能:它可以自己导航软件界面、点按钮、填表单、跨应用执行多步操作。不是概念演示——它真的能从一个系统拉数据、处理、然后录入另一个系统。ChatGPT Plus 和 Pro 用户都能用。
你每天重复的那些"打开系统 A 导出 → Excel 整理 → 粘到系统 B"的操作,现在可以让 AI 帮你做了。特别适合日常涉及多系统操作的人。注意 Claude 也有 computer use(通过 Cowork),两家在赛跑。
通用多系统操作的职场人尤其受益
Google 的 Gemini Flash-Lite 定价降到每百万 token $0.25,开源的 DeepSeek V4 Lite 更低。多个前沿模型的上下文窗口突破 100 万 token。一年前要花几美元处理的内容量,现在几美分就够了。
"AI 太贵用不起"这个借口正在消失。想做 AI 副业或小产品的人,基础设施成本几乎可以忽略不计。
通用关注创业方向的人
Google 不再只做"便宜大碗"了。Gemini 2.5 Pro 在编程、推理、多模态上全线补课,部分 benchmark 追平 Claude Opus 和 GPT-5 级别。API 定价依然是 Claude/GPT 的 1/3 到 1/5。更关键的是——直接嵌入 Gmail、Docs、Sheets、Calendar 全家桶。
选模型的实用框架:最难的任务用 Claude,日常批量任务用 Gemini,创意内容用 GPT——不必忠于一家。如果团队用 Google Workspace,Gemini 是阻力最小的 AI 入门路径。
通用Google 生态用户关注 AI 成本的人
用自然语言描述你要什么应用,Lovable 直接生成完整的全栈 App——数据库、用户登录、部署,全包。两个月内达到 $20M 年化收入,AI app builder 赛道增长最快。
如果你有一个小工具的想法——内部 tracker、客户表单、MVP 验证——以前需要找开发者或自学编程。现在门槛大幅降低。不能替代正式产品开发,但"从 0 到能用"的速度是革命性的。
非技术背景想做产品的人技术人快速验证想法
三个免费工具组成闭环:NotebookLM 负责消化(丢进 PDF/YouTube/网页,自动出摘要和播客音频)→ Gemini 或 Claude 负责深挖(追问、拆解、举例)→ Notion 负责沉淀(结构化笔记,团队共享)。Notion 比 Obsidian 更适合多人协作——免费版支持 10 个协作者,实时同步,不需要学 Markdown。
特别适合学习型社群:非技术成员用 NotebookLM 降低"读长文"门槛,技术成员用 Claude 做代码级深挖,所有人把收获写进共享 Notion。知识不再散落在各自的聊天记录里。详见附件《三件套学习法》PDF。
通用信息密集型工作者学习型社群
研究发现:在英文里混入其他语言的词汇会让 LLM 理解力下降,但反过来——以其他语言为主体框架、关键术语保留英文——反而能提升 LLM 的理解和推理能力。测试覆盖中文、阿拉伯语、法语、德语与英文的混搭,结论一致。
对中英双语用户来说,直接验证了一个实操技巧:用中文写主体框架和指令,关键概念/术语保留英文原词。比如写"请分析这个 claim denial 的 root cause"比"请分析这个索赔拒绝的根本原因"更可能得到高质量回答。明天就能用。
通用中英双语 prompt 用户必看
你写的 prompt 不够好?TextGrad 让 AI 自己批改自己的 prompt。原理:AI 跑一遍任务 → 另一个 AI 看结果给文字反馈"哪里不好、怎么改" → 根据反馈自动修改 prompt → 重复直到效果满意。本质上就是 AI 当自己的 prompt 教练。不需要微调模型,不需要花大钱。
你现在就能借鉴核心思路:让 Claude 评价自己的输出质量,然后根据评价重写——这就是手动版的 TextGrad。比如写了一个数据分析的 prompt 模板,让 Claude 先跑一遍,再问"这个输出有什么问题?请改进 prompt"。重复两三轮,质量显著提升。
通用重度 prompt 用户获益最大
ChatGPT 今天上午经历大规模 partial outage,影响范围包括对话、登录、语音模式和图片生成,高峰期英国超 8700 人报告问题,美国近 1900 人。目前已修复并在监控恢复中。
社交媒体上大量用户反应是"ChatGPT 挂了我没法工作了"——说明很多人已经完全依赖单一工具。建议至少熟悉两个平台(Claude + ChatGPT,或加 Gemini),关键工作不要只有一条路。
Maryland 州长 Wes Moore 在官邸召集 AI 公司高管,讨论在"Mythos 时代"如何应对不断上升的网络安全风险。这是去年他与多家 AI 公司私下交流的延续。
DMV 地区的朋友注意——Maryland 正在主动定位自己在 AI 安全领域的角色。对 DMV 的 AI 社群来说,这是政策层面的信号,未来可能有活动/合作/政策参与的机会值得跟踪。
Stanford 年度 AI 全景报告出炉。核心数字:AI 的普及速度超过了个人电脑和互联网;美中模型性能几乎持平,Anthropic 目前领先;22-25 岁软件开发者就业率自 2022 年下降近 20%;三分之一的组织预计未来一年 AI 将缩减劳动力;AI 在客服领域提升生产力 14%,软件开发领域提升 26%。
两个层面:第一,AI 对就业的影响已有数据支撑,不是猜测;第二,"最好的模型差距很小,竞争转向成本、可靠性和实际好用程度"——对个人来说,选哪个模型没那么重要,重要的是你会不会用。
OpenAI 将在三年内支付 Cerebras 超过 200 亿美元使用其芯片服务器,这笔交易还可能让 OpenAI 获得 Cerebras 的股权。OpenAI 还提供约 10 亿美元帮助 Cerebras 建设数据中心。
AI 大厂正在从"买 NVIDIA 的卡"转向"投资自己的算力供应链"。长期来看 AI 使用成本还会继续降,对终端用户是好事。Cerebras 也在准备 IPO,整个 AI 芯片赛道正在加速分化。