V2EX 热门帖子
1. VibeCoding 就是编程修正主义
一、一个被偷换的概念
最近半年,一个词在技术圈迅速蹿红:VibeCoding 。
意思很简单:你不需要理解代码,只需要用自然语言告诉 AI 你想要什么,AI 帮你生成,看看效果,不满意就再调,满意就上线。整个过程靠的不是工程能力,而是”感觉”——vibe 。
这不是编程的进化。这是对编程本质的一次系统性篡改——它没有否定”编程”这个词,甚至处处在使用它,但偷换了编程的全部内核。这种”在拥护的旗号下掏空本质”的操作,在思想史上有一个精确的名字:修正主义。
这个词最早由 Andrej Karpathy 提出。他本人是顶级 AI 研究者,原话是 “fully give in to the vibes, embrace exponentials, and forget that the code even exists”,语境是个人周末项目和快速实验,带着几分自嘲和实验性质。但概念传播开来之后,迅速变了味。需要说清楚:这篇文章批判的靶子不是 Karpathy 的原意,而是这个概念在传播中被异化后的版本——那些把 vibe coding 从”个人实验的自嘲”升格为”生产级方法论宣言”的人。在他们嘴里,编程不需要理解,只需要对话;软件不需要设计,只需要生成;工程师不需要思考,只需要提示。
修正主义的特征从来不是正面否定。1899 年,伯恩斯坦出版《社会主义的前提和社会民主党的任务》,他没有说”马克思错了”,而是说”马克思的理论需要与时俱进”。他保留了”社会主义”的全部词汇,却把革命替换成了改良,把质变替换成了渐进。他最著名的那句话——“最终目的微不足道,运动就是一切”——精确概括了修正主义的内核:保留过程的外壳,抽掉目标的灵魂。
VibeCoding 在做完全一样的事。它不说”编程不重要”,它说”编程的方式需要革新”。它保留了所有术语——代码、部署、迭代、产品——却抽掉了这些术语背后的工程灵魂。翻译成 VibeCoding 的语言:”系统能不能长期运行不重要,重要的是你在不断地生成代码、不断地出活。”
列宁在批判修正主义时,把它的攻击归纳为”三把刀”——哲学层面、政治经济学层面、目的论层面的三重偷换。这篇文章试图论证:VibeCoding 对软件工程的”修正”,恰好在这三个层面上,都构成了对编程本质的背叛。
二、编程的本质是什么
在讨论”修正”之前,必须先确认被修正的对象。
编程的本质不是”写代码”。代码只是载体,就像文字是思想的载体,但写字不等于思考。编程的本质是构建可控的逻辑系统——在给定约束下,设计一套自洽的规则体系,使其可靠地、可预测地、可维护地运行。
三个关键词:
可靠 ,意味着系统在预期范围内不会出错,在预期之外能优雅降级。这要求工程师理解每一个关键路径的行为。
可预测 ,意味着修改 A 不会导致 B 莫名其妙地崩溃。这要求系统有清晰的边界、明确的依赖关系和合理的抽象层次。
可维护 ,意味着六个月后另一个人(或者你自己)能看懂这段代码在做什么、为什么这么做。这要求代码不仅”能跑”,还要”能读”。
软件工程几十年积累下来的核心原则——抽象、封装、单一职责、关注点分离、可测试性——全部服务于这三个目标。这些原则不是学院派的教条,而是无数次线上事故、无数个深夜 oncall 、无数次”这他妈谁写的”之后,用血泪换来的共识。
这些,就是编程的”纲领”。
三、VibeCoding 的三重修正
列宁在 1908 年系统批判修正主义时,把它对马克思主义的攻击归纳为三个层面:第一把刀砍在哲学上——用庸俗进化论取代辩证法,只承认量变、不承认质变;第二把刀砍在政治经济学上——否认资本主义的内在矛盾必然导致危机;第三把刀砍在目的论上——放弃最终目标,把”运动”本身当作一切。
VibeCoding 对软件工程的修正,和这三把刀的结构惊人地同构。
第一重:哲学层面——用量变否定质变
列宁批判的”庸俗进化论”是什么?是”只承认量变,不承认质变——社会可以缓缓改良,水温可以从 10 度升到 90 度,但永远不会到达沸腾的那一度”。把质变从历史逻辑中抽掉,就从根本上取消了危机的必然性。
VibeCoding 在软件工程领域做的是同一件事。它最显著的特征是”快”。一个下午搭出一个完整的 Web 应用,一天做出一个 MVP ,一周上线一个产品。社交媒体上充斥着这样的展示,评论区一片”太强了””效率革命”。
这种叙事隐含了一个假设:代码量等于进度,功能数量等于产品完善度。只要不断往上堆功能,产品就在不断”进化”。
但任何做过真实项目的人都知道,软件系统存在一个质变的临界点。当代码量达到一定规模、模块间的耦合度超过某个阈值、技术债积累到某个程度,系统会从”能用”突变为”不可救药”。这个突变不是线性的,不是”再多一点就不行了”,而是某天突然发现:一个简单的需求变更要牵动半个系统,修一个 bug 会引入两个新 bug ,没有人敢碰核心模块因为没有人知道它为什么能跑。
VibeCoding 只承认量变——不断生成代码、不断堆叠功能——而系统性地否认质变的存在。它不会告诉你”该停下来重构了”,因为重构不产生可见的”进度”。它鼓励你一路狂奔,直到撞墙。
而撞墙之后呢?再开一个新项目,再 vibe 一次。反正生成代码的成本趋近于零。
这就是修正主义哲学的典型特征:只看到事物的渐进变化,拒绝承认事物会发生根本性的质的飞跃。在软件工程里,这个质的飞跃叫做”架构腐化”,它不会给你发预警邮件,但它会在某个深夜把你的系统彻底拖垮。
第二重:方法论层面——用工具崇拜替代工程思维
如果说第一重修正是在哲学上取消了”危机”的概念,第二重修正则更进一步:它在方法论上取消了”理解”的必要性。
VibeCoding 的第二个核心主张是:AI 能写代码,所以你不需要懂代码。
这句话的前半句是事实,后半句是谎言。而这个谎言的实现方式,是一次精巧的概念偷换:”AI 能写代码”被悄悄等价为”AI 能做工程”。
列宁对这种偷换有过精准的描述:”修正主义最可怕的地方在于,他用马克思主义的语言贩卖资产阶级的货色。一个资本家用脚踢你,你一躲就能躲开。一个自称是同志的人引用着马克思的语录,在最核心的问题上悄悄篡改了某个关键概念,这种打击你根本无法第一时间识别。”VibeCoding 做的正是这件事——它用”编程”的语言,贩卖”反工程”的货色。它不从外部否定编程,而是从内部偷换编程的含义。
写代码和做工程之间的距离,大约等于”会砌砖”和”会盖楼”之间的距离。AI 确实能生成语法正确、功能可用的代码片段,就像一个熟练的砌砖工确实能把砖砌得又快又整齐。但盖楼需要的不是砌砖速度,而是结构力学、地基勘探、管线规划、抗震设计。这些东西不在砖里,在图纸里。
VibeCoding 的信徒们喜欢说”工具是中立的”。但工具从来不是中立的。当你选择用 VibeCoding 的方式构建系统,你就做出了一系列隐含的决策:你放弃了对核心逻辑的理解,你接受了 AI 的架构选择(不管它合不合理),你默认了”能跑就行”的质量标准。这些不是工具的属性,而是使用方式所蕴含的价值取向。
说”工具是中立的”,就像说”枪是中立的”一样——技术上正确,实践上是废话。关键从来不是工具本身,而是工具被嵌入的生产关系。VibeCoding 被嵌入的生产关系是什么?是”用最低的成本、最快的速度、最少的专业人员,产出最多的可演示功能”。在这个关系里,工具服务的不是工程质量,而是资本效率。
第三重:目的论层面——用 demo 替代产品
哲学上否认质变,方法论上取消理解,最终指向的是目的论上的彻底替换:放弃长期目标,把短期运动本身当作一切。
修正主义有一句经典口号:”最终目的微不足道,运动就是一切。”翻译成 VibeCoding 的语言就是:”能不能长期维护不重要,先跑起来再说。”
这句话你一定听过。每一个被技术债压垮的项目,回溯起点,都能找到这句话的影子。
VibeCoding 把这种思维推到了极致。它生产的不是”产品”,而是”demo”——能演示、能截图、能发推特、能给投资人看,但经不起真实用户的使用、经不起规模的增长、经不起时间的检验。
能跑的 demo 和能用的产品之间,隔着什么?隔着错误处理、边界条件、并发控制、数据一致性、权限管理、日志监控、灰度发布、回滚机制。这些东西不性感,不适合发推特,但它们是”软件”和”玩具”的分界线。
当”先跑起来”成为最高纲领,”长期可维护”就被开除出了议程。这不是优先级的调整,而是目标的替换。你以为你在做产品,其实你在做一次性的演示道具。
四、VibeCoding 不是凭空出现的
在继续批判之前,有一个事实必须诚实面对:VibeCoding 之所以流行,不是因为程序员集体变蠢了,而是因为传统软件工程确实存在过度复杂化的问题。
过去十几年,行业里积累了大量的”伪工程主义”:三个人的项目上 Kubernetes ,为了抽象而抽象的八层架构,写半年基础设施没有产品,用”可扩展性”为过度设计辩护。很多工程师把”长期可维护”神圣化到了压制真实迭代的程度。工程从解决问题的方法,变成了一种自我证明的仪式。
VibeCoding 的流行,本质上是对这种”工程贵族化”的一次群众反弹。很多人第一次感受到”原来我不用学十年 CS 也能做出东西”,这个感受是真实的,这个需求是合理的。
你见过一个五人团队,改一行业务代码要过四轮审批、跑两小时 CI 流水线、写三份文档,流程走完需求已经过期了。你见过一个 CRUD 应用,为了”可扩展性”套了六层抽象,加一个字段要改十二个文件。你见过一个团队花三个月做”架构升级”,升级完了用户体验没有任何变化,唯一的产出是一份没人会再看的架构文档。这些不是段子,是很多程序员的日常。当”工程”变成了自我证明的仪式,变成了和业务价值脱节的技术自嗨,人们对它的反感就是合理的。VibeCoding 精准地击中了这个痛点。
但”反弹”和”矫枉过正”只有一线之隔。从”工程不应该过度复杂”到”工程不重要”,中间跳过了一整个论证过程。VibeCoding 把对”伪工程主义”的合理不满,偷换成了对”工程本身”的否定。这恰恰是修正主义最擅长的操作——借着对真实问题的合理批判,顺手把核心原则也一起扔掉。
需要说清楚的是:有意识的技术妥协不是修正主义。一个创业团队用 AI 快速生成 MVP 验证市场,拿到结果后再雇专家重构核心模块——这是合理的工程决策,因为妥协是有计划的、有边界的、有退出策略的。修正主义的特征不是”妥协”,而是”把妥协当成原则,把临时措施当成永久方法论,并且在这个过程中丧失了区分妥协和原则的能力”。红线不在于你用不用 AI ,而在于你是否还保持着对核心逻辑的理解和掌控。红线以内可以灵活,红线不能让。
五、谁在推动编程修正主义
到这里,可能有人会说:这不就是老板不懂技术、瞎指挥吗?
不完全是。不懂技术的老板是问题的一部分,但不是最危险的部分。一个明确不懂技术的人说”快点上线”,你至少知道这是外行话,心里有数。
最危险的,是那些懂技术、但选择妥协的人。
这种人在修正主义历史上有一个精确的原型:考茨基。考茨基是恩格斯晚年最倚重的理论家之一,主编《新时代》杂志,是公认的马克思主义理论权威。伯恩斯坦的修正主义系列文章最初就发表在他主编的杂志上。一开始考茨基是批伯恩斯坦的,但随着辩论深入,他的立场逐渐软化、摇摆,最终滑向了和伯恩斯坦差不多的方向。列宁后来专门批判他,称他为”叛徒考茨基”——不是因为他从一开始就站在对立面,而是因为他从内部、从权威的位置上完成了投降。
对应到技术团队,考茨基就是那个资深架构师。他们可能是团队的技术负责人,可能是你尊敬的前辈。他们知道架构有问题,知道 AI 生成的代码缺乏统一设计,知道”先上线再优化”大概率是一句空话。但他们选择了沉默,甚至选择了背书。
当一个资深工程师在技术评审会上说”AI 生成的代码我看了,没大问题,先推进吧”,这句话对团队技术底线的杀伤力,比十个外行老板的催促加在一起还大。因为他用自己的专业信用,为修正主义路线做了担保。其他人连质疑都会犹豫——“人家十年经验的架构师都说没问题了,我一个三年经验的凭什么反对?”
这些人不认为自己在”背叛”什么。他们觉得自己在”务实”,在”适应变化”,在”拥抱新技术”。但没有原则的务实,本质上就是对核心利益的出卖。他们用”我也重视技术啊,不然怎么会用 AI 呢”这种话术,把”放弃工程本质”包装成了”技术创新”。
但这里需要做一个区分:主动背书和被迫沉默是两回事。考茨基式的人物——那些用自己的专业权威为修正主义路线站台的人——是需要被批判的。但现实中还有大量的工程师,他们的沉默不是投降,是疲惫。他们在交付压力和技术理想之间反复拉锯,争取过、抗议过、妥协过,最终选择了”先活下来再说”。这些人不是叛徒,而是被裹挟的普通人。他们恰恰是最应该被争取的同盟——因为他们心里清楚什么是对的,只是缺少一个能说出来的环境和一套能说清楚的语言。
这恰恰是修正主义最毒辣的地方:它不是从外部攻破你的防线,而是从内部瓦解你的共识。
六、”先上线再优化”——编程修正主义的核心话术
如果要评选编程修正主义的”第一话术”,”先上线再优化”当之无愧。
有意思的是,反修正主义的历史也给出了反击这种话术的方法论。1963 到 1964 年间,中国共产党发表了震动世界的”九评”——九篇系统批判赫鲁晓夫修正主义的文章。九评的策略极其精密:前七篇全部是事实分析和理论论证,让全世界看清楚赫鲁晓夫的言行在事实层面已经构成对马克思主义的背叛;第八篇才正式下结论、点名定性。先摆事实,再下判断。这个论证顺序在今天看来仍然是极其扎实的理论批判范本。
“先上线再优化”恰恰是九评策略的反面——先下结论(这个能用),再找事实(上线后看看有没有问题)。它把论证顺序倒过来了,用结论替代了分析。
这句话的迷惑性在于,它在某些场景下确实是对的。创业早期、市场验证阶段、时间窗口紧迫的情况下,适度的技术妥协是合理的工程决策。但 VibeCoding 把这个”特定场景下的权宜之计”升格为了”普遍适用的方法论”,这就是修正主义的经典操作——把例外变成常态,把妥协变成原则。
技术债不是”以后再还”的债。它是利滚利的高利贷。
每一次”先上线”,系统的可维护性就下降一个台阶。第一次可能只是一个不太优雅的实现,第二次就是在不优雅的基础上打补丁,第三次就是在补丁上打补丁。到第十次的时候,没有人能说清楚这段代码为什么是这样的,只知道”不能动,动了就崩”。
我见过太多这样的项目:前三个月 VibeCoding 一路狂飙,demo 做了十几个,老板喜笑颜开;第四个月开始,每加一个功能的时间是上个月的两倍;第六个月,团队一半的时间在修 bug ,另一半时间在制造新的 bug ;第八个月,有人提议”要不推倒重来吧”。
推倒重来的成本,远远超过一开始就做对的成本。但 VibeCoding 不会告诉你这些。它只展示前三个月的辉煌,不展示后面的溃败。就像修正主义者只宣传”和平过渡”的美好愿景,不提”放弃斗争”之后被资本吞噬的结局。
七、VibeCoding 的阶级本质
说到这里,必须追问一个问题:VibeCoding 到底服务于谁?
表面上,它服务于”所有人”——降低编程门槛,让更多人能做出产品,实现”编程民主化”。这个叙事很动听,就像”纯粹民主”的叙事一样动听。
但”编程民主化”和”纯粹民主”犯了同一个错误:它假装不存在利益分化。
现实是:VibeCoding 最大的受益者不是程序员,而是资本。它让资本可以用更少的钱、更少的专业人员、更短的时间,产出”看起来像产品”的东西。至于这个东西能不能真正运行、能不能承受真实负载、能不能长期维护——那是”以后的事”。
更深一层看,VibeCoding 正在把软件开发从”长期系统构建”变成”即时反馈内容生产”。这个变化和我们在其他领域看到的趋势同构:短视频替代长内容,热搜替代深度报道,feed 流替代档案库。
AI 最大的优势是即时生成满足感。而真正的工程恰恰相反——它充满延迟反馈、不可见劳动、基础设施建设和长期治理。这些东西天然”不性感”,不适合发推特,不适合写周报。于是 AI 时代自然形成一种倾向:所有人都在优化”能立刻看见成果”的部分,长期价值被系统性低估。
软件开发的”短视频化”,比单纯的”代码质量下降”严重得多——它改变的不是产出的质量,而是整个行业对”什么是有价值的工作”的定义。
而程序员在这个过程中失去了什么?
失去的是核心竞争力的定价权。当”会用 AI 生成代码”成为招聘的主要标准,”懂架构设计””能做系统分析””会写可维护的代码”这些真正的工程能力就被边缘化了。程序员从”工程师”降格为”提示词操作员”,从”设计者”降格为”验收员”。
这不是”解放生产力”,这是”去技能化”。
去技能化是资本对劳动者最古老的策略之一:把复杂劳动拆解为简单劳动,让每个工人都变得可替代,从而压低劳动力价格。纺织机取代了手工织布匠,流水线取代了全能工匠,现在 AI 要取代的是”能独立思考的工程师”。
VibeCoding 的”编程民主化”叙事,本质上是资本”去技能化”策略的技术包装。它不是在赋能程序员,而是在消解”程序员”这个职业的专业壁垒。当所有人都能”编程”的时候,”编程”就不值钱了——但”能编出真正可靠的系统”永远值钱,只是这个能力正在被系统性地贬低和忽视。
八、守住工程主权
写到这里,需要做一个澄清:我不反对 AI 辅助编程。
AI 是优秀的工具。它能快速生成样板代码,能在思路卡住时提供参考,能加速重复性工作,能帮你探索不熟悉的技术栈。我自己每天都在用,它确实提升了我的效率。
我反对的,是用 AI 替代思考。
“辅助”和”替代”的界限在哪里?在于你是否理解 AI 生成的每一行关键代码在做什么、为什么这么做、有没有更好的做法。理解,AI 就是加速器;不理解,AI 就是麻醉剂——它让你产生”我在编程”的幻觉,但你实际上只是在搬运你不理解的代码。
核心逻辑必须自己把控。这不是守旧,不是抗拒变化,而是对工程本质的基本尊重。外科医生可以用机器人辅助手术,但他必须理解每一刀切在哪里、为什么切这里。飞行员可以用自动驾驶,但他必须能在自动驾驶失效时接管飞机。程序员可以用 AI 生成代码,但他必须理解系统的核心逻辑、关键路径和失败模式。
放弃了这个,你就不是工程师了。你只是一个按钮操作员,而按钮操作员是最容易被替代的。
VibeCoding 告诉你”不需要理解,只需要感觉”。这是编程修正主义最核心的谎言。
修正主义之所以难以识别和抵抗,是因为它利用了人类认知的一个根本弱点——我们倾向于通过标签而非内容来判断事物。当一个东西叫”编程”的时候,我们默认它包含编程应有的一切;当一个人的 title 是”工程师”的时候,我们默认他具备工程师应有的能力。修正主义就是利用这个认知捷径,保留标签、替换内容。对抗它的唯一方法是养成”看内容不看标签”的习惯——不管它叫什么,看它实际上在做什么。
感觉会骗人,代码不会。当你的系统在凌晨三点崩溃、用户数据丢失、老板打电话问你怎么回事的时候,”vibe”救不了你,只有你对系统的理解能救你。
AI 可以生成,可以建议,可以加速,可以探索。但——
系统边界是谁决定的?哪个 trade-off 被接受?什么风险可以承担?什么复杂度必须被消灭?什么技术债必须现在还?
这些问题的答案,构成了”工程主权”。
修正主义真正要夺走的,不是你写代码的权利,而是你做工程判断的权利。一旦这个权利被让渡——不管是让渡给 AI 、让渡给老板、还是让渡给”效率叙事”——你就不再是工程师,而是一个在别人画好的框里按按钮的操作员。
守住你的工程主权。
对工程师来说,刀刃就是对系统的理解、对质量的坚守、对工程判断的自主权。这是编程最后的阵地,也是 AI 时代工程师唯一不可替代的价值。
你可以不断改良武器的细节,但刀刃不能扔。敌人冲过来的时候,手里只剩刀柄的人,连还手的资格都没有。
作者: phpfpm | 发布时间: 2026-04-29 18:51
2. 刚刚爆了一个影响 17 年后所有 Linux 内核的本地提权漏洞 CVE-2026-31431 / Copy Fail,尽快排查
详情 (不确定这个网站靠不靠谱):
https://copy.fail/这是 HN 上的讨论:
https://news.ycombinator.com/item?id=47952181各家的报告:
https://access.redhat.com/security/cve/cve-2026-31431
https://security-tracker.debian.org/tracker/CVE-2026-31431
https://ubuntu.com/security/CVE-2026-31431
https://www.suse.com/security/cve/CVE-2026-31431.html实现方法:
https://github.com/theori-io/copy-fail-CVE-2026-31431按目前我了解到的情况,先排查影响,然后禁用 algif_aead ,最后要重启一下生效
楼主不是信息安全专家,具体还得等大佬补充
作者: ggdxwz | 发布时间: 2026-04-29 23:01
3. Codex (APP) 保姆级全攻略,海量实战教程, 一文精通
视频版:https://www.bilibili.com/video/BV1Kk9kBAEJv
最近 Codex APP 的能力越来越全面,变成了 Codex 四大产品形态里面最强的一个。Codex 比起 Claude Code ,额度更高,功能更全,上手更快,免费账户也能用,而且不会出现限速、封号、降智等问题,用过的小伙伴们直呼真香。本期视频带来一个 Codex APP 的完整教程,主要分为以下 12 个章节。
每个章节里面都会穿插一些重要的知识,对 Codex 的全部功能进行细致讲解。好,废话不多说,我们直接开始。
安装
在安装使用 Codex APP 之前,需要进行 3 个准备工作,也就是需要先把 Git 、Nodejs 还有 VSCode 安装一下。在我上期视频《从 0 开始用国内网络跑通一切 AI Agent 》里面,有详细的操作步骤,不熟悉的朋友们可以参考那一期视频。
接下来我们来到 Codex 的官网,Codex 支持 Windows 跟 Mac 两大操作系统。官网会根据你的操作系统,自动提供对应的安装包。本期视频我主要使用 Windows 来进行演示。Windows 跟 Mac 电脑的功能基本是一致的,唯一欠缺的功能是 computer use ,也就是自动操作电脑的能力。等需要演示这部分的时候,我会切换到 Mac 电脑进行演示。
然后我们一路点击下一步完成安装。接下来我们把 Codex APP 启动起来,选择 ChatGPT 账户完成登录。现在 ChatGPT 的免费账户也能使用 Codex 了,不过额度比较低。第一次进入软件要选一下希望 Codex 为你处理的工作,Codex 会根据你的选择预装一些内置的插件和 skills 。当然进入软件以后,我们还可以按需安装这些插件。然后选择主要的使用场景,是编程还是日常工作,这些都可以后续在设置里面进行修改。接下来点击设置沙盒按钮,完成沙盒的初始化。关于沙盒这部分的内容,我们下一个章节再来介绍。
项目与任务列表
我们点击右上角的按钮显示侧边栏,我们看到 Codex APP 是非常经典的三栏布局:左侧是任务列表,中间是对话窗口,右侧是多功能区域。
我们先创建两个项目文件夹,来展示一下它的基础使用。这里我在桌面新建了两个文件夹,作为两个项目文件夹。然后我们来到 Codex ,点击进入项目工作,使用现有文件夹。我们先选择第一个文件夹,这里我让它做一个 html 单页面的宠物洗护店的网页,开始。在左侧边栏里面增加了一个项目,项目的名称就是文件夹的名称,里面展示了正在运行的任务。
接下来我们点击左上角的新对话按钮。Windows 上的快捷键是 Ctrl+N ,Mac 系统的快捷键是 command+N ,来开启一个新的对话。我们可以选择新对话属于哪个项目。这里我准备开启一个新的项目,把第二个文件夹也添加进来,点击添加新项目,然后选择我们的第二个文件夹。
这里输入我第二个项目的需求:用 react 框架做一个网页版待办事项的提醒工具,回车开始执行。
在两个项目并行工作的同时,我们还可以开启更多的工作对话。比如这里我想询问 Codex 一个技术问题,我们把鼠标指向第二个项目,点击这个小按钮,在项目里面开启新的对话。
这里我询问 Codex:react 框架是什么,回车。这里看到我们开启了 3 个任务并行执行,有两个任务属于项目一,一个任务属于项目 2 。正在执行的任务上面都有一个转圈的小图标,表示 AI 正在工作。我们耐心等待一会。
过了一会状态就不一样了。有一个任务上面显示一个绿色标签,表示等待批准;有一个任务上面出现了一个蓝色小点,表示已经执行完毕了;还有一个任务继续转圈。我们来到这个等待批准的任务里面,发现 Codex 需要联网下载 Vite React 项目的模板,正在申请权限。
我们点击“是”批准,这个任务就继续执行了。又过了一会,三个任务上面都标记了蓝色的小圆点,表示三个任务都执行完毕了。Codex 任务列表非常的简洁美观好用,可以很方便地观察任务状态,可以并行开启多个工作任务,还能高效地从多个任务里面自由地切换。
我们再来看一下左侧边栏任务列表的其他功能。新对话按钮用来开启新的对话,在下面可以选择对应的项目,也可以选择不使用任何的项目,纯粹的闲聊。这种不属于任何项目的对话,都会被收录到任务列表的最下面,也就是对话这一栏里面。
左侧边栏第二个按钮,快捷键是 Ctrl+G ,Mac 电脑的快捷键是 command+G ,可以搜索近期的对话历史。不过我试了一下,这个功能只能搜索到对话的标题,它无法搜索到对话里面的内容。这里补充一下,每个对话标题都是 AI 根据对话内容自动摘要生成的。我们也可以选择某个对话,双击,对它进行一个重命名。如果我们不再需要某个对话了,可以点击这个归档对话的小按钮确认,然后我们的对话就在左侧边栏消失了。在设置已归档对话里面,可以找到我们删除的对话,点击取消归档就可以把它还原回来。左侧边栏还有两个按钮,插件与自动化,这个等我们在后面的章节再来看。
权限控制与沙箱
接下来我们来看一下中间的对话页面。这里最显眼的功能就是权限控制。
Codex 的权限控制全部是围绕沙箱来展开的,这点跟 Claude Code 有本质上的不同。Claude Code 的沙箱功能需要手动开启,Claude Code 的沙箱更像是一层可以额外开启的保护,而 Codex 的沙箱,它是整个权限系统运行的地基。
Codex 会把当前的项目文件夹作为一个沙箱进行管理。在默认权限下面,Codex 具有读取修改沙箱内所有文件的权限。在默认模式下,Codex APP 可以直接修改沙箱内,也就是项目文件夹的所有文件,它并不会一个个地跑来问你。我觉得这点非常的方便,也是符合正常的使用习惯的。当然我们也可以通过设置,改成逐个文件修改都需要审批,这个在视频的后半段高级设置这个我们再来讲。
Codex 的沙箱有两个默认限制。第一点是 Codex 不能修改沙箱外的文件,第二点是 Codex 的沙箱是禁止联网的。这两点硬性限制,它并不是靠模型自觉遵守,而是 Codex 使用操作系统底层功能实现的。不同操作系统的实现机制是不一样的,比如 MacOS 使用的是系统内置的 Seatbelt Sandbox 机制。
Codex 的沙箱功能是前阵爆火的 Harness engineering 概念的一个典型的工程实现,用操作系统级别的机制把 AI 的能力约束在一个可控的范围之内。这也很形象地体现了 Harness 这个词的原始含义,也就是马具。AI 就像一匹能力很强的马,而沙箱权限审批机制这些,就是套在它身上的马具。
如果 Codex 需要修改沙箱外文件,或者需要联网,可以向用户申请权限,这个操作叫做 escalate ,也就是提权操作。在默认情况下,提权操作都是需要人工审核同意的。Codex 为我们提供了第二个档位,也就是自动审查。启动了自动审查以后,Codex 会自动调用一个小模型,对提权操作进行安全性审查。如果发现是低风险的操作,就会直接放行。只有高风险的操作才会触发人工审查,这也是我最推荐的模式。自动审查使得绝大部分操作不需要人工审批,在获取了较高安全性的同时,还极大提升了使用的便利度。
所以一般情况下,在权限管理这里,我都推荐开启第二档,也就是自动审查。Codex 还有第三档,完全访问权限。开启了这个以后,Codex 完全无视沙箱的限制,可以在电脑上执行一切的操作。不过我们尝试开启的时候,这里出现了很醒目的风险提示,提示我们要谨慎使用。
上下文
在权限控制的右边有一个圆圈,展示的是当前上下文使用情况。这里翻译得不太好,准确的翻译应该是上下文使用量信息,显示的是这个对话里的历史对话内容占用了多少模型上下文空间。当上下文超过限制的时候,Codex 会自动对对话历史进行压缩,从而释放出更多的上下文空间。我们也可以输入斜杠,选择压缩选项,手动触发一次上下文压缩。压缩完成以后,Codex 会把之前对话的一些不重要的内容排除掉,可以有效提高 AI 的专注力,并且降低 TOKEN 消耗。
不过在 AI Agent 领域,有一个通用经验是清空好于压缩。因为过多的历史会话,会干扰 AI 的注意力。当我们让 AI 执行完一个任务以后,最好是开一个新的对话,清空上下文。这样有助于 AI 把注意力全部集中到新的任务上面来,从而提高任务的执行效果。
在上下文窗口的右边是模型选择,可以根据任务的复杂程度选择模型的思考强度。下面可以切换模型,这里一般我们就选择最新的模型,比如现在是 GPT-5.5 。
下面还有一个速度选项,可以选择标准还有快速。在快速模式下,会提升 50% 的 AI 推理速度,但是快速模式会消耗两倍的套餐用量。如果你的任务很急,但是套餐的余量还有很多,可以选择开启。
说到套餐余量,我们可以在左下角的设置剩余额度里面找到你现在的套餐余量。这里有两个限额,分别是 5 小时限额,还有周限额。这两个限额任意一个到达上限,Codex 都不能继续使用了。
两个限额都有对应的重置时间,时间到了以后,额度会重置成 100%。右边还有一个语音输入功能,可以让我们跟 AI 的交互从打字变成口喷,非常的好玩。
AI 生图
Codex 内置了 AI 画图功能,而且它使用的是当今最强的 AI 生图模型 GPT-Image-2 。这是刚才我让 Codex 为我们生成的宠物洗护的网站,我们看到它已经为我们配了一些图片。这里我看了一下,这些图片其实都是网络上的免费素材。这里有两个配图非常的不合适。首先这里的店内环境展示的都是一些宠物图片,它并不是一个真正的宠物洗护店的环境。第二点是门店信息,这里画的地图也太粗糙简陋了。
我们就针对这两个问题,让 Codex 帮我们来修改一下。我们来到 Codex ,新开一个对话,项目选择宠物洗护店那个。我让 Codex 调用 AI 绘图功能,绘制三个店内环境的轮播图,三个图应该分别展示店内的不同区域。
我们看到 Codex 为我们生成了三张图片,基本都保持了店内装修风格的一致性。
然后在网页这边也替换成了 3 张图片的轮播图,非常的不错。
接下来我们要改的是门店信息,这里的地图太简陋了。我们回到 Codex ,在宠物店应用这里新开一个对话,输入我的指令:
我们的店在陕西北路 1620 号,就是地图上标记的这个点。你按我发你的位置,用可爱清新的宠物风格的地图把我们的店标记上,然后修改网页里的门店位置信息。这里我来到地图,我截个图,然后把我们的店用箭头标记上。接下来我们直接 Ctrl+V ,Mac 系统是 Command+V ,把截图粘贴过来,开始。
在 Codex 的执行过程中,我随时跟踪进度。这里我发现了一个问题,就是他画的这个地图是用 SVG 生成的,效果很差。我原本是想让他调用内置的 AI 生图模型来画。借着这个机会,我要介绍 Codex 的一个强大功能。它的英文名叫做 steer ,中文翻译过来是引导。这个词的英文原文的意思是打方向盘。当我们发现 AI 在执行过程中理解错了我们的意思,就不应该让它继续执行了,这时候应该及时接管方向盘,人工进行引导干预。
这里我截个图发送给 Codex 说:你这图不行,应该调用 AI 绘图能力。
在默认模式下,这个新的指令进入了指令队列排队,需要 AI 把上一轮全部执行完,才能执行我们新输入的指令。我们可以点击这里的引导按钮,英文版叫做 steer ,中途接管方向盘,引导干预 AI 的执行。
我们看到 Codex 这里显示已引导对话,然后回复我说味不对,我立即改用 AI 生图,重新生成一张。我们使用 Codex 的 steer 功能,在运行中途成功纠正了模型的运行方向。
在 Codex 的设置常规设置里面,有一个跟进行为。这里可以设置在执行过程中,我们输入的指令是在后面排队,还是直接进入引导。
这里我推荐还是默认选择排队,如果需要引导的话,我们直接点击那个引导按钮,或者按快捷键 Ctrl+回车。我们看到 Codex 为我们重新生成了一张图片,并且把它替换到了网页里面,标注出了我们店的位置,效果非常的棒。
计划模式与内置浏览器
在对话窗口这里有一个加号,里面有三个功能。首先是添加照片和文件,我们可以用照片或者文件给 AI 补充上下文信息,或者可以像刚才一样通过复制粘贴,直接把照片或者文件粘贴进对话窗口。下面是插件,目前预装了 4 个插件,分别对应办公三大件( Word,Excel,PPT ),还有浏览器自动化。
我们主要看这里的计划模式。开启了计划以后,Codex 就不会立即上手干活,而是先为我们输出一份完整的工作计划,跟我们进行了确认以后再干活。对于所有的复杂任务,建议都先开启计划模式,确保你能跟 AI 对齐颗粒度,让 AI 能够精准理解我们的意图。
我们在 Codex 里面打开计划模式,输入我们的需求:
把这个项目改造成 next js 框架在计划模式里面,Codex 会很倾向于使用这种问题卡片的形式跟用户进行沟通。这里他询问我希望使用哪种项目形态,我选择 APP Router 加 TS 。然后样式迁移希望怎么处理,这里我选择改 Tailwind 。迁移完成要不要同时启动本地开发服务器验证,这里我选择构建加启动。Codex 为我们生成了一份完整的计划,我仔细阅读了一遍,没有发现问题。这里我们点击是,实施此计划。
代码编写完成以后,Codex 可以启动它内置的浏览器进行自动化的测试,这样任务就完成了,开发服务器也启动起来了。在右侧的多功能窗口,Codex 自动打开了浏览器。我们可以点击这里的展开面板按钮,看一下项目的完整状态。我们看到这次架构迁移非常的成功,页面上所有的元素都完整地保留了,非常的不错。
如果对某个部分不满意,我们可以点击这里的批注按钮,然后选中一个元素,在这里可以添加评论。比如这里我说为什么这个星星是空心的,然后在下面点击发送,让 AI 帮我们修改一下。
在下面也可以实时看到它的修改过程。我们刷新一下页面,这个星星就被修改成了实心的。这样我们就通过 Plan 模式配合 Codex 的内置浏览器,成功完成了项目架构的迁移,还顺手修改了一个小 bug 。
代码管理
Codex APP 并不是传统的 IDE ,它并不提供完整的代码编辑功能。我们可以在右上角点击切换文件树,这里虽然可以查看代码,但是没法直接编辑。我们只能点击某行代码来写批注,并不能直接修改代码。我们可以借助第三方的 IDE 来修改代码。
在进行代码管理之前,我们需要先把项目初始化成一个 git 工程。这里我们新开启一个对话,输入提示词:
把项目初始化成一个 git 工程,注意排除掉不需要的文件。Codex 先为我们创建了 .gitignore 文件,把一些不需要提交的内容排除出去。Codex 帮我们把项目初始化成了 Git 仓库。
初始化成 Git 仓库以后,右上角又多了很多按钮。这里有一个 VSCode 按钮,我们点击一下,我们就可以快捷地使用 VSCode 来查看和修改代码。
除了使用 VSCode ,在这个下拉列表里面,还可以使用其他的 IDE 来打开项目。如果你的电脑上装过这些 IDE ,就可以在这里关联出来。我们也可以在设置常规设置里面选择默认打开的 IDE 。
我还可以要求 AI 把代码帮我提交到 Github 上面。Codex 需要我先在 Github 上面为它创建一个仓库。这里我来到 Github ,点击这个 new 按钮,仓库的名字还叫 pet_care ,点击创建。
创建出来以后把这个地址复制一下,我们回到 Codex 扔给他,成功帮我们把代码推送到了 Github 上面。我们点击这个链接,看到我们的代码已经备份到了 GitHub 的网站上面。我们可以使用对话的方式进行一切 Git 与 Github 操作,这都属于编程的基础知识,本期视频我就不展开讲了。
Git 回滚
本期视频我主要讲两个进阶技巧。第一个是使用 Git 对开发过程进行回滚,第二个技巧是 Git WorkTree 。
我们先看第一个回滚。这里我新开一个对话,我们打开侧边栏,点击加号,浏览器输入我们项目本地开发的地址,这样进入浏览器。我们还是在这里面进行一些批注。我让 Codex 在这里添加一个期望到店时间的功能,直接点击 Ctrl 加回车发送。Codex 为我们添加了期望到店时间这个字段。
当 AI 完成一个功能的开发以后,我们就使用 Git 把它备份保存一下。这里点击提交,
填写一个提交消息,点击继续。这样最新的代码改动就以 Git 的方式保存下来了。接下来我让 AI 把期望到店时间放到联系人的上面,开始。Codex 为我们完成了修改,我们还是从内置的浏览器看一下效果。这个字段跑到了最上面,不过这么一改,我觉得更难看了,我后悔了。我觉得还是把它放到原来的位置比较好。这里我想做的是把这一次的对话,包括这一次的代码改动,全部回滚掉,最好是当做无事发生。
这里我们先借助 Codex 的分叉功能,英文是 fork 。我们先把对话回滚掉。我们找到上一次对话结尾的位置,点击这个分叉按钮,选择派生到本地。
我们看到 Codex 的分叉功能,就是在我点击的这个位置,把对话复制了一份。这样复制出来的新对话,就已经剔除掉了我们刚才想删除的部分了。
不过分叉功能只能回退对话历史,它不能同步回退代码。所以这里我们要做的是把代码一同回退掉。我们可以在 VSCode 里面点击这个 source control 按钮,查看所有的 Git 提交。这里我需要把代码回退到生成期望到店时间的这个状态上。我们点击右键,点击这个 copy commit hash ,
这样我们就把这次提交的 ID 复制下来了。我们回到 Codex ,先让 AI 把代码回退到这个状态,后面就是我们刚才复制的提交 ID 。
我们看到代码回退成功了,在浏览器里可以看到这个期望到店时间又变回了原来的位置。这样我们就使用了 Codex 的对话分岔功能,加上 Git 操作,成功地把这一次不需要的改动,从代码层面和对话历史层面进行了完全的回滚。
Git worktree
接下来我们来看下一个功能,就是 Git worktree 。WorkTree 这个名字听起来比较唬人,其实它本质上就是用 git 创建一个新的分支,然后把这个新分支的代码完整地复制到一个新的文件夹里面。这个新文件夹就是一个 WorkTree 。主文件夹和分支文件夹可以并行工作,我们可以在两个文件夹里面各自修改代码,互相不干扰。我们可以基于主干创建多个分支,它们在底层通过 git 关联在一起。分支文件夹的改动,随时都能轻松合并回主干。
找到我们的项目,右键创建永久工作树。这里起个名字,我想让第一个工作树专注优化客户评价这个部分,我给它加个后缀叫 customer rating 。Codex 把整个项目复制到了一个单独的文件夹里面,它跟主干已经不是同一个文件夹了。我们在分支里面做的操作不会影响到主干。这里我们再建一个工作树,第二个工作树主要用来负责优化下面的门店信息,还有这里的地图。我们给第二个树也起个名字。这样我们就拥有了两个工作树分支,它们都位于不同的文件夹下面,所以它们之间的并行工作不会影响到主干。
这里我们来测试一下。我们先打开第一个分支新对话,输入我们的需求:
优化一下客户评价部分,多写几个评价,做一个动画轮播效果,开始。然后我们来到第二个分支,创建一个新的对话:
优化一下门店信息部分,让门店信息跟地图上下排列,不要左右排列,把地图展示全。我们在两个分支上面进行并行开发,因为它们位于两个不同的文件夹,所以互相之间不会产生干扰。
两个分支在各自的文件夹里面都开发完毕了。接下来我们可以把它合并回主干。里直接输入合并回主干,两个分支都一样的操作,合并回主干。
两个分支都成功合并进了主干。我们在浏览器这边可以看到,客户评价已经优化过了,门店信息也从左右排布变成了上下排布,地图展示得更全了。这样我们使用 Git worktree 功能,高效并行开发了两个任务。当我们的分支使用完毕,我们可以直接右键移除,把两个临时的分支移除掉,然后回到主干继续工作。
作者: TechShrimp | 发布时间: 2026-04-29 12:44
4. 关于 xiaomi MiMo Token Plan 的套路我一一说下
很多人不清楚,我也不是小米内部的。我只是从人性出发,结合整个流程给大家分析分析:
- 这个 100T 赠送计划,就是 coding plan 的推广活动。
- 基本上申请表单里面要你填写的就是最核心的内容,也就是确认是不是一个开发者
- 没有人工审核,走的都是自动化审核(因为人工审核成本都扛不住)。之所以慢或者需要时间,主要问题就是预热和热度慢慢扩散的过程,属于运营策略
- 你的申请邮箱会在申请后的 6 小时(夜晚会有延迟,因为队列凌晨不怎么跑,以便回应人工审核)左右收到一个邮件:“你已入选 Xiaomi MiMo Orbit-百万亿 Token 创造者激励计划”
- 开放平台地址:platform.xiaomimimo.com 这个是重点,晚点会考
- 进入到开放平台,注意:不是 dev.mi.com 但是用小米的账号可以登录。
- 再过 2 小时(工作时间内,约到 23 点 59 分前) 你的额度会到账,一般是开了一个月的 coding plan. 如 pro 版会有 7 个亿 token. 其实就是 0.7B 好好用的话,应该可以支撑几小时。
- 这个时候,你可以选择自动续费。也可以先用给的 token 先玩。请记住:自动续费前,或者在 platform.xiaomimimo.com 进行支付前,是需要实名认证的。很多人都会奇怪:小米账号不是已经实名了吗?厉害的地方就是这里。这个跟小米汽车是一样的,后面 coding plan 的投诉只能投诉北京小米移动软件有限公司 ,不能投诉小米科技有限责任公司
- 至此基本情况就是如此了
- 好了,可能有米粉又会喷我了。“爱用用,不爱用,滚!”
哎~
模型大家可以测试跑跑 上述仅仅描述事实,请不要对号入座,仅为个人体验记录。相关法务不要找我。上述仅仅描述事实,请不要对号入座,仅为个人体验记录。相关法务不要找我。
作者: lyhiving | 发布时间: 2026-04-29 12:05
5. gitlab 账号被封了
昨天晚上往 gitlab 提交代码的时候,提示我没有权限。我打开 gitlab 的网页发现账号被封了。翻了翻邮件看到一周之前 gitlab 给我发了个邮件,让我迁移,说中国区的账号 gitlab 不再支持了,但我最近没有查看邮件,现在 gitlab 登不上去了,代码拿不到了。
我是 14 年前就开始使用 gitlab 了,当时 github 没有免费的私有仓库,我就把一些个人项目放在 gitlab 上,后来也就没怎么管了,一些项目一直放在 gitlab 上。
gitlab 最近一周我提交代码的时候没有收到任何异常和消息,现在突然账号就没封禁了,我最近一周打开网页也没有看到任何网页上的提示。就发一封邮件,然后 7 天之后就把账号封了,没见过这么坑的。现在我发邮件给 gitlab 都不知道往哪里发。
大家如果有代码放在 gitlab 上的,尽快把代码迁移到 github 上去吧。
作者: wy | 发布时间: 2026-04-29 14:04
6. 最牛的终端开源了 warp,用过的来说说
不需要输入 claude 再开始,直接 bash 输入,我要查询磁盘空间,自动帮你 du 执行,不用再记命令了,帮我解压文件,查找 cpu 高占用进程,发挥你的想象。
似乎只是使用路径变短,接入 bash ,不知道跟腾讯和阿里的 bash ai 什么区别。
用过的大佬说说场景
作者: zsj1029 | 发布时间: 2026-04-29 14:57
7. max5x,用了一个月被封号了
3 月 30 日使用 U 卡支付一个月费用,以“最坏情况可退款至 U 卡”的心态开通 5x 服务。
使用期间较为频繁,本地通过奶昔机场日本节点,在 Mac 、台式机两台设备及 WSL 、Windows 、Mac 三个环境中随意切换,未触发封禁。随后增加远程主机使用,并通过 CLI Proxy API Management 将剩余流量分享给朋友,均未出现问题。
原以为因账号使用年限较长且有网页使用基础,不易被封禁。4 月 25 日购买礼品卡续费一个月后,昨晚收到封号邮件,并在推特上看到同一时段多起类似情况,判断为平台风控加强所致。、
至此使用一个月成本为 100u + 礼品卡 80u =180u ,礼品卡不退款,痛,太痛了
作者: grimbedroom | 发布时间: 2026-04-29 02:29
8. 做了一个内容极丰富的文字 roguelike 游戏,但是没人付费,问题出在哪?
花一个月做了一个 220+怪物,200+装备的 roguelike 游戏,玩的人挺多,但是没人付费,想知道是哪里有问题?
目前收费策略是:免费每天能玩 3 轮,付费 9.9 解锁无限。还可以付费买复活药水,4 元 40 个。
作者: zxypro | 发布时间: 2026-04-29 09:48
9. 给远程 VibeCoding 工具做了两个新功能:多配置并行启动 Claude Code / Codex + IM 远程预览
给远程 VibeCoding 工具做了两个新功能:多配置并行启动 Claude Code / Codex + IM 远程预览
大家好,之前在 V2EX 发过自己在制作的工具 VibeAround ,收到了一些宝贵的反馈意见。加上自己日常使用 coding agent 的过程中,也发现除了模型能力、开发工具能力之外,还有很多 workflow 上的小摩擦。
比如我自己购买了 Claude Code 和 Codex 订阅,但还是想试试看 DeepSeek V4 或者小米 MiMo 的 API ,尤其是同时多开不同设置的 Claude Code 或 Codex 来对比模型能力;
再比如远程用飞书或者微信指挥 Claude Code / Codex 干活时,想预览一下当前进展,或者把做好的内容分享给朋友、同事等等。
于是最近就在 VibeAround 里补上了两个能力:
Launch和Preview。Launch:配置一键切换、命令行多开
有类似能力的工具不少,比如大名鼎鼎的 cc-switch ,不过很少看到可以同时用不同配置开启多个命令行窗口的,也很少有在切换配置时不改动原始 Claude Code / Codex 配置文件的。这也是我做 Launch 功能时的主要目标。
不多赘述,直接上图:
Preview:快速预览本地 VibeCoding 的结果,并可以分享出去
Preview 是另一个我自己用得很多的功能。
虽然之前的 VibeAround 支持 IM 远程控制,也可以在浏览器上直接访问命令行,但如果想看到实际效果,还是要回到电脑旁边,或者让 AI 去部署到云服务上,都不是很方便。
现在 Preview 利用了 tunnel 通道,走了一个更直接的流程:agent 做完东西之后,通过反向代理直接生成预览链接,在浏览器、手机或 IM 里立刻就能打开看。
考虑到安全性,第一次访问 tunnel 链接的时候,需要在 IM 里把配对码发送给机器人完成验证。
试用地址
如果你也在用 Claude Code 、Codex 、Gemini CLI 或类似工具,欢迎试用,也欢迎拍砖:
项目地址:https://github.com/jazzenchen/VibeAround
每一个宝贵的 Star 和意见,都是我继续维护推进这个项目的最大助力!
作者: jazzenchen | 发布时间: 2026-04-29 16:52
10. 慢讯 Free 计划用户继可以用 image-2 后,今天开始可以在 codex 内调用 GPT-5.5
Images 2.0 向 Free 计划开放( 4/22 )
GPT-5.5 via Codex CLI ,Free 用户也能用( 4/29 )
计费规则
作者: longxinglink | 发布时间: 2026-04-29 16:33
11. 现在网上都在说 Agent 自动开发,我还是在对话模式,是不是落后了?
最近这段时间看了很多关于 AI 开发的文章、博客、视频, 尤其是各种 Agent 工作流 的分享。
比如:
AI 自己拆任务 AI 自己写代码 AI 自动做 code review AI 自动提交 PR AI 管理整个项目流程
甚至有些文章给人的感觉是:
人只需要把需求说清楚,剩下的事情 AI 自己就能完成。
说实话,看多了之后,我开始有点焦虑了。
先说一下我的背景:
我是一个前端开发工程师, 使用 AI 辅助开发大概有 一年半左右 了。
平时主要工具是:
Claude GPT Cursor Windsurf
基本每天都在用,也算是比较重度用户。
但我目前真实的工作方式,其实还是:
人主导开发 + AI 辅助 主要是对话模式
比如:
写代码的时候遇到问题就问 AI 让 AI 帮我优化一段逻辑 让 AI 帮我 review 一段代码 或者生成一些基础结构
整体感觉:
AI 很强,但更像一个:
非常聪明的助手,而不是一个真正能接管项目的“开发者”。
我现在的困惑主要有几个:
1 )现在真的有人在用 Agent 自己写代码吗?
不是 demo , 而是:
在真实项目里长期使用
比如:
前端项目 后端服务 中大型系统
而不是一个简单的脚手架项目。
2 )现在的开发流程,真的变成这样了吗?
比如:
人只负责写需求 Agent 自动拆任务 Agent 自动写代码 Agent 自动测试 Agent 自动提交 人只负责最后确认
如果真有人这样用,我非常想了解:
这个工作流到底是怎么搭建的?
3 )前端和后端的差别是不是很大?
我有一种感觉是:
很多文章里的 Agent 工作流, 可能更偏:
后端 AI 工程 Python / Node 服务 工具链开发
而前端这边:
UI 交互 状态管理 兼容性 复杂业务逻辑
可能还比较难做到完全自动化。
但这只是我的猜测,不确定是不是事实。
4 )大家现在真实的 AI 工作流到底是什么样的?
比如:
你们现在更接近哪种模式:
A ) 人写代码 + AI 辅助
B ) 人设计结构 + AI 写大部分代码
C ) Agent 负责模块开发,人负责 review
D ) Agent 基本可以接管项目
我不是质疑 AI 的能力。
只是看了太多“AI 自动开发”的文章之后, 开始有点不确定:
现在行业真实的状态,到底是什么样的?
是:
大家已经进入 Agent 自动开发阶段了, 还是说大多数人其实还是:
对话模式 + 人主导开发
只是没有人专门写这种“普通但真实”的文章。
如果有在实际项目里长期使用 Agent 的同学, 非常希望能分享一下:
你们用的工具 工作流大概是什么样 哪些事情真的能自动化 哪些事情还是必须人工做
小弟真心求教。
作者: shibow | 发布时间: 2026-04-28 03:13
12. claude 是不是偷偷改 20x Max 套餐额度了?
重置了以后明显不如上个周期额度耐用了,之前用了好几天才用了 20%,现在 2 天就 40%了,用 codeburn 看上个周期每天都是消耗 400-700 美金左右,这两天重置以后每天都是 300 左右
作者: reitao | 发布时间: 2026-04-29 14:28
13. Claude Code 充值求助
如上图,小弟之前托朋友境外充值的 Claude 5x 账号今早被封了。
咨询( 1 ):目前想在新的 gmail 账号上重新充值,求助各位佬友推荐可靠充值渠道
咨询( 2 ):朋友的境外银行卡被 anthropic 一并封杀了,现在充不了新账户。佬友们知道什么原因吗?可有御敌良策?
作者: wangtzlite19 | 发布时间: 2026-04-29 13:36
14. 一款 100%兼容 claude code 的 agentic 编程助手: Langcli
Langcli 是一款在终端中使用的交互式 AI 编程助手, 它是基于Claude code 泄露的代码进行二次开发而成。
Langcli 具有以下优势:
- 使用用法与 Claude code 是完全一样
Langcli 是基于 Claude code 泄露的代码二次开发而成,它保留了 Claude code 绝大部分的功能,且使用方法与 Claude code 完全一致。
- 支持主流的 LLM 大模型
Langcli 通过与LangRouter 平台深度集成,你可以在一个正在工作的 session 中根据需求随意使用、切换主流的 LLM 模型(包括 Claude OPUS 4.6, Deepseek v4 flash, Deepseek v4 pro, Kimi K2.6, GLM 5.1, Minimax M2.5 等),而不会中断你的上下文。
- 大幅降低 LLM 模型的使用成本
在使用 Langcli 进行项目开发过程,由于在工作会话 session 中可以根据需求自由切换 LLM 大模型,你可以使用经济的 LLM 模型处理简易的大部分任务,而使用较贵的 Claude OPUS 处理复杂的少部分任务,这样你可以节省大量的 Tokens 花费。根据部分社区成员统计,部分项目可以节省 90%的 Tokens 花费。
- 轻松使用 web 搜索功能
仅需要 LangRouter 平台的一个 api-key ,你不单可以使用主流的 LLM 模型进行项目开发,还可以为 Langcli 编程助手装备上 web 搜索功能,助你进一步提高开发效率。省去了额外配置其它的 api-key 才能使用 web 搜索功能的麻烦。
- 不担心封号
天下苦 Anthropic 封号久已。LangRouter 平台通过合法的美国公司向 Anthropic 签订批量的采购合同,既不存在封号的问题,又可以向终端客户提供优惠的 Claude OPUS 、Claude sonnet 模型 api 。
有朋友对这款工具同样感兴趣吗? 我体验了 2 天,感觉体验很棒。尤其是 Langcli + deepseek v4 pro 组合,简直是王炸。对于简单任务,动态切换到 v4 flash 模型,速度飞快。
作者: waterwawa | 发布时间: 2026-04-29 11:52
15. 我原谅了 Codex,真的
最近还在折腾我那破英语学习播放器,一开始用的是 MPV 的方案,但我发现内存占用很夸张,点一个视频就 400 多 M 了,而且播放时间长了,内存越来越多,找 Gemini 和 Codex 分别改了几个小时都不行。与此同时,同一个视频,Movist Pro 的内存占用大概 80M
250M 不等,VLC 大概 120M300M 不等,只有基于 MPV 的 INNA 和我的差不多都是 400 多 M 。 然后我一怒之下决定重构,和 Codex 详细说明了计划,Codex 一直在反对,我和它说我有相关的开发经验,知道可以做。最后连续蹬了十几个小时,Codex 手搓 Objective-C ,不断改进,最后终于可以硬解主流的编码格式( AV1 HEVC H264 VP9 )的视频了。 其实原理没有太复杂,解封装视频流,剥离音轨,计算时间戳,最后通过 metal 来把视频与音频渲染出来。如果是人类程序员来写,虽然方向明确,但是具体实现上非常麻烦,但 AI 就没这个困扰,方向对了,力大砖飞。也可以很方便地自动化测试。 内存占用上,落在 35~50M 这个区间,已经显著优于市面上大量视频播放器了。当然我知道这是因为我不需要过分考虑兼容性,只需要应用于特定场景(电影,电视剧,游戏录像)。另外我还发现似乎大部分 macOS 的视频播放器没有默认 AV1 硬解,即便芯片支持 AV1 硬解,这其实是一个很重要的优化方向。 不管怎么说,花了十几个小时搓出来一个纯原生的 macOS 播放器,真的感觉很享受。我现在还在慢慢迭代它,已经初步可用了。 经历了以上这一切,我只能说,我原谅了 Codex ,真的。
作者: stararenas | 发布时间: 2026-04-29 15:05
16. 各位大佬, gpt-image-2 有啥靠谱 api 途径能用到国内生产环境吗
各位上线了产品的大佬,你们都是怎么使用的 gpt-image-2 模型啊,官方接口还是第三方接口?有推荐的渠道吗?
作者: hnbcinfo | 发布时间: 2026-04-29 09:23
17. 有没有 codex 额度监测工具?
codex 官方只有一个剩余额度。当前在 win 或者 linux 中,有没有可以监测具体实时额度消耗速度的工具? vscode 中找了几个插件,似乎都没有正常工作。
作者: Saunak | 发布时间: 2026-04-29 11:39
18. 开发 ios 并发布到苹果商店必须要求 系统和 xcode 是 26 了?
今天本来想提交新版本,构建发布到 app store 的时候提示 Validation failed
SDK version issue. This app was built with the iOS 18.5 SDK. All iOS and iPadOS apps must be built with the iOs 26 SDK or later, included in Xcode 26 or later, in order to be uploaded to App Store Connect or submitted for distribution. (ID: e06176fb-4ad9-4681-b4f4-429dd 1be4b9b)
从官网搜了下说自 2026 年 4 月 28 日起 Apps uploaded to App Store Connect must be built with Xcode 26 or later using an SDK for iOS 26, iPadOS 26, tvOS 26, visionOS 26, or watchOS 26.
真坑爹啊,本来还想 15.6 一直用呢
作者: guin | 发布时间: 2026-04-29 02:49
19. 阿里云一台 4C8G 的服务器续费有优惠渠道吗
现在续费要 3500 一年,这个价格是不是太贵了,有没有什么优惠的渠道,没法换号
作者: fzdoudou | 发布时间: 2026-04-29 03:44
20. 做了个开源工具,节约 Claude Code command 的 token 和运行时间
我写了个小工具 skflow ,把 markdown 命令转成编译后的脚本。shell 步骤原生执行,只在真正需要判断的地方才调用 Claude 。
# 转换前:每步都过 Claude Claude → git diff → Claude → git status → Claude → 写 commit message → Claude → git commit # 转换后:Claude 只在需要时介入 sh(git diff) → sh(git status) → ask Claude("写 commit message") → sh(git commit) → done用法:
npm install skflow -g npx skills add skill-flow/skflow /skflow-transform .claude/commands/commit.md原理是让 Claude code 自己转写脚本,然后编译成状态机,欢迎大家试试
作者: HinamiAoi | 发布时间: 2026-04-29 11:03
21. 还好没去做基于 gpt-image2 的产品
想来想去还是没去做,感觉肯定是红海,而且不一定是好的赛道。
作者: PeterTanJJ | 发布时间: 2026-04-29 07:58
22. 兄弟们平常都用什么浏览器?
Chrome 这几天突然变得好卡,不知道咋回事
作者: Lantang | 发布时间: 2026-04-28 01:44
23. MiniMax 经过前一阵的 529 之后,降智实在是严重……
简单整理文档都能超 3 小时,就很简单的代码规范文档的分类
构建前端项目 15 分钟构建不完
作者: Dabney | 发布时间: 2026-04-29 07:41
24. 海量数据访问
大家好,向大家请教一个问题。
我目前有海量数据:大概目前有 2 亿文本,文本长度在 1000 字符长度以下,并且数量在持续增长
一次给定 1000 个 key,如何在 30ms 内响应这 1000 条数据呢?
除了 redis 还有其他方案吗?诚心求教
作者: luvcoriander | 发布时间: 2026-04-29 10:16
25. 不知道是 TraeCN 还是国模问题,总之,被 Copilot GPT AUTO 爆完了
需求可以理解为一个原型设计,要求增加一个 3 级的功能清单,快速调用某个功能,比如( XXX 系统-XXX 公司-XXX 分类-XXX 应用)
为了防止 AI 进死胡同,我写了很多提示词,包括但是不限于
不需要设计应用点击之后的动作
不需要为每个分类、每个系统设置单独的应用,比如你作了 3 个系统的 mock ,那么你叫出差申请 1 ,出差申请 2 ,出差申请 3 就可以,把重心放到界面上,而不是更真实的数据
注意你是目标是快速给我一个原型,所以不要纠结 mock 数据的合理性、个数,尺寸什么都是可以调的,叫什么只要是就行,图标什么如果找不到合适的也可以随机用一些,甚至是你没有好的弹框自己用 div+绝对布局都可以
原先系统的某些设计可能并不好看,你只要参考配色,用你认为好看的设计就可以
首先是 GLM5.1 ,GLM 的 think 简直是副作用拉满了,动不动就开始左右脑互博,对话可能类似于:
好了,我认为现在可以写最后的代码(输出了半个文件),等一下,用户提到了 XXX ,那我这里 XXXX 可能不是最好的设计,让我改一下 XXXX (输出半个文件),我似乎看到用户提到 XXX 按钮,但是 XXX 并没有提供 XXX 图标,让我看一下(输出半个文件),用户说 mock 不需要真实,那我可以 XXXX (输出半个文件)
最后 3 次超时也没有写出一行代码来,一直再 think 就是不干活
至于 Kimi2.6 ,纯 sb ,GLM 至少还能打架,KIMI 一直在看代码,看代码,看代码
至于 GPT ,copilot ,不挂梯子,自动打折模式,一次输出,唯一的缺点是继承了国企吹牛逼的毛病,给我加了一堆口号,比如一次点击一站办公 xxx 这些类似乱七八糟的
作者: murmur | 发布时间: 2026-04-29 10:33
26. 整理了全网靠谱 Claude 中转 API 汇总,附避坑指南+Claude 模型真实性检测工具
最近用 Claude 做开发和日常使用,经常遇到官方访问慢、国内网络受限、找中转怕踩坑(虚假模型、乱扣费、跑路)的问题,所以花时间整理了目前市面上经过筛选的靠谱 Claude 中转 API 资源,做了这个开源汇总项目。
项目地址: https://github.com/peter123023/awesome-claude-api
本项目仅做资源收集和整理,不对任何第三方服务的质量、安全性、可用性做任何担保。使用第三方服务时请自行承担风险
目前包含的内容:
✅ 中转服务商,包含:
- 官方网站地址
- 详细价格体系(免费额度、订阅/按量付费标准、是否支持国内支付)
- 核心特性(支持的 Claude 版本、延迟、稳定性、是否防封号等)
- 客观优缺点标签,方便快速筛选匹配自己需求的服务
✅ 附带 2 个专业 Claude 真实性检测工具,可以验证你买的是不是正宗的官方模型中转
✅ 持续更新,欢迎大家提交新的靠谱 claude api 资源 pr ,一起维护这份清单,帮更多人避坑。
一点实用建议:
- 优先选择支持免费试用的服务商,小额测试没问题再长期付费使用
- 付费后可以用检测工具验证下模型真实性和完整性,避免被坑
- 尽量选择运营时间久、有公开客服渠道的服务商,更有保障
大家平时有用什么觉得不错的 Claude 中转?或者踩过什么坑?欢迎回帖交流~ 如果觉得这个项目有用欢迎 Star 支持一下,有问题或者要补充的可以直接在项目里提 Issue~
作者: peter986 | 发布时间: 2026-04-29 08:15
27. 我自己的电脑是 5070Ti,总感觉跑一些模型算力不够
各位大佬们,我自己电脑配置也挺高 9800x3d+5070ti,但是自己玩大模型感觉算力不够,输出速度好慢,有没有大佬推荐一下什么显卡玩大模型算力舱还比较不错的
作者: babymonster | 发布时间: 2026-04-29 05:33
28. 开源一个 ai 生成壁纸的项目
技术栈
- Next.js
- Tailwindcss
- Zustand
- ClerkSupabase
- Redis
- RabbitMQ
- 阿里云 OSS
- Stripe(暂未开通)
开源地址
https://github.com/hulk-2019/arcwall
预览地址:
欢迎大家 star! 🙏
作者: ysyah2019 | 发布时间: 2026-04-29 07:01
29. Xiaomi MiMo Token 激励计划
邀请你参加 Xiaomi MiMo Orbit 百万亿 Token 创造者激励计划,100T Credits 面向全球用户限时发放中… https://100t.xiaomimimo.com/
创造者百万亿 Token 激励计划
Xiaomi MiMo 将面向全球 AI 用户进行免费 Token 发放,我们将在 30 天内发放总计 100 万亿( 100T ) Token 权益,赠完即止。
活动时间:北京时间 2026 年 4 月 28 日 00:00 至 5 月 28 日 00:00
参与地址:100t.xiaomimimo.com
作者: leave8080 | 发布时间: 2026-04-28 01:44
30. CC 的迷之速率限制
我让 claude code 运行 14 个 subagents 做 code audit,很快,两分钟内 5 小时的限额就 100%了,我运行之前是 0%,正常来讲不会这么快烧掉限额,而且在美国时间还是夜里。我严重怀疑这是 anthropic 故意的规则,就是如果有多个并发,加快限额使用,或者干脆直接一刀切,就是为了防止有中转站运行多个 claude code 然后 Proxy 请求变成 API 。
作者: nc | 发布时间: 2026-04-29 10:19
31. 公司买 api 一般是官 key 还是中转?
老板体验了 claude 后拍板要把 claude 嵌入全公司工作流,让我去解决采购渠道问题,要求数据不得经过非正规公司传送,大概意思估计是买大厂 vps 自建 api 代理可以,但不能买贩子的中转站。但是先不说走什么代理的问题,国内几乎都找不到官 key 的货源啊,都是 5 刀 20 刀这种个人用的,总不能让老板去小黄鱼买吧。
问了几家能做对公的,都是中转,拍胸脯保证他们客户都是大厂,绝对稳定高质量,但那个价格感觉就像假的。
老板要求 3 天内必须给结果,老板不懂电脑,跟他没法解释
作者: my2492 | 发布时间: 2026-04-28 07:22
32. 目前远程 vibe 的最佳姿势(支持 n 多 agent)
今天又一波更新,加上了 Android app ,体验在上台阶。 上一次发帖: https://www.v2ex.com/t/1207969 github: https://github.com/a9gent/mindfs
Agent 会话
- 多 Agent 支持 :Claude Code · OpenAI Codex · Gemini CLI · Cursor · GitHub Copilot · Cline · Augment · Kimi · Kiro · Qwen · Qoder · Pi · OpenCode · OpenClaw ,自动探测已安装的 Agent 。
- 实时流式输出 :逐 token 推送,工具调用、思考过程、权限请求均以结构化卡片实时渲染,上下文窗口实时余量。
- 灵活切换 :会话中随时切换 Agent 或模型,多 Agent 共享同一上下文,无需重新描述背景。
- 会话搜索 :支持按会话标题或对话内容搜索,并可直接跳转到命中的会话和片段。
- 外部会话双向导入同步 :可浏览受支持 Agent CLI 的已有会话,选择后导入到 MindFS ,并作为原生 MindFS 会话继续使用,同时 MindFS 中的会话亦可在 cli 中恢复。后续亦可双向同步。
- 绑定持久化与恢复 :MindFS 会持久化内部会话与底层 Agent 会话的绑定关系,服务重启后可恢复该关联;后续消息在条件允许时会继续落到同一个 Agent 会话上。
- 富媒体输入 :支持在消息中直接附带文件和图片。
- 多端同步 :同一实例可同时在多个设备上访问,会话状态实时同步。
文件访问
- 多 Project :同时托管多个目录,会话按 Project 独立组织,互不干扰。
- 数据自托管 :所有对话历史、文件元数据、视图配置均存储在 Project 目录的
.mindfs/子目录下,迁移和备份只需复制目录本身。- 文件树浏览 :完整的目录树导航,支持文件预览,Markdown 、图片、代码均有对应渲染器。
交互优化
/斜杠命令:输入/触发命令候选列表,快速执行预设操作。@文件引用:输入@触发文件路径补全,将任意文件作为上下文附件发送给 Agent 。#快捷提示词:输入#触发已收藏的快截提示词输入。- 文件与会话双向跳转 :打开文件可跳转到产生它的会话;打开会话可查看所有相关文件。
- Android, 浏览器应用( PWA ) :可安装到桌面或手机,体验更优。
- 手机界面优化 :底部操作栏拇指可及,界面更简洁。
访问模式
- 本地模式 :服务启动后即可在局域网内通过浏览器访问,无需任何账号或配置。
- Relay 远程模式 :无需开放防火墙端口,通过 relayer 从公网任意设备访问本地实例,实现随时随地的 agent 访问。(本地模式页面中点击绑定按钮)
- 私有通道 :通过私有通道( tailscale 等),直接通过 ip:port 访问。
- 端到端加密 :会话、文件支持端到端加密保护。
作者: yandc | 发布时间: 2026-04-29 08:43
33. 使用 tuna brew 镜像,排队越来越夸张了
❯ brew install awscli
HOMEBREW_BREW_GIT_REMOTE set: using https://mirrors.tuna.tsinghua.edu.cn/git/homebrew/brew.git as the Homebrew/brew Git remote.
remote: Waiting in queue… (Position: 946)
作者: logeable | 发布时间: 2026-04-29 07:01
34. 第五次重装 hermes, 有些经验希望给准备用的人参考一下.
4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累.
后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后, 开始大规模的下载大模型到本地电脑一个专门的文件夹, 然后复制到 omlx 的 models 文件下并随时启用测试.
另外还安装感觉目前最好用的 webui: https://github.com/EKKOLearnAI/hermes-web-ui/blob/main/README_zh.md
以及这几天刚出来的自我进化 skill: https://github.com/NousResearch/hermes-agent-self-evolution
同时参考了这个:https://github.com/0xNyk/awesome-hermes-agent 以及 x 上几个博主, 跟进下最新进展以便随时跟进.
目前 32G 内存 air, 我试过最大可以勉强跑 qwen3.6-35B 的 4bit 量化版本,还有 Gemma4-26B,输出速度很慢但我经常在睡觉前扔给它一个任务, 睡醒了基本上都可以执行完毕, 虽然不随心应手, 但勉强能用.
为了不让 Mac 崩溃, 我还让 Hermas 设置了一个自动监控任务, 一旦内存占用超过危险的可能导致系统崩溃并重启的 92%,立刻降低推理和演算速度, 确保系统不崩溃, 这个任务设置后,效果非常明显.
我用了一个风扇对着 Macbook air 吹, 降温效果明显, 在上述自动内存监控任务启动后, 高温的机会也少了好多.
感觉瓶颈最终还是硬件, 在 M5 Mini Mac 没上市前, 还是先保持跟进吧.
作者: Hermitist | 发布时间: 2026-04-28 21:01
35. 我构建了一个更简单易用更快的自动化 AI agent, 主要 coding
大家好,我构建了一个更简单易用的 Coding AI agent
https://github.com/vcaesar/codg
在过去的几个月里,我一直在构建自己的 Agent 工具,它让我写代码更快更简单,让我能做更多事情, 使用它只需要拆分和描述需求即可自动开发, 不再使用对话和 ask 模式, 避免审核疲劳, 最好的模型大概率一次性自动化完成任务 (使用 Markdown memory, Skills 和 Rules 定义更精准)
它比起 opencode/cc 等更快, 内存占用少, Tokens 使用更少,它部分功能像 oh-my-opencode 一样,它是自动的、异步的、并发的、高效的和高精度的。
提供 40+模型提供者订阅和 API 接入, 支持命令运行和配置本地模型, 快速切换模型规则和对话, 对任务和模型进行路由分发, 以及上下文等压缩节省成本, 并发异步执行任务, 能直接像 IDE 点击各种元素和查看文件更改等, 了解和审核改了那些文件 支持 Telegram 等 Channel 绑定 可以快速自定义 agents 和 skills, 使用 Markdown 或 Pulgin 定义 agent…
我需要你的测试和反馈。
看到论坛在争论, 你们现在更接近哪种模式:
A ) 人写代码 + AI 辅助
B ) 人设计结构 + AI 写大部分代码
C ) Agent 负责模块开发,人负责 review
D ) Agent 基本可以接管项目
现在 C 基本能行, Models 每个月都在发版, Agents 每天发版, D 估计明年很有可能, 真成 Markdown and Chat 工程师了 我都在想转行做什么了, 找工作岗位越来越少, OPC 一人公司, 流量推广和卖出去很难, 得饿死, 现在做流量和 IP 才是现在最值钱的东西
作者: whyw | 发布时间: 2026-04-29 08:09
36. Codex 额度锁死 100%,这正常吗?
1 、没充任何 plan 2 、没加入团队 3 、5.5 不是会员所以用不了,但 5.4 超高已经高强度用了 2 天了
剩余额度:100%
大家遇到了吗?只有我遇到 bug 了?
作者: Moory | 发布时间: 2026-04-29 06:37
37. 不知道全国有多少数据系统被 Oracle 数据库的 VARCHAR2(X) 的默认单位给坑了
当我们建表时,使用 VARCHAR2(50),从开发的角度,可能会认为是 VARCHAR2(50 个字符),而不是 VARCHAR2(50 字节)。
但 Oracle 数据库,如果你没写清楚 VARCHAR2(50 CHAR) 还是 VARCHAR2(50 BYTE),而只是写了 VARCHAR2(50),那么 Oracle 大概率默认行为是 VARCHAR2(50 BYTE)。
这几天帮助同事清理数据,发现系统中有丢失数据的问题,查了失败日志,才发现是这个问题。
不知道全国多少数据系统被 Oracle 的这个特性坑了。
作者: laminux29 | 发布时间: 2026-04-29 16:58
38. Claude 无法购买礼品卡后续
刚才发现官方更新了礼品卡购买说明:
Gift subscriptions are available for most Pro and Max plan users to purchase. Free users and members of Team and Enterprise organizations can't purchase gift subscriptions at this time.果然是被那些黑产玩坏了。
作者: zhhmax | 发布时间: 2026-04-29 05:26
39. 小米的模型对前端开发而言很抽象
写代码用 2.5Pro 但是 2.5Pro 不支持多模态,也就是说你无法把设计稿交给他去写代码
支持多模态的 2.5 似乎不适合用来写代码…
作者: aikilan | 发布时间: 2026-04-29 08:37
40. 发现一个有趣的 claude code 开源替代方案 atomcode
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。
100%由 AI 生成。
我试了下,真不好用,纯 AI 生成的工具真垃。
作者: wsseo | 发布时间: 2026-04-29 07:26




















































