註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

码良
@cxjwin
📱 国内大厂 iOS 技术负责人 🧗 百万行 OC 老仓库 × AI Coding 🛠️ CLI · 🧠 Harness · 🤖 Agent ✍️ 踩坑 · 跑通 · 重构
113 正在關注    321 粉絲
刚读完 @mem0ai 关于 Codex 内存机制的深度拆解,信息密度极高 👏 现状:Claude Code 端用 Claude-mem,session 续接已经基本无感。 但 Mem0 的设计还是让我心动——跨工具共享、语义检索、实时写入、多端同步,这套组合拳直指 AI 工具链碎片化的痛点。单工具内的记忆再丝滑,工具切换的那一刻还是会断。 下周排个时间实测,目标是打通 Claude + Codex 的记忆层。 双用党有没有踩坑经验?求分享 👀 #ClaudeCode# #AIAgent# #Mem0#
顯示更多
Kimi Web Bridge 直接把 Agent 浏览器操作做成插件了,搜索、滚动、点击、输入全像真人一样丝滑,还原度极高! 最香的是它不光自带,还原生支持 Claude Code、Cursor、Codex、Hermes 等一堆工具,开发者直接无缝接入。Moonshot 这波把 Agent 实用性又往前推了一大步,浏览器自动化时代真的要来了。 值得一试!🚀
顯示更多
Meet Kimi Web Bridge - Kimi's browser extension. Agent can now interact with websites like a human: search, scroll, click, type and complete tasks. Supports Kimi Code CLI, Claude Code, Cursor, Codex, Hermes, and more. Available now on and the Chrome Web Store.
顯示更多
她大二,她压中了闪迪,我🍋🍋🍋🍋的碎不着觉,下次再买港股,我剁手
谢谢萃猫老师认可~ 已经憋住 1 天半了,💪⛽️
居然看了半天才反应过来,妙呀
把娃的幼儿园作业用 GPT Image 2 美化了下,娃高兴坏了,一直追问我怎么实现的。
最近Codex来了波大更新,直接接管了谷歌浏览器,整个AI圈又玩嗨了。 有人拿它做多人在线小游戏,有人拿它编学术PPT,甚至还有个叫Chris的开发者给Codex丢下一条“去挣5美元”的指令,结果22小时内,Codex居然真自己找了个开源安全审计的赏金路径,完成并提交了PR,16美元就这么成功到账。
顯示更多
Codex made me money without me doing anything.. Huge turning point for me today, I asked Codex to go off and make me $5. It went out, found a small open-source security/audit bounty path, made a legit PR, followed up with the maintainer, kept my payment details private - (without me asking), handled the GitHub proof/verification loop, and got the work merged. it spent about 22 hours working on multiple security audits. Today I received my first payment from that experiment: $16.88. That’s a $506.40/month run-rate if repeated daily. Not life-changing money yet, but it's deeply exciting to live out Sam Altman's vision for AI, where it will just go out and make money for you. It's awesome to start to see the beginning of that.
顯示更多
📊手把手教你用工具获取 X 平台数据|零基础也能学会 看推荐流、获取大V推文、下载长文 Markdown,全程不用 API Key,用 CodeX AI 助手一键搞定。 00:00 开场 00:53 工具介绍:免 API、免付费、自动读取登录状态 02:07 准备 Codex 桌面版 02:56 设置账号、项目文件夹和 Local 模式 03:38 让 Codex 安装 Twitter CLI 05:25 验证工具安装成功 06:13 用 Codex 登录 X 账号 07:30 账号识别错误,现场排查 09:10 改用 Firefox 登录状态 10:56 查询当前账号信息 11:21 抓取目标账号数据 12:03 成功抓到三条数据 如果视频对你有帮助的话,请帮我点赞❤️收藏📖转发
顯示更多
0
60
364
77
轉發到社區
下午团建 Android 开发 6 辆车,特斯拉,小米,蔚来,宝马…,人手还一部 iPhone iOS 开发就 1 辆大众,还是租的牌 以后别跟我说啥安卓人,苹果人。啊呸~ 我这 leader 当的太失败了,不说了我去蹭车了,据说新款蔚来不错 😭
顯示更多
那一年我在成都上大学,看到这张图,回忆一下如潮水般涌现~ 和生命相比,这尘世间的营营苟苟又算作什么
Karpathy 这条"让 LLM 输出 HTML"的帖子,技术圈在讨论提示词技巧,但我更想从团队协作的角度聊一聊。 过去一年我观察到一个很有意思的现象:团队里 AI 用得好的人和用得差的人,差距正在从"会不会写 prompt"转向"输出物能不能被别人消费"。 写代码的同学拿 Claude 跑出一份架构分析,自己看懂了,转给产品同事——对方看到一屏 Markdown 直接关掉。换成一个带折叠、带跳转、带表格的 HTML 页面,结论是一样的,但讨论真的发生了。这件事在 Markdown 时代很难发生。 这背后是 Karpathy 讲的那个底层逻辑:人脑三分之一专门处理视觉,文本是单车道,视觉是十车道。但放到团队语境里,它还多了一层含义——AI 产出物的"可传播性"正在变成新的生产力指标。 一个人独享的 AI 价值是有限的。真正撬动团队效率的,是那些能被截图、被转发、被钉在会议室屏幕上的产物。Markdown 在 IDE 里是好东西,在 Lark/飞书/钉钉群里是噪音。HTML 不是,HTML 是工件(artifact),是可以脱离上下文存在的东西。 对 Tech Lead 来说这意味着几件事: 一是评估候选人和团队成员的 AI 能力,不能只看他自己产出多少,要看他产出的东西有多少被别人真正用上了。前者是个人效率,后者是组织效率。 二是团队的 AI 工作流应该把"输出形态"作为一等公民来设计。和"用什么模型""怎么写 prompt"同等重要。我们花了大量精力在输入端(上下文工程、harness、知识库),输出端却一直默认 Markdown,这是不平衡的。 三是HTML 只是过渡形态。Karpathy 提到的终点是生成式交互界面——团队成员不是"读"一份分析,而是"探索"一个仪表盘。这对管理也是新挑战:当 AI 产出的不再是文档而是可交互的工作空间,团队的知识沉淀方式、评审方式、对齐方式都要重新设计。 一个朴素的判断:未来 12 个月,团队里那个最早把 AI 输出从"文本流"切换到"可交付工件"的人,会拿走最多的协作红利。
顯示更多
This works really well btw, at the end of your query ask your LLM to "structure your response as HTML", then view the generated file in your browser. I've also had some success asking the LLM to present its output as slideshows, etc. More generally, imo audio is the human-preferred input to AIs but vision (images/animations/video) is the preferred output from them. Around a ~third of our brains are a massively parallel processor dedicated to vision, it is the 10-lane superhighway of information into brain. As AI improves, I think we'll see a progression that takes advantage: 1) raw text (hard/effortful to read) 2) markdown (bold, italic, headings, tables, a bit easier on the eyes) <-- current default 3) HTML (still procedural with underlying code, but a lot more flexibility on the graphics, layout, even interactivity) <-- early but forming new good default ...4,5,6,... n) interactive neural videos/simulations Imo the extrapolation (though the technology doesn't exist just yet) ends in some kind of interactive videos generated directly by a diffusion neural net. Many open questions as to how exact/procedural "Software 1.0" artifacts (e.g. interactive simulations) may be woven together with neural artifacts (diffusion grids), but generally something in the direction of the recently viral There are also improvements necessary and pending at the input. Audio nor text nor video alone are not enough, e.g. I feel a need to point/gesture to things on the screen, similar to all the things you would do with a person physically next to you and your computer screen. TLDR The input/output mind meld between humans and AIs is ongoing and there is a lot of work to do and significant progress to be made, way before jumping all the way into neuralink-esque BCIs and all that. For what's worth exploring at the current stage, hot tip try ask for HTML.
顯示更多