註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

Drunk
@Liu_zhongxisn
写代码,也研究 AI 工作流 🤖 专注 Codex / Claude / HarmonyOS / AI 工程效率 把复杂技术讲成人话 把 AI 真正接进开发流程,而不只是“玩工具” 持续分享: AI 实战 · 工作流 · 工程提效 · 独立开发 · 全天 Make Altcoins Great Again !!!
329 正在關注    201 粉絲
这不比传统教学工具强多了,可旋转可剖切,绝了,起码对于初中高中的学生来说这个还是很有还是很有必要的,学生不在是对着图片去想想了,老师们还是可以弄一下的
顯示更多
传统工具的“聊天即记忆”模式在小团队短期有效,但时间长后确实会形成信息孤岛。实际案例中,很多公司后期需要专门的“知识管理员”或RAG系统来二次加工历史对话,否则搜索效率极低,这正是AI原生工具的切入机会。
顯示更多
让团队协作拥有长久记忆的 Tanka 来了。 由陈天桥(盛大集团)创立的 Tanka,是一款 AI 原生的团队协作智能平台。它的核心引擎,是自研的记忆原生操作系统 EverMemOS。 先聊聊传统团队协作的痛 过去我们用的协作工具,IM 聊天大多就只是聊天——发消息、转链接、传文件。想回头查点东西,得一个个翻对话记录,时间一长,简直是大海捞针。 更糟的是,团队的数据散落在各个系统里:聊天工具一份、邮箱一份、云盘一份、项目管理工具又一份……信息越多,团队的"集体记忆"反而越碎。 协作工具记录了对话,却没有沉淀智慧。 直到无意间看到 @TankaChat 发布的 Tanka,让我一下子支棱起来。 它不只是一个团队聊天工具,而是真正带着强大持久记忆能力的 AI 原生协作平台。 普通的 AI 助手,主要依赖系统提示词和当前对话的上下文——你给多少,它知道多少,本质上是以单次对话为中心,聊完就忘。 而 Tanka 的 Agent 拥有长期工作记忆(Long-term Memory): 1、它基于持续积累的工作上下文理解问题,而不是每次重新解释 2、它跨越多个数据源——聊天消息、邮件、日程、Gmail、GitHub、云盘……(目前已对接 115 个工具) 3、只要接入 Tanka,这些信息都会自动转化为它的长期工作记忆 更关键的是,Tanka 引入了强化学习反馈闭环——记忆不是静态的档案,而是越用越聪明的持续进化。 这让 AI 第一次真正具备了像人一样积累经验、形成判断的能力。 Tanka 的核心能力一览: 1、IM 即时通讯 — AI 原生团队聊天 2、长期记忆 — EverMemOS,跨时间跨数据源长期积累组织知识 3、AI Agent — 自动生成文档、路由任务、跟进执行 4、日历、备忘录、会议、融资等Link集成115个工具集合 5、当然还有其他强大功能待我发现挖掘 Tanka 想做的事,是让团队的每一次讨论、每一份判断、每一个决策,都能被 AI 真正记住,并在需要时主动调用出来。最后福利大派送,限时领取1个月的Plus会员,有兴趣的快来领取体验一番 领取地址: 官网体验地址:
顯示更多
这是豆包的为例吗?看的脑子一愣一愣的😂
现在很多人都是在优化“单个工具” 拉开差距的已经有了自己的workflow了 不是你不会用AI 上下文断一次,效率就归零一次 现在这个AI时代,最重要的是让流程不断 提高自己的效率
顯示更多
大家还在讨论那些模型强, 在现在这个时代,谁不会用AI呀, 强的是怎么增加你的产出,提高你的效率 有沉淀下来的可以让你复用的 Claudian、Claude、Codex、Obsidian 这是四个不同位置的的能力节点 将他们串联起来,那才是“让AI替你做事” 而不是在“用AI” 怎么串联起来可以看一下这篇文章
顯示更多
只能说国产厚积薄发?也不想光订阅国外的了,希望国内的加快脚步吧
今年必然产生几个超越Opus 4.6 的国产模型。不服来辩! 国产模型已经具备左脚踩右脚起飞的条件。 看接下来这几家站起来蹬,看谁今年发的版多。 4月份万亿参数俱乐部新加入DeepSeek V4 1.6T, MiMo -V2.5,Ling-2.6-1T ,后者即将开源。对比国外的闭源模型,马斯克说Opus 4.6参数在5T,GPT5.5大概也是这个参数量。 罗福莉说1T的参数量是入场券,我表示认同。背后代表团队掌握了大尺度模型的训练能力以及有个万卡集群来造。 昨天在Claudian上配了Ling-2.6-1T ,被他的速度和准确度折服了。我在Obsidian里使用Ling-2.6-1T写文章,指令跟随,语意能力理解不亚于Opus 4.7。 看好蚂蚁的Ling-2.6-1T。如果开源,会对业界引起巨大影响。跨越 1T 参数大关,说明团队底层算力调度、万卡集群容错机制、超大规模数据清洗能力都过关了。如果加上极致敏捷,年底超越opus4.6不是难事。 DeepSeek V4 1.6T激活参数49B,Ling-2.6-1T激活参数63B。 Ling-2.6-1T开源 ,会极大地刺激下游的微调与后训练生态。就看谁能榨干这 63B 的激活算力了。 Kilo code上现在Ling-2.6-1T快速增长,排名已进入到Top2流行的模型。
顯示更多
这题我会 分四步走: 一:先让ai先识别一下仓库,比如:项目的类型、模块、启动入口、构建配置、以及路由、页面、接口的目录 二:让他根据问题的一些关键词搜索,比如:页面名、接口名、字段名,找相关的组件、方法名 三:找到调用链,比如:入口是哪,数据怎么来的,中间有没有什么方法去做处理 四:最后输出报告,按照一定的格式去输出,比如:问题现象、相关的入口、文件、调用链、需要你验证的日志、以及回归测试 第五步:在我确定信息前,不要直接改代码!! 众所周知:四步走有五条很正常🤪
顯示更多
面试 AI Coding,我第三最喜欢的面试题: 如何让 AI 在一个陌生仓库里快速定位问题?
我以前用 AI 的方式很简单: 有事就问一句, 问完就走。 当下感觉挺爽, 但过两天再看, 东西又散了, 还得重新来一遍。 我自己以前就是这种“聊天式 AI”用户。 开个对话框, 问一下, 复制一点, 关掉。 看起来天天都在用 AI, 但总觉得它没有真正进入我的工作。 后来我才慢慢意识到, 问题不是我不会用, 也不是工具不够强, 而是我的工作流根本没变。 AI 以前只是我的聊天工具, 现在才开始慢慢变成我的工作流一部分。 以前是想到什么问一句。 现在是把资料先留下来, 再整理起来, 再接着起草、改写、沉淀。 这时候差别才真的出来了。 不是工具多厉害, 而是工作流变了。 对我来说, Obsidian 负责把资料接住, Claudian 让我在笔记环境里继续和 AI 往下走, Codex 再把整理和起草接过去。 这 3 个东西放在一起, 我感受到的不是“工具更多了”, 而是终于从“聊一下”变成“走一遍”了。 而且说实话, 现在也不用太怕 Markdown 语法这些东西。 很多工具都已经做得很方便, 跟写 Word 差不多, 点一下就可以。 真正麻烦的从来不是语法, 而是你有没有把东西留下来。 如果 AI 只停留在聊天框里, 很多内容很快就散了。 但一旦它进到你的笔记、整理和输出流程里, 内容才会慢慢积起来。 所以我现在越来越在意的, 不是 prompt 花不花, 而是这次对话之后, 有没有东西真的被留下来, 被整理起来, 再往前推一步。 如果你也在用 AI, 但一直没有形成自己的工作流, 可以先别急着加更多技巧。 先试一个很小的动作: 别再只在聊天框里问一句就走。 试一次把资料丢进 Obsidian, 再让 Codex 接着整理和起草。 很多时候, 你以为自己缺的是更强的 AI。 其实你更缺的, 是一个能把东西留下来的流程。 感谢 @AISpark1 的课程
顯示更多
我以前用 AI 最常见的方式就是: 卡住了,问一下。 也不是没用。 就是总觉得,用了,但没用出什么差别。 后来我去学了 @AISpark1 他们第一期的课。 对我真正有用的, 不是又记住了几个技巧, 而是突然意识到一件很简单的事: 我的默认起手式一直没变。 以前我做很多事都是: 我先想, 我先写, 我先整理。 现在我更常见的做法是: AI 先起头,我来判断。 这就是我现在理解的 AI First。 它不是技术, 更像是一种习惯。 很多人不是不会用 AI, 而是还没把这个默认动作换掉。 你还是每次都自己先憋第一版, 卡住了, 再去问 AI 能不能救一下。 那 AI 对你来说, 更像补丁, 不是默认配置。 我自己的一个小方法很简单: 每次准备开始一件小事前, 先问自己一句: “这件事,能不能先让 AI 帮我起个头?” 比如先让它写个开头, 列个提纲, 整理一段信息, 或者先给我 3 个版本。 然后你再改、再删、再判断。 这不一定适合所有人, 但对我确实很有用。 因为它解决的不是 “我会不会用 AI”, 而是 “我还要不要每次都从零开始”。 如果你也在用 AI, 但总觉得效果一般, 可能先不用急着加更多技巧。 先试着改掉一个默认动作: 别什么都自己先起头。 很多时候, 差别不是你有没有在用 AI, 而是第一步,到底是谁先动。
顯示更多
这个讲的很详细了,每到月底去整理这个发票都让我很烦,看着都不想整理,果然,人要学会利用工具,让自己偷懒