註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

檢索結果 吴恩达
吴恩达 貼吧
一個關鍵字就是一個貼吧,路徑全站唯一。
建立貼吧
用戶
未找到
包含 吴恩达 的搜尋結果
吴恩达老师是我最喜欢的老师,专业又不贩卖焦虑,说真话又不怕得罪大厂,我就喜欢真诚的专业人士。
吴恩达怒批“AI 导致失业论”!我在新加坡看到的真相:企业正排队花钱抢人 “AI 马上要砸掉所有人的饭碗了!”——这段时间你肯定被这种恐慌新闻刷屏了。 但就在这几天,AI 泰斗吴恩达公开发文怒批:“所谓 AI 引发大规模失业,纯粹是不负责任的恐慌故事。大家必须立刻停止这种炒作!” 为什么?听我给你讲讲宏观的谎言和我在新加坡看到的微观真相。 第一,谁在推动“AI 失业”的恐慌? 吴恩达一针见血:这是三股力量在推波助澜! 1️⃣ AI 大模型公司: 极力渲染 AI 能取代人类,是为了拉高定价锚点。既然能帮你省下 10 万美金的人工费,收你 1 万美金订阅费不就显得很划算? 2️⃣ 传统大厂: 需要“AI 提效”的借口,掩盖自己疫情期间盲目扩招后的“裁员遮羞布”,讨好华尔街。 3️⃣ 媒体: 天然偏爱恐慌。“AI 灭绝人类”永远比“AI 改变工作流程”更有流量。 历史上盲目恐惧“人口炸弹”和“脂肪”都带偏了社会决策,今天绝不能再被“AI 失业论”洗脑! 🇸🇬 第二,实地走访新加坡的真相:根本招不到人! 昨天我走访了新加坡国立大学(NUS)的计算机教授,真实情况是:懂 AI 的学生供不应求! 企业甚至愿意交几千新币的“排队费”来买一个进场抢人的名额。 这种恐怖的需求不仅来自科技巨头。昨天我还走访了一家新加坡本地的传统蛋糕店,老板都在想方设法用 AI 改造订单系统和生产排产。 全世界有无数这样急需 AI 改造的中小企业。但是,把大模型落地到业务流程里,极度缺乏一种人才—前向部署工程师(FDE)。既懂 AI 工具,又懂业务场景,缺口极大! 🚀 总结:停止无效内卷,迎接 AI 就业狂欢 (Jobapalooza) AI 带来的不是失业末日,而是一场史无前例的就业狂欢! 但我必须提醒一个巨大的培训误区: 别再花大量时间去算模型权重、学底层的神经网络原理了。除非你想去 OpenAI 盖基建,否则这些在日常工作中根本用不到! 真正的机会在于: ✅ 搞懂 AI Agent(智能体)的工作原理 ✅ 熟练使用最新的 AI 工具组合 ✅ 深入传统企业,摸透他们的工作流,用 AI 帮蛋糕店提升 30% 排产效率! 现在不是焦虑失业的时候,现在是你躬身入局,成为 AI 时代超级个体的最佳历史机遇! BTW,我们正在与 NUS 合作策划一系列从零开始的 AI agent 企业应用课程,感兴趣的朋友可以关注起来。 #AI# #吴恩达# #AI就业# #人工智能# #新加坡# #职场发展#
顯示更多
吴恩达老师观点:所谓“AI 会引发大规模失业”,纯粹是一种不负责任的恐慌故事。 软件工程师都快被 AI 工具折腾死了吧?可现实却是工程师招聘市场依旧火爆,美国失业率稳稳地停在 4.3%,没半点要崩的样子。每一波技术浪潮,最终创造出来的新岗位远比被干掉的多得多,这次也不会例外。 “AI 抢饭碗”这个故事为啥这么流行背后的三股推动力: 一是前沿 AI 公司特愿意把自己技术吹得越神越好。一项技术能干掉一个年薪十万的员工,那卖你一万美元的订阅费是不是就显得便宜了? 二是企业自己也爱把裁员说成是“AI 提效”,毕竟比承认“疫情期间招人招过头了”听着体面多了。 三是媒体天然就偏爱恐慌故事。“AI 会让人类灭绝”,这标题点击率总比“AI 会改变你的工作内容”高出几个数量级。 他举了些历史上类似的群体恐慌故事:比如公众对核电站安全的过度焦虑,直接导致核电发展停滞几十年;60年代“人口炸弹”的恐惧,让很多国家祭出了严厉的人口控制政策;再比如对脂肪的恐惧,导致政府推广了几十年的高糖低脂饮食。这些听起来有点荒唐,但当年每一个故事都非常流行,并实实在在影响了无数人的生活。 AI 不会带来失业末日(jobpocalypse),而会带来一场就业狂欢(jobapalooza)。大量 AI 工程师的岗位即将诞生,而且还不止是在传统科技公司里。其他非 AI 岗位的技能需求也会发生重大变化。对普通人来说,现在正是进入 AI 行业、或者掌握 AI 工具的最佳时机。
顯示更多
There will be no AI jobpocalypse. The story that AI will lead to massive unemployment is stoking unnecessary fear. AI — like any other technology — does affect jobs, but telling overblown stories of large-scale unemployment is irresponsible and damaging. Let’s put a stop to it. I’ve expressed skepticism about the jobpocalypse in previous posts. I’m glad to see that the popular press is now pushing back on this narrative. The image below features some recent headlines. Software engineering is the sector most affected by AI tools, as coding agents race ahead. Yet hiring of software engineers remains strong! So while there are examples of AI taking away jobs, the trends strongly suggest the net job creation is vastly greater than the job destruction — just like earlier waves of technology. Further, despite all the exciting progress in AI, the U.S. unemployment rate remains a healthy 4.3%. Why is the AI jobpocalypse narrative so popular? For one thing, frontier AI labs have a strong incentive to tell stories that make AI technology sound more powerful. At their most extreme, they promote science-fiction scenarios of AI “taking over” and causing human extinction. If a technology can replace many employees, surely that technology must be very valuable! Also, a lot of SaaS software companies charge around $100-$1000 per user/year. But if an AI company can replace an employee who makes $100,000 — or make them 50% more productive — then charging even $10,000 starts to look reasonable. By anchoring not to typical SaaS prices but to salaries of employees, AI companies can charge a lot more. Additionally, businesses have a strong incentive to talk about layoffs as if they were caused by AI. After all, talking about how they’re using AI to be far more productive with fewer staff makes them look smart. This is a better message than admitting they overhired during the pandemic when capital was abundant due to low interest rates and a massive government financial stimulus. To be clear, I recognize that AI is causing a lot of people’s work to change. This is hard. This is stressful. (And to some, it can be fun.) I empathize with everyone affected. At the same time, this is very different from predicting a collapse of the job market. Societies are capable of telling themselves stories for years that have little basis in reality and lead to poor society-wide decision making. For example, fears over nuclear plant safety led to under-investment in nuclear power. Fears of the “population bomb” in the 1960s led countries to implement harsh policies to reduce their populations. And worries about dietary fat led governments to promote unhealthy high-sugar diets for decades. Now that mainstream media is openly skeptical about the jobpocalypse, I hope these stories will start to lose their teeth (much like fears of AI-driven human extinction have). Contrary to the predictions of an AI jobpocalypse, I predict the opposite: There will be an AI jobapalooza! AI will lead to a lot more good AI engineering jobs, and I’m also optimistic about the future of the overall job market. What AI engineers do will be different from traditional software engineering, and many of these jobs will be in businesses other than traditional large employers of developers. In non-AI roles, too, the skills needed will change because of AI. That makes this a good time to encourage more people to become proficient in AI, and make sure they’re ready for the different but plentiful jobs of the future! [Original text in The Batch newsletter.]
顯示更多
0
87
239
37
轉發到社區
吴恩达新课,26 年的 AI 提示已经和 23 年有很大的不同 所以他开了一门的新的提示工程课程
How we prompt AI is very different in 2026 than 2022 when ChatGPT came out. I'm teaching a new course, AI Prompting for Everyone, to help you become an AI power user — whatever your current skill level. It covers skills that apply across ChatGPT, Gemini, Claude, and other AI tools. How to use deep research mode for well-researched reports on complex questions. How to give AI the right context, including more documents and images than most people realize you can provide. When to ask AI to think hard for several minutes on important decisions like what car to buy, what to study, or what job to take. And how to use AI to generate images, analyze data, and build simple games and websites. I also cover intuitions about how these models work under the hood, so you know when to trust an answer and when not to. Along the way, you'll see flying squirrels, a creativity test, some of my old family photos, and fireworks. Join me at
顯示更多
0
7
329
44
轉發到社區
关于AI时代的职业发展,吴恩达和Lawrence在斯坦福的AI时代职业发展讲座内容很详实,分享下我的收获。 1️⃣ AI能力在加速 有一项研究让吴恩达反复引用:AI能完成的任务复杂度,每7个月翻一倍。 衡量复杂度的方式是:这个任务让一个人做需要多久? 几年前 GPT-2 能完成的任务,换成人类来做也只需要几秒钟,但现在已经进化到AI能够完成需要人类几十分钟甚至几小时的工作。 AI编程方向的翻倍周期更短,大概70天。 但有意思的是,很多人对这个加速的感知是被扭曲的。 原因很简单,评估 AI 能力的 benchmark,满分是100%,你做到90%之后再进步10个点,数值的绝对值变化看起来很小。 于是去年有段时间整个互联网在讨论 AI 是不是在走下坡路,这是因为用一把只能量到100的尺子去量一个还在生长的东西,当然会产生这种幻觉。 真正能衡量 AI 是否变的更智能的指标,不是在 benchmark 测试上的分数,而是 AI 能够处理的任务的复杂度这条曲线,目前看,还在往上走。 2️⃣ PM 和工程师的比例在变 当 Build is Cheap,瓶颈就转移到了决策。 传统硅谷的工程师和 PM 比例大概在4:1到8:1。一个 PM 负责写需求、定方向,四到八个工程师负责执行。 这个比例背后的假设是:执行很贵,写代码很贵,所以你需要大量人手把一个清晰的 spec 变成可运行的代码。 但现在这个假设已经失效了,编码成本在快速下降,但产品决策的成本没有同等下降。于是工程师和 PM 的比例开始向1:1靠近,甚至有团队开始践行这个配比。 更进一步,吴恩达说他现在最欣赏的那批工程师,是能写代码也能跟用户聊的人。 这两件事以前被认为是不同人来做,现在越来越多地被要求长在同一个人身上。 他自己说:在生涯早期,他曾经试图说服一批工程师多做产品工作,结果把一些真正优秀的工程师弄得很沮丧,因为他们不擅长做 PM 工作;他说那是他做过的错误决策之一,后悔了很多年。 然后他说,他觉得自己现在正在重蹈同样的错误。 这句话有点绕,但我觉得他说的是真话:不是所有工程师都应该变成 PM,但如果你恰好能做这件事,你现在的优势会比任何时候都大。 3️⃣ 团队 > 公司 这部分我觉得是整场讲座信息密度最高的地方,也启发了我的机会选择思路。 他讲了一个案例:有个斯坦福的学生,被一家很热门的 AI 公司录用,但对方拒绝事先告知他会加入哪个团队,说有什么 rotation 机制,入职之后再分配。这个学生因为公司品牌够大,就签了 offer,结果被分配去做 Java 后端支付系统。做了一年之后觉得无聊,离职了。 然后吴恩达说,他在 CS230 课上分享过这个案例之后,另一个学生在几年后去了同一家公司,遇到了一模一样的情况。不是 Java 后端,是另一个跟 AI 八竿子打不着的方向。 如果一家公司入职前不告诉你会在哪个团队,这件事本身就是信息。 logo 不大但团队很强的地方,往往比 logo 大但团队一般的地方学得更快。你不是从走进大门那一刻的兴奋感里学东西的,你是从每天打交道的人身上学东西的。 在这个时代,能去到一个足够强的AI Native的小公司,一定比进入大厂的某个传统业务团队更好、成长更快,团队 > 公司。 4️⃣ AI时代的三个能力支柱 接下来换成 Lawrence Moroni 做分享,他是互联网科技的数十年老兵,呆过Google、Microsoft、Meta等公司,他接着讲了他看到当前 AI 人才身上的三个最重要的能力。 1.深度理解:不只是会调 API,而是要真的能读懂论文、理解模型架构、知道什么是信号什么是噪音。这个护城河现在比任何时候都值钱,因为现在社交媒体通过 AI 生成内容、制造噪音的成本降到了零。 2.业务聚焦:你能不能把技术能力翻译成商业价值。他讲了一个案例:一家欧洲公司来找他说想做 Agent,他直接问的第一个问题是为什么,不是要做什么 Agent。剥洋葱剥到最后,CEO 想要的其实是让销售团队更有效率。这个目标里从头到尾都没出现 AI 这个词。从这个真实需求出发,才能做出真正有用的东西,而不是一堆漂亮的演示。 3.Bias toward delivery:这个是他说的,想法很便宜,执行才是一切。他见过很多人带着半生不熟的想法进面试,也见过很多人带着不完整但落地得很扎实的方案进面试,通常都是后者能拿到结果。 5️⃣ 深刻理解技术债 每一行你使用AI生成的代码都是债。 Bug、文档、维护、新需求,这些都是你在还债。问题不在于要不要用 AI 生成代码,而在于你生成的每一行代码是好债还是坏债。 把 technical debt 当成财务债务来理解:买房贷款是好债,冲动刷信用卡买鞋是坏债。 判断标准就三条:你的目标清不清楚?有没有真正的业务价值被交付?别人能不能看懂这段代码? 他说他在硅谷见过太多人把 vibe 出来的代码直接 check in 进仓库,然后没人知道那堆代码在干什么,原作者后来找到了更好的工作,离开了,那些代码就留在那里成了一块永久的技术债。 最后:一些职业建议 Lawrence 说,他预测未来五年 AI 会发生分叉:一边是越来越大的 frontier model,另一边是越来越小、可以自部署的 open weight model。 他的判断是,大模型这边的泡沫会先破,小模型这边的泡沫会晚一些。 好的工程师应该同时押注两边,而不是把所有技能集中在一个方向上;会训练、微调模型的人才很重要,未来会有越来越多企业自部署小型模型。 相比于做一个领域的专家,更推荐做多个领域的复合人才。
顯示更多
漏了一点:在这个时代,Work Hard是一个政治上极度不正确,但对个人发展极度正确的一件事 -- 吴恩达 + Lawrence
关于AI时代的职业发展,吴恩达和Lawrence在斯坦福的AI时代职业发展讲座内容很详实,分享下我的收获。 1️⃣ AI能力在加速 有一项研究让吴恩达反复引用:AI能完成的任务复杂度,每7个月翻一倍。 衡量复杂度的方式是:这个任务让一个人做需要多久? 几年前 GPT-2 能完成的任务,换成人类来做也只需要几秒钟,但现在已经进化到AI能够完成需要人类几十分钟甚至几小时的工作。 AI编程方向的翻倍周期更短,大概70天。 但有意思的是,很多人对这个加速的感知是被扭曲的。 原因很简单,评估 AI 能力的 benchmark,满分是100%,你做到90%之后再进步10个点,数值的绝对值变化看起来很小。 于是去年有段时间整个互联网在讨论 AI 是不是在走下坡路,这是因为用一把只能量到100的尺子去量一个还在生长的东西,当然会产生这种幻觉。 真正能衡量 AI 是否变的更智能的指标,不是在 benchmark 测试上的分数,而是 AI 能够处理的任务的复杂度这条曲线,目前看,还在往上走。 2️⃣ PM 和工程师的比例在变 当 Build is Cheap,瓶颈就转移到了决策。 传统硅谷的工程师和 PM 比例大概在4:1到8:1。一个 PM 负责写需求、定方向,四到八个工程师负责执行。 这个比例背后的假设是:执行很贵,写代码很贵,所以你需要大量人手把一个清晰的 spec 变成可运行的代码。 但现在这个假设已经失效了,编码成本在快速下降,但产品决策的成本没有同等下降。于是工程师和 PM 的比例开始向1:1靠近,甚至有团队开始践行这个配比。 更进一步,吴恩达说他现在最欣赏的那批工程师,是能写代码也能跟用户聊的人。 这两件事以前被认为是不同人来做,现在越来越多地被要求长在同一个人身上。 他自己说:在生涯早期,他曾经试图说服一批工程师多做产品工作,结果把一些真正优秀的工程师弄得很沮丧,因为他们不擅长做 PM 工作;他说那是他做过的错误决策之一,后悔了很多年。 然后他说,他觉得自己现在正在重蹈同样的错误。 这句话有点绕,但我觉得他说的是真话:不是所有工程师都应该变成 PM,但如果你恰好能做这件事,你现在的优势会比任何时候都大。 3️⃣ 团队 > 公司 这部分我觉得是整场讲座信息密度最高的地方,也启发了我的机会选择思路。 他讲了一个案例:有个斯坦福的学生,被一家很热门的 AI 公司录用,但对方拒绝事先告知他会加入哪个团队,说有什么 rotation 机制,入职之后再分配。这个学生因为公司品牌够大,就签了 offer,结果被分配去做 Java 后端支付系统。做了一年之后觉得无聊,离职了。 然后吴恩达说,他在 CS230 课上分享过这个案例之后,另一个学生在几年后去了同一家公司,遇到了一模一样的情况。不是 Java 后端,是另一个跟 AI 八竿子打不着的方向。 如果一家公司入职前不告诉你会在哪个团队,这件事本身就是信息。 logo 不大但团队很强的地方,往往比 logo 大但团队一般的地方学得更快。你不是从走进大门那一刻的兴奋感里学东西的,你是从每天打交道的人身上学东西的。 在这个时代,能去到一个足够强的AI Native的小公司,一定比进入大厂的某个传统业务团队更好、成长更快,团队 > 公司。 4️⃣ AI时代的三个能力支柱 接下来换成 Lawrence Moroni 做分享,他是互联网科技的数十年老兵,呆过Google、Microsoft、Meta等公司,他接着讲了他看到当前 AI 人才身上的三个最重要的能力。 1.深度理解:不只是会调 API,而是要真的能读懂论文、理解模型架构、知道什么是信号什么是噪音。这个护城河现在比任何时候都值钱,因为现在社交媒体通过 AI 生成内容、制造噪音的成本降到了零。 2.业务聚焦:你能不能把技术能力翻译成商业价值。他讲了一个案例:一家欧洲公司来找他说想做 Agent,他直接问的第一个问题是为什么,不是要做什么 Agent。剥洋葱剥到最后,CEO 想要的其实是让销售团队更有效率。这个目标里从头到尾都没出现 AI 这个词。从这个真实需求出发,才能做出真正有用的东西,而不是一堆漂亮的演示。 3.Bias toward delivery:这个是他说的,想法很便宜,执行才是一切。他见过很多人带着半生不熟的想法进面试,也见过很多人带着不完整但落地得很扎实的方案进面试,通常都是后者能拿到结果。 5️⃣ 深刻理解技术债 每一行你使用AI生成的代码都是债。 Bug、文档、维护、新需求,这些都是你在还债。问题不在于要不要用 AI 生成代码,而在于你生成的每一行代码是好债还是坏债。 把 technical debt 当成财务债务来理解:买房贷款是好债,冲动刷信用卡买鞋是坏债。 判断标准就三条:你的目标清不清楚?有没有真正的业务价值被交付?别人能不能看懂这段代码? 他说他在硅谷见过太多人把 vibe 出来的代码直接 check in 进仓库,然后没人知道那堆代码在干什么,原作者后来找到了更好的工作,离开了,那些代码就留在那里成了一块永久的技术债。 最后:一些职业建议 Lawrence 说,他预测未来五年 AI 会发生分叉:一边是越来越大的 frontier model,另一边是越来越小、可以自部署的 open weight model。 他的判断是,大模型这边的泡沫会先破,小模型这边的泡沫会晚一些。 好的工程师应该同时押注两边,而不是把所有技能集中在一个方向上;会训练、微调模型的人才很重要,未来会有越来越多企业自部署小型模型。 相比于做一个领域的专家,更推荐做多个领域的复合人才。
顯示更多
想多看一些Ai界最有有影响力的顶级英文大佬的输出,却不知道该关注谁?我发现了一个免费的神级网站: MIT的同学通过爬虫和评级找出来了最值得关注的300个博主。 以我最喜欢的科学家 李飞飞 @drfeifei 为例,你可以找到她跟谁互动最多、关联的社区,属于什么类别。 排名前20的账户: 1.OpenAI (@OpenAI) 全球领先的 AI 研究公司 2.Lex Fridman (@lexfridman):知名播客主持人、MIT 研究员,常与 AI 顶尖大佬进行深度对谈 3.Sam Altman (@sama):OpenAI 首席执行官 4.Satya Nadella (@satyanadella):微软 CEO,推动了微软与 OpenAI 的深度整合。 5.NVIDIA GeForce (@NVIDIAGeForce):英伟达游戏显卡官方号,展示 AI 在图形与游戏中的应用 6.Aaron Levie (@levie):Box 首席执行官,以对 AI 产业的犀利观察和幽默评论著称 7.NVIDIA (@nvidia):AI 算力霸主英伟达的官方账号,发布底层硬件与基础设施动态 8. Google AI (@GoogleAI):谷歌 AI 部门官方账号,涵盖其最新的科研成果 9. xAI (@xai):埃隆·马斯克旗下 AI 公司的官号,Grok 10. Andrej Karpathy (@karpathy):前特斯拉 AI 负责人、OpenAI 创始成员,著名的 AI 教育者 11.Brian Armstrong (@brian_armstrong):Coinbase CEO,关注 AI 与加密技术的交叉领域 12.Andrew Ng (@AndrewYNg):吴恩达,AI 界的“一代宗师”,在线教育与机器学习的普及者 13. Google DeepMind (@GoogleDeepMind):谷歌旗下的顶尖 AI 实验室,专注通用人工智能(AGI) 14. Microsoft Azure (@Azure):微软云平台官号,关注 AI 模型在企业级的部署与应用 15. Steven Johnson (@stevenbjohnson):知名科普作家,关注 AI 对人类文明与创新的影响 16. Yann LeCun (@ylecun):Meta 首席 AI 科学家,图灵奖得主,以敢于挑战主流 AI 观点著称 17. Greg Brockman (@gdb):OpenAI 联合创始人兼总裁,常分享技术细节和产品演示 18. Anthropic (@AnthropicAI):由前 OpenAI 成员创立的 AI 安全公司,Claude 的开发者 19. Visual Studio Code (@code):程序员最爱的代码编辑器,正通过 AI(Copilot)重塑编程 20. Demis Hassabis (@demishassabis):DeepMind 创始人兼 CEO,致力于通过 AI 解决科学难题
顯示更多
0
18
491
120
轉發到社區
吴说获悉,比特币财库公司 Nakamoto 发布 2026 年第一季度财报称,公司已于 2 月 20 日完成对 BTC Inc. 和 UTXO Management 的收购,正式建立覆盖比特币媒体、资管及顾问业务的运营体系。第一季度总运营收入为 270 万美元,其中 160 万美元来自运营业务,110 万美元来自比特币储备及衍生品策略。财报显示,公司一季度净亏损 2.388 亿美元,主要受非现金及交易相关项目影响,包括比特币价格下跌带来的 1.025 亿美元按市值计价损失、收购前看涨期权累计收益减少导致的 1.077 亿美元非现金损失,以及约 800 万美元交易与整合成本。截至 3 月 31 日,Nakamoto 持有超过 5000 枚 BTC,期末公允价值约 3.45 亿美元。
顯示更多
吴说获悉,Delphi Digital 发文表示,Strategy 仍在持续买入 BTC,但其融资结构已发生变化。此前,当 MSTR 相对其 BTC 持仓价值存在较高溢价时,发行普通股有助于提升每股比特币含量;但随着该溢价压缩,普通股发行对 BTC/share 增长的贡献正在减弱。Delphi 指出,STRC 通过吸引收益型买家填补了融资缺口,但代价是持续性的股息负担:以当前 11.5% 股息率计算,每发行 10 亿美元 STRC,将新增约 1.15 亿美元年度股息义务。
顯示更多
吴说获悉,据 @tomwanhh 数据,随着 Ethena 将超过 7 亿美元 USDG 直接部署到 Solana,当前 USDG 市值已突破了 30 亿美元。与此同时,Solana 网络 USDe 的市值也在一天内增长了 20 倍,从 350 万美元增长至 7,000 万美元。
顯示更多