注册并分享邀请链接,可获得视频播放与邀请奖励。

搜索结果 目前沒有復出的消息
目前沒有復出的消息 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 目前沒有復出的消息 的推特
【護送油輪】日本防衛大臣小泉進次郎:沒有向霍爾木茲海峽派遣軍艦的計劃 儘管美國總統特朗普晚些時候與日本首相高市早苗舉行峰會前向東京施壓,但日本防衛大臣小泉進次郎說,日方目前沒有向霍爾木茲海峽派遣軍艦的計劃。「最重要的是要盡全力,包括外交努力,來緩和局勢。」
显示更多
【衝擊業績】台積電稱ASML最新晶片製造設備過於昂貴 暫不採用 台積電將推遲至2029年後再將ASML最先進的光刻機用於晶片生產。台積電副共同營運長張曉強表示,公司目前沒有採用ASML最新高數值孔徑極紫外光刻機(high-NA EUV)的計劃,這類設備單台價格超過3.5億歐元。
显示更多
你让他提供提币记录发给嗯哼我刚给嗯哼说了,我这里目前没看到有usdt进账,如果他提到别的交易所了,让他告诉我是哪个地址,我确认有的话就给他打回去,而且okx免认证半年没提就会强制更新一次,所以大概率是他造谣蹭热度的,我这一年没用okx交易了,如果真是免认证提到我的地址了,我给他打回去,我目前看了我okx的账号没有任何u进帐
显示更多
鹅说区块链获悉,阿超刚才提币提错地址,凉兮将军获得了3000U大自然的馈赠
确实是很久没有赚到钱了,于是选择在北海道过个冬玩玩雪给自己冷静冷静。降低交易频率绝对是整理心态的利器,出去兜兜风,或是逛逛商场,哪怕只是下楼找个馆子坐坐吃个饭,都胜过一直坐在电脑前看盘。 以往没赚到足够大的PNL我是不愿意发的,装不起来嘛。但感觉一直不写点东西会越来越懒,所以即便没赚到美金,撸到点币我觉得也值得说一说。 过去俩月只要在币价上升后无脑做sell 90k+ call的操作,体验是相当好的,不过我中途28、29号也莫名fomo了一波,一手多单把撸到的币又丢回去了…… 接着是随着IV进一步下跌,开始转换思路由守转攻买put做保护了,在以熊市判断为前提,胜率会明显高于赌暴涨。好在损耗了没几天theta就开花结果了。short put 基本开在77k左右,总体目的就是部分止盈一些头寸而已。 与其一直纠结哪里是底,不如多思考下,把问题转变成“这个位置你愿意持有多少比例的货”,可能会轻松不少,反正你要说从这里开始慢慢定投接货,我举双手赞成。 你会发现一旦熊市,悲观言论就接连不断地出现,什么流动性抽离,什么中心化瓦解,什么贵金属共识。去他妈的吧,这些问题在币价120k的时候也有呀,怎么那个时候没人分析这些?目前看低到60k甚至更低,甚至DAT黑天鹅,确实合理,但没有必要重仓去押注这个目标。比特币本身的叙事一直没有变,长期策略我也依旧会以它会再去新高的路径去做,如果你不认可,现在就应该甩掉所有币离场才对,毕竟这一年来赚钱的难度你也看到了。 至于长线鸡汤,也少看点,我关注的几个所谓HODL博主,哇币价但凡有点波动的时候,发文他娘的比谁都快,我一个做交易的都经常从他们推文中知道价格有异动呢,你真觉得这些人是拿长线的料吗?估计人家家里墙上挂满了币价跟踪屏幕呢。都是流量啦。
显示更多
Susde循环贷策略,早上仔细考虑了一下。有以下风险点 1.可能被狙击(当然目前没看到方法) 2.巨鲸一直借u出去挖usual,让usdt借贷利率大于sude的收益,被迫要退出 3.市场转熊,或者bfusd等其他因素导致sude收益下降,需要退出。 主要是这个策略退出时间太几把长了。1x杠杆退出要7天,10x杠杆退出就要70天.... 可以瞬间进入,但是不能瞬间退出。(只针对于大资金) 总结,收益好的时候高,不可控收益,不可控风险,风险极大。退出时间极长。 不如套meme....
显示更多
0
29
73
7
转发到社区
币安主投的@Gata_xyz,并且是币安孵化的,又是AI数据(CZ重视的类型)BSC链原生的,属于是buff叠加满满,挂机挖矿+使用AI+每日签到,目前没多人注意到这个,基于以上提到的因素,我觉得会比较有潜力,种子轮400万美元(我感觉后面会有二轮融资 1.才出的任务(做的人还不多 2. 登录官网钱包注册挂机跑奖励: 3. 昨天刚推出的@Galxe嘴撸奖励总量0.5%的代币,还是很吸引人的,多写写相关内容在目前不倦没多少人注意到的情况下早下手,抢占先机,#Starboard# 不要等到卷的时候才开搞 Gata(原名 Aggregata)旨在成为领先的数据基础设施,透过创建前沿人工智慧资料来推进安全、人性化的超级智慧前沿人工智慧需要前沿数据: 1. 将人工智慧能力扩展到超人水准 2. 确保人类与超级智慧保持一致
显示更多
GATA去中心化数据基础设施,CZ非常重视的项目类型,入选币安加速器孵化,并且刚获得币安400万美元种子轮,币安孵化后又获得币安融资,叠加属性满满,重视其交互 图文交互教程 登录后连接 #OKX# 钱包(目前习惯性用OKX钱包,比起小狐狸太好用) 1. 绑定推特和DC获得400积分 - 绑定邀请码:9k7y3jd8 2. 点击“Start DVA”运行,电脑挂着就能一直挖矿获得积分奖励(我已经跑了一段时间) DVA(数据验证代理)是 Gata 的首个数据代理,它评估互联网上图像字幕数据的质量,并给出 DVA 分数奖励 - @Gata_xyz项目本身属于数据处理概念,币安重视这一块儿,并且也得到了币安多重助力,先是入选币安加速器,然后经过孵化后,又获得了币安融资,证明其潜力不错,哪天直接上线币安不要感到奇怪 - 有点DEPIN类项目挖矿类型,运行电脑可以获得挖矿奖励 - DEPIN类型我觉得会有些不错的项目跑出来,目前阶段有大推手在后面推动DEPIN发展,前面的推文我已经分享过3个类似有潜力的免费挖矿DEPIN项目
显示更多
0
34
33
2
转发到社区
看完了CoinBase今天的财报会,一股淡淡的死感, 1)优化了14%的员工,大约700人,CoinBase总共给了50M-60M的遣散费,人均斩获7,8万刀大礼包。裁员后,CoinBase预计可以降低 500M 的年度成本。 2)CoinBase平台内 USDC 平均持有量创历史新高:从去年Q4的$178亿到Q1的$190亿,增长6.7%,目前大约占USDC总流通量的25%。但Stablecoin Revenue环比下降,去年Q4是$364M,今年Q1是$305M+18M(会计调整),主要受FED降息影响。 另外,USDC总流通从去年Q4到今年Q1增长大约5%-6%,没跑赢CoinBase的站内增速,这意味着Circle被CB吸血的程度又增加了。 3)会上同步了CoinBase“三个代表”战略的进展,即Everything Exchange,稳定币&支付和链上业务(排名有先后)。 其中,衍生品业务已有200M的年化收入,预测市场才推出2个月就已有100M的年化收入。 在这里做个对比,Robinhood的预测市场已正式推出1年,目前年化收入是400M+。彻底脱离Kalshi自建预测市场后,预计Robinhood预测市场的年化收入还会大幅增长。 稳定币方面, Base 已成为所有稳定币交易的主导链,市场份额达 62%。会议还提到,稳定币整体在本季度的交易量取得了翻倍的佳绩,USDC及合作伙伴占稳定币总交易量的80%+。 链上业务方面,Base生态DEX volumes环比增长2倍,借贷余额在去年已超1B。 4)零售用户在本季度的交易量为$36B,产生了$567M的收入,环比下降23%;机构用户在本季度产生了$166B的交易量,创造了$136M的收入,环比下降27%。 5)从第四点能够看出,coinbase散户的交易费用是非常高的,平均为1.575%(一直很贵。做个对比,离岸所散户平均下来,也就几个bp的手续费)。于是财报会就有人问了,“鉴于摩根斯坦利等tradfi大银行进军crypto,并为客户提供了更低的手续费,你们打不打算降价” CFO老哥自信回答:我们保持警惕,但目前没看到用户因为费率跑路的事情。 CEO Brian随即补充:用户如果嫌贵,可以订阅coinbase one,或者是走coinbase advanced专业路线,交易量越大越便宜。 关于CoinBase one,财报会重点提到了coinbase one的付费用户已过百万,是coinbase的重要产品,coinbase one订阅用户也是cb体系内最有价值的用户。类似robinhood gold,能持续创造较高的ARPU。 6)会上还聊到了一些给投资者心灵按摩的较为老生常谈的事情,比如强调业务能抗加密周期风险:订阅收入占比近半,即将有13个产品线年收入过亿;强调了AI叙事,主要是人员优化,AI AGENT链上交易和X402,利好usdc和base;聊到了清晰法案...总体我感觉比较平淡且话题比较抽象(这里主要指,更多需要去想象) From CoinEx&ViaBTC Institution
显示更多
0
24
95
7
转发到社区
香港活动的第二天,凌晨两点睡的,很多小伙伴认为挺晚了,但这是我最近几年睡的最早的一次了,凌晨六点多就自然醒了,但考虑到今天又是营业的一天,强迫自己又睡了一会。 中午见了许久不见的小伙伴,很久没有聊的这么开心了,虽然有点小插曲但确实是放松了三个小时,然后就马不停蹄的去了主会场,见了几名优秀的创业者,感叹现在预测市场的创业太多了,各种新奇的想法都有,甚至有很多都超过了我的想象。 预测这个赛道我个人认为是最近一个周期最大的机会,但可惜的是,目前的从业者对于预测市场的了解并不足够。照抄 Ploymarket 是很难成功的,既有文化上的差异,也有面对用户的差异,很多创业者认为只要用 USDT 或者 USDC 作为支付就是面对币圈的项目,但这个思路是错的,今天讲了一个下午。 晚上去了 @okxchinese 的活动,真的是里三层外三层,小伙伴数不胜数,听说活动地址是以前香港的地王,站在阳台上可以俯视半个香港,感谢 OKX 的小伙伴的热情招待 @Cayne_okx @Mercy_okx @mia_okx 都辛苦了,还麻烦 @OKX_Yuki 帮我介绍了钱包的小伙伴们,实在太感谢了。这次 @Haiteng_okx 是真的瘦了,估计这次会开完,还能再瘦 5 斤,楼上楼下的跑了不下10次,脸都白了。 活动很棒,景色很美,又是 23 点才吃的晚饭,今天吃的香辣蟹,说实话,味道挺一般的,但能和同频的小伙伴们边吃边喝,才是最开心的。 明天又是被迫营业的一天,虽然香港挺好的,但我还是想回新加坡。
显示更多
0
62
141
2
转发到社区
2023 年,Meta 首席 AI 科學家楊立昆給當時的 LLM 熱潮潑了一盆冷水。 他指出 LLM 有根本性的缺陷:沒有持久記憶、無法從單一經驗學習、缺乏對物理世界的理解。本質上,它只是在做「下一個 token 的預測」。 從學術的角度看,他說得完全正確。 直到今天,LLM 的底層架構依然沒有變。它依然是一具每次啟動都空空如也的統計引擎。 但在三年的工程演進後,我們發現了一個讓科學家尷尬的事實:學術上的根本缺陷,工程上不一定要正面解決,繞過去一樣能起飛。 楊立昆主張要走「世界模型」的路線,讓 AI 像人一樣建立對物理規律的理解。他認為 Scaling Law(規模定律)有天花板,LLM 光靠堆算力不能產生真正的智慧。 但工程界用兩件事回應了他: 第一,資本的暴力美學。過去三年,人類往算力砸錢的瘋狂程度,讓模型規模產生的「湧現」直接蓋過了架構的粗糙。 第二,系統性的外掛補丁。模型記不住?掛上向量資料庫。模型理解不夠?接上 Vision 和工具。 這就是工程學最迷人的地方:解決問題不需要追求「本質的優雅」。 楊立昆在研究神經元的排列,而工程師在研究如何把這個「不完美的大腦」裝進一個強大的「機械外骨骼」裡。 楊立昆對 LLM 的核心批評,是他認為 Pattern Matching(模式匹配)不算真正的學習。 但如果這種模式匹配的複雜度足以模擬出文明的所有邏輯,那「學習本身到底是什麼模式」還重要嗎? 飛機與鳥的飛行原理完全不同。飛機沒有羽毛、不會拍翅膀,但在它飛得更高、更遠、更穩定的那一刻,它到底「算不算在飛」已經不重要了。 但繞過去的,跟真的解決,是兩回事。 只要底層架構沒變,楊立昆講的那些缺陷就真實存在。記憶是外掛的,不是原生的。就像義肢,裝上去能走能跑,但它跟真正的腿就是不一樣。你不能假裝它不存在。 所以雖然 AI 已經很強了,推理、寫作、寫程式,很多事做得比大部分人好,但它每次都是一個全新的大腦。沒有連續的意識,沒有累積的經驗。它所有的「記憶」、「理解」、「偏好」,全部來自你這次塞給它的上下文。 如果你去看 OpenClaw 最近的 repo 更新,你會發現記憶管理佔了很大的篇幅。怎麼讓 AI 在對話之間記住該記住的東西。 他們最近推的 QMD,把關鍵字搜尋跟語意搜尋混在一起用,就是為了解決一個問題:你三天前跟 AI 聊過的東西,它下次怎麼找得回來。 模型本身的能力會繼續進步,但只要底層是 LLM,記憶管理就是一個繞不開的大山。 用工程的角度來說,就是 Context Engineering 的重要程度,會逐漸超過模型本身。 你怎麼管理每次丟給模型的那包上下文,決定了 AI 能幫你做到什麼程度。哪些資訊該放、哪些不該放。什麼時候該砍掉重來、什麼時候該接著繼續。不同對話之間的記憶怎麼同步、怎麼取捨。 我自己每天都在處理這個問題。 舉個例子,我的 OpenClaw Agent KAI,它常常在多個頻道處理不同任務,但它們的記憶不是即時同步的。只要 還沒更新,它們就不知道彼此剛做了什麼。 所以我常常要幫它做認知同步。譬如告訴 A 分身,B 分身目前正在做什麼,然後要求 B 把做的東西整理好傳過去。或者更簡單一點,直接叫 A 去讀另一個 Discord 頻道最近兩小時的對話,讓它自己同步 B 的工作內容。 這種「認知斷裂」的現象,只要你常用 AI,一定會有很強烈的感覺。 從人格化的角度看,你會覺得它們是同一個人。但事實上,它們只是共享同一份記憶。只要記憶沒有同步,它們就是不同的人。 我現在花比較多時間在學這一塊。譬如今天 KAI 就教了我,如果讓 Claude Code 的 Opus 4.6 從外部調用 GPT 5.3-Codex,用 MCP 跟 coding-agent skill 的差異是什麼。 KAI 告訴我,差異的核心在於:中間過程要不要進主 context。 用 MCP 調用 Codex,每一個 tool call 都走 MCP 協議。Codex 過程中的每一個 turn,讀檔、改檔、跑測試、報錯、retry,全部以 tool result 的形式灌回 Opus 的 context。一個 coding task 可能產生幾十個 turn,跑完之後 Opus 的 context window 已經被中間過程塞滿了,後面每一 turn 都要重送這些垃圾。這就是 context 污染。 而 coding-agent skill 的設計完全不同。它把整個 coding task 交給一個獨立的 sub-agent,這個 sub-agent 在自己的 context 裡完成所有中間過程。跑完之後,回傳給 Opus 的是一個精簡的 handoff summary:改了哪些檔案、測試跑過了沒、有沒有殘留問題。中間那幾十個 turn 的掙扎,Opus 完全不需要知道。 同樣一件事,兩種做法,Opus 的 context 乾淨程度天差地遠。 所以同一個模型,不同的人用,產出可以差十倍。 人與人之間原本的能力差距,已經沒那麼重要了。你的學歷、你的年資、你寫程式的底子,這些東西的權重正在被 AI 快速壓縮。 取而代之的,是你怎麼使用 AI。這件事的精度,才是現在真正決定產出的變數。 你理不理解它的記憶是怎麼運作的。你知不知道什麼時候該砍掉 context 重來、什麼時候該讓它接著跑。你能不能在對的時間,把對的資訊塞進那個 context window。 這些東西有一個名字,叫 Context Engineering。 它不是什麼高深的學問,但它是所有想把 AI 用好的人,都應該深入研究的東西。
显示更多
0
51
980
166
转发到社区