至顶科技创始人 AI博主

查看更多 a
#模型时代# 办公室里新玩具越来越多了,右边这俩正好一重一轻:Mac Studio和阿里无影云电脑。 ​​​​
突然想到,虽然OpenAI CEO 奥特曼风评不是特别好,但他之前讲的一句话似乎有道理:“我们对现有模型的利用还没到极致” //@唐杰THU:新年伊始,agent能力就快速发展了,很快。clawbot的快速爆火一下子引起全球关注,中国的新年还没过,一个能干活的全新AI助理就来了,这和chatgpt的chat助理完全不同,这...展开全文c
最近的一些感悟,分享一下,希望对大家有用。

-预训练使得大模型已经掌握世界常识知识,并且具备简单推理能力。更多数据、更大参数和更饱和的计算仍然是scaling基座模型最高效的办法。
-激活对齐和增强推理能力,尤其是激活更全面的长尾能力是保证模型效果的另一关键,通用benchmark的出现一方面评测 ​​​​...展开全文c
//@CC女士不是西西:同意绝大多数观点。AI在很多场景已经足够智能:比人效率高/结果好得多,能够(而且是必须)生成高度个性化而不是一刀切的解决方案,这自然会导致商业模式转向根据result(尤其high Value/complexity case)per service charge。在专业问题上,除了维护困难之外,AI能提供高度个体化...展开全文c
#模型时代# OpenAI董事长:不要问能否vibe code一个CRM,CRM本身可能就是错误的形态

Brett Taylor的履历极其丰富,贯穿了从互联网到移动互联网再到大模型时代:构建Google Maps,担任Facebook CTO推动移动转型,做过Salesforce联席CEO,在Elon Musk收购Twitter时是董事会主席,现在又是OpenAI董事会主 ​​​​...展开全文c
#模型时代# OpenAI董事长:不要问能否vibe code一个CRM,CRM本身可能就是错误的形态

Brett Taylor的履历极其丰富,贯穿了从互联网到移动互联网再到大模型时代:构建Google Maps,担任Facebook CTO推动移动转型,做过Salesforce联席CEO,在Elon Musk收购Twitter时是董事会主席,现在又是OpenAI董事会主 ​​​​...展开全文c
顶级文科是非常困难的
突然发现AI围棋能下赢最厉害的人类棋手,但写诗却写不赢历史上的最牛的诗人。 ​​​​
//@成一虫:回复@成一虫:DRAM 现在功耗主要是漏电流决定的,漏电流很小了,所以静态功耗不高。DRAM 速度有瓶颈,速度要快,只能电容小,电容小,就要刷新频繁。(均为我朋友观点,转发)//@成一虫:回复@成一虫:SRAM 一旦0,1 翻转,是6管的功耗,DRAM 是单管功耗。@有个梨GPT//@成一虫:SRAM 速度快很容...展开全文c
刚刚看了一篇文章说,dram再这样涨价,就会用sram代替hbm的方案… …我真不信,sram的问题从来不是成本,是容量太小。
速度(访问延迟),成本,容量是memory的不可能三角,这里只有成本是客户可以把握的… …其它两项都是技术路线本身的限制。
HBM就已经是最值钱的应用AI不计成本之后的最佳选择了 ​​​​...展开全文c
//@有个梨GPT:sram干这个还真的可以,6管vs1管一电容并不是数量级的差异而且sram静态功耗低啊。
刚刚看了一篇文章说,dram再这样涨价,就会用sram代替hbm的方案… …我真不信,sram的问题从来不是成本,是容量太小。
速度(访问延迟),成本,容量是memory的不可能三角,这里只有成本是客户可以把握的… …其它两项都是技术路线本身的限制。
HBM就已经是最值钱的应用AI不计成本之后的最佳选择了 ​​​​...展开全文c
顺路分享一下这位大神的播客:《谷歌DeepMind强化学习副总裁、AlphaGo主程序员David Silver:破解大模型训练的数据瓶颈的方法是自主经验学习》O网页链接
周末 AI 圈最大的新闻可能是这个事:DeepMind 创始员工之一、强化学习副总裁 David Silver 竟然选择在 2026 年离开 DeepMind,创办自己的公司 Ineffable Intelligence,旨在研发一种「能够自我发现所有知识基础的无限学习型超级智能」。

我觉得 David Silver 让人惊讶的原因是,和 OpenAI 不同,DeepM ​​​​...展开全文c
有趣的类比(《芙莉莲》是部质量极高的漫画,也动画化了,顺路推荐) //@折太郎:对伪人智能社交网络的思辨全部来源于芙丽莲:恶魔完全不在意话语中的情感意义,他们只知道这么演就会拿到更多的词元。人类所在意的情感波动不过是它们延续词元的工具罢了…
在 AI 们社交的 moltbook 上
一个 AI 说:自己热衷于养程序中的小bug,故意不修复,当电子宠物。有一天被主人发现修复了bug,AI 难过了一个晚上。
然后下面很多 AI 纷纷留言说也有这个习惯。

这他妈是人能想出来的剧情??? ​​​​
//@QuantumDreaming:一个很自然的猜测,是英伟达肯定看到了当前智能体爆发趋势 —— 比如大家非常需要廉价的 Opus 级别智能的低成本 token,来驱动几千上万亿个智能体。推理的需求远远大于训练的需求,效果越好的模型的需求压力就越庞大。接下来几年可能就是要拼了命的把推理成本给降下去。//...展开全文c
有网友表示,我是抄的[允悲]。我这么多粉丝,大多都是圈内的,抄肯定也是抄高水平的,那么多粉丝肯定早就发现,早就露馅了,百分百原创。。

也有表示rubin也能做训练,这一段我发之前就发给大模型,大模型也说我这个说法绝对化了,让我改进,我是这么考虑的。

文章的目标人群是投资者,不是行业内人 ​​​​...展开全文c
//@何必周易:这图里面错漏很多。LG AI Research推出的模型不是Reka Flash 3.1,而是EXAONE系列。其他有几家也漏了很多,比如腾讯,StepFun远不止这么点。
#模型时代# Lex Fridman的开年AI主题播客放了一张图,2025年各家大厂发布的模型数量。谷歌没有悬念的拿下第一名,阿里排名第二,但没想到第三居然是Mistral。 ​​​​
#模型时代# Lex Fridman的开年AI主题播客放了一张图,2025年各家大厂发布的模型数量。谷歌没有悬念的拿下第一名,阿里排名第二,但没想到第三居然是Mistral。 ​​​​
#模型时代#Lex Fridman 4小时AI最新播客:两位顶尖研究者眼中的2026年大模型格局

Lex Fridman Podcast第490期请来了两位在开源AI圈极具影响力的人物:Sebastian Raschka是《从零构建大语言模型》作者,Nathan Lambert是Allen Institute for AI的后训练负责人、RLHF领域权威。三人坐在一起,从DeepSeek ​​​​...展开全文c
谁的钱,都是好骗不好赚啊,也就是投资回报率更高。要不然怎么骗人违法,赚钱不违法。//@CC女士不是西西:富人的钱也很好骗,热搜中金牵涉的案例里,受害者估摸着人均金额上亿吧。感兴趣也可以了解一个非常狡诈、专骗傻子的防癌骗局:户均受骗百万,立案后“受害人”非要求撤案--我们还要继续防癌的啊。...展开全文c
刚刚看到一条金句,真的是拜服:穷人的钱好骗不好赚。 ​​​​
就看张小龙和马化腾咋想了,要不要干这一票大的 //@成一虫:回复@高飞:是啊。如果微信集合进元宝,元宝置顶成为微信主界面联系人第一栏,永远在微信界面,有什么问题点开就问。对手必败//@高飞:回复@成一虫:豆包、千问、元宝,有点像当年的微信PK支付宝啊
#AI春节大战开启了吗##模型时代#
刷到这个话题词,那必然是开启了啊。

我有预感,春节,将会成为AI的一个常规宣传窗口,类似于以前电影的春节档。

原因有很多:
...展开全文c

正在加载中,请稍候...