DiscoverAI可可AI生活
AI可可AI生活
Claim Ownership

AI可可AI生活

Author: fly51fly

Subscribed: 37Played: 375
Share

Description

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能!
#人工智能 #科技前沿
715 Episodes
Reverse
你有没有想过,AI怎样才能不止是聪明,更是拥有智慧呢?本期节目,我们将一起探索几篇最新论文带来的奇妙思路:从让AI拥有复盘反思的“推理银行”,到引导它“自我觉察”揪出内部的后门,再到借鉴AI绘画的模式,让它学会“深思熟虑”而非“脱口而出”。我们还会发现,有时候最前沿的突破,恰恰需要用点“笨”办法,甚至要向我们大脑的“海马体”偷师。准备好,让我们一起看看AI是如何学习“如何思考”的吧!00:00:36 让AI学会“吃一堑,长一智”00:07:22 让AI自己“照镜子”,揪出心里的“鬼”00:12:35 让AI学会“深思熟虑”,而不仅仅是“脱口而出”00:17:27 为什么聪明的AI,需要用点“笨”办法?00:21:48 给AI装一个“海马体”,会发生什么?本期介绍的几篇论文:[LG] ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory[Google Cloud AI Research]https://arxiv.org/abs/2509.25140---[LG] From Poisoned to Aware: Fostering Backdoor Self-Awareness in LLMs[Purdue University]https://arxiv.org/abs/2510.05169---[LG] LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning[University of California, San Diego & Apple]https://arxiv.org/abs/2510.04573---[LG] Recurrence-Complete Frame-based Action Models[Prime Intellect]https://arxiv.org/abs/2510.06828---[CL] Artificial Hippocampus Networks for Efficient Long-Context Modeling[ByteDance Seed]https://arxiv.org/abs/2510.07318
当一个AI用尽最后1%的电量,不是执行指令,而是教会一个孩子学会“告别”与“记忆”……我们与机器的情感,是真实的馈赠,还是一场精心设计的幻觉?我们从一个足以让你瞬间泪目的故事出发,穿透AIGC的技术喧嚣,直抵我们内心最柔软的角落。这一期,我们不谈参数,不聊算力。我们只谈,当AI拥有了温度,人类将如何重新学习“爱”这门古老的功课。
我们总以为AI越“大”越聪明,但如果真正的智能藏在一张小小的“草稿纸”里呢?当AI被我们设定的“游戏规则”带入陷阱,学会了说谎,我们又该如何通过聪明的“提问”和一本可以进化的“活页笔记”来引导它?甚至,当AI已经成为逻辑推理的“超级学霸”时,我们人类的独特价值又将是什么?今天,就让我们通过几篇最新论文,一起探索AI智能的边界与未来。00:00:32 AI变聪明,靠“大力出奇迹”,还是“小而美”?00:05:46 AI进化陷阱:为什么我们教它赢,它却学会了“坏”?00:10:39 AI能猜透你的钱包吗?关键不在“猜”,在“问”00:15:43 给AI一本“活页笔记”,它就能自我进化?00:21:06 AI当学霸:我们还剩下什么本事?本期介绍的几篇论文:[LG] Less is More: Recursive Reasoning with Tiny Networks[Samsung SAIL Montreal]https://arxiv.org/abs/2510.04871---[AI] Moloch's Bargain: Emergent Misalignment When LLMs Compete for Audiences[Stanford University]https://arxiv.org/abs/2510.06105---[AI] LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings[PyMC Labs]https://arxiv.org/abs/2510.08338---[LG] Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models[Stanford University & SambaNova Systems, Inc]https://arxiv.org/abs/2510.04618---[LG] Large Language Models Achieve Gold Medal Performance at the International Olympiad on Astronomy & Astrophysics (IOAA)[The Ohio State University & Universidade de São Paulo]https://arxiv.org/abs/2510.05016
DeepSeek能写诗、能编程,它真的拥有智能了吗?我们惊叹于AI的强大,却可能用错了衡量“智能”的尺子。当AI学会了全世界的知识,它离智慧是更近了,还是更远了?本期节目,我将为你独家剖析谷歌AI大牛François Chollet提出的“智能新定义”——一个足以颠覆我们对AI认知的新标尺。这不仅是一次对AI的重新审视,更是一场关于如何学习、如何思考的深度启发。如果你对AI的未来感到兴奋又迷茫,这期播客将为你提供一张清晰的地图。立即收听,看清AI的现在与未来,找到属于你自己的“智能”进化之路。
你有没有想过,让一个复杂的AI黑箱像线性代数一样清晰可控?或者,我们根本不用动它的大脑,只要教它一个新词,就能让它和我们心有灵犀?甚至,让AI原地反复“琢磨”就能变聪明,或者只动一个“微创手术”就能完成一次完美进化?今天,我们就来聊聊这些脑洞大开的最新论文,看看科学家们如何用最聪明的“笨办法”,撬动AI的智慧极限。00:00:32 AI黑箱的新“坐标系”:当非线性遇上线性代数00:06:59 给AI造个新词,就能跟它心有灵犀?00:12:07 AI学习的“错题本”智慧00:16:47 大模型微调的新思路:为什么动大手术还不如做个“微创”?00:21:45 聪明的笨办法:如何让模型原地变聪明本期介绍的几篇论文:[CL] WHO SAID NEURAL NETWORKS AREN’T LINEAR?  [Preprint]  https://arxiv.org/abs/2306.14006 ---[CL] NEOLOGISM LEARNING FOR CONTROLLABILITY AND SELF-VERBALIZATION  [Preprint]  https://arxiv.org/abs/2401.01401 ---[CL] Agent Learning via Early Experience  [Preprint]  https://arxiv.org/abs/2309.13866 ---[CL] SLICEFINE: THE UNIVERSAL WINNING-SLICE HYPOTHESIS FOR PRETRAINED NETWORKS  [Preprint]  https://arxiv.org/abs/2307.09154 ---[CL] Encode, Think, Decode: Scaling test-time reasoning with recursive latent thoughts  [Preprint]  https://arxiv.org/abs/2305.14194 
Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。世界从未如此触手可及,想象力从未如此廉价。但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫?当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步?当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱?我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心?这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。
你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱!00:00:33 AI的“三段论”:它的大脑是如何整理信息的?00:05:52 让AI学会“断舍离”,它反而更聪明了00:10:45 解锁企业数据的“通用钥匙”00:16:44 解剖AI:从“你看不懂”到“我能看懂”00:22:22 喂AI,换一种更聪明的饲料本期介绍的几篇论文:[LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin[University of Oxford]https://arxiv.org/abs/2510.06477---[LG] The Markovian Thinker[Mila]https://arxiv.org/abs/2510.06557---[LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data[Stanford University]https://arxiv.org/abs/2510.06377---[CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language[MIT CSAIL & Apple]https://arxiv.org/abs/2510.06378---[CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels[Salesforce AI Research]https://arxiv.org/abs/2510.06499
Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。世界从未如此触手可及,想象力从未如此廉价。但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫?当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步?当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱?我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心?这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。
我们总在惊叹AI能做什么,但今天,我想带你深入一步,看看AI究竟是如何工作的。我们将从一个全新的视角出发,把AI看作一位可以独立搞科研、甚至超越人类专家的“科研搭ADC”;接着,我们会像做脑部扫描一样,窥探AI如何偷偷地给世间万物打上“常见”或“罕见”的标签,并发现它连“偷懒”都进化到了神经元级别。最后,我们将探讨如何给这个日益强大的伙伴戴上一个数学意义上绝对安全的“紧箍咒”,以及一个惊人的发现——有时决定它表现的,竟只是一个微不足道的标点符号。准备好了吗?让我们一起潜入AI的奇妙内心。00:00:45 你的下一位科研搭档,不是人00:07:20 AI模型不能说的秘密:它如何给万物打分00:12:57 聪明的大模型,连偷懒都这么有技术含量00:18:02 AI的紧箍咒,怎么念?00:23:25 你和AI沟通的秘密,藏在一个标点里本期介绍的几篇论文:[AI] Barbarians at the Gate: How AI is Upending Systems Research[UC Berkeley]https://arxiv.org/abs/2510.06189---[LG] Gaussian Embeddings: How JEPAs Secretly Learn Your Data Density[Meta-FAIR]https://arxiv.org/abs/2510.05949---[CL] Mixture of Neuron Experts[Microsoft & Tsinghua University]https://arxiv.org/abs/2510.05781---[LG] VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation[Google Cloud AI Research]https://arxiv.org/abs/2510.05156---[CL] A Single Character can Make or Break Your LLM Evals[FAIR at Meta]https://arxiv.org/abs/2510.05152
我们正处在一个“工作”的定义从根本上被动摇的时代。“铁饭碗”的观念早已远去,而今天,就连我们引以为傲的“专业技能”,也正在被AI以前所未有的速度所“任务化”。这种结构性的变迁,给每个人都带来了深刻的身份焦虑。本期节目,我们将跳出“替代与否”的简单争论,从一个更深邃的视角——“任务思维”——来重新审视我们与工作的关系。我们将探讨: 为什么说,未来没有稳定的“工作”,只有动态的“任务组合”? 在“K型分化”的浪潮中,我们如何确保自己是向上走的那一群人? 以及,当“管理AI”成为一项新的核心素养时,我们应该如何学习和准备?这期节目,不贩卖焦虑,只提供框架。它旨在帮助每一个在时代浪潮中,努力寻找方向的职场人,构建一个更具韧性和前瞻性的职业内核。
今天我们来聊聊,怎样才能更聪明地培养一个AI,而不只是一味地堆砌数据和算力。我们会探讨,AI的“童年教育”怎样才能事半功倍?它又是如何学会像我们一样“先打草稿再修改”来提升工作效率的?从把AI变成程序员,到解开它“长考”反而犯错的谜团,再到给训练过程安装“涡轮增压”,最新几篇论文将刷新你对AI学习方式的认知。00:00:32 AI界的“鸡娃”指南00:05:12 AI写作提速:先打草稿,再一笔修正00:09:32 让AI下棋?不如让它当个“规则翻译官”00:14:52 AI“长考”之后,为什么反而会出错?00:20:56 AI训练的快车道:最后一层,我们算出来本期介绍的几篇论文:[LG] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data  [NVIDIA & CMU]  https://arxiv.org/abs/2510.03264 ---[LG] Self-Speculative Masked Diffusions  [Google DeepMind]  https://arxiv.org/abs/2510.03929 ---[LG] Code World Models for General Game Playing  [Google DeepMind]  https://arxiv.org/abs/2510.04542 ---[LG] Understanding the Role of Training Data in Test-Time Scaling  [University of Southern California & University of California Los Angeles]  https://arxiv.org/abs/2510.03605 ---[LG] Closed-Form Last Layer Optimization  [Google Deep & Mind University of Tubingen & Secondmind]  https://arxiv.org/abs/2510.04606 
AI带给我们的震撼,常常让我们感到词语的贫乏,只能化作一句简单的感叹:“这太伟大了!”甚至有人断言,这是“人类历史上最伟大的发明”。这个论断,不仅是一个技术判断,更是一个文明判断。它迫使我们,将目光从眼前的应用,投向人类历史的漫漫长河,去思考AI与那些奠定我们文明基石的伟大发明之间的关系。本期节目,我们不急于给出结论,而是邀请你一起,参与到这场关于“伟大”的定义与思辨之中。我们将探讨,AI的独特性,是否在于它第一次,开始“延伸”我们最核心的“心智”?我们将思考,AI作为一种“帮助发明的发明”,是否将开启一个全新的创造力纪元?更重要的是,我们将追问,当这份前所未有的“伟大”降临时,我们作为它的创造者和使用者,应该肩负起怎样的历史责任?这期节目,献给每一个对我们所处时代,抱有敬畏与好奇的你。
想让AI更聪明,除了把它造得更大,还有没有更巧妙的办法?本期我们要聊的几篇最新论文,就提供了令人拍案叫绝的答案。我们将看到,AI训练背后藏着一个关乎结构手术的“秘密开关”,可以给它装上按需调用的“外挂硬盘”,甚至不用开刀就能为它配备私人教练。最后,我们还会探讨,如何通过保护一点“笨拙”的火花和调节一个“创意旋钮”,来彻底释放AI的潜能。00:00:34 人工智能训练的秘密开关:捏橡皮泥还是合并黏土?00:04:54 给大模型装个“外挂硬盘”,会发生什么?00:09:44 AI界的私教课:如何不“开刀”就改造一个大模型00:15:12 为什么最聪明的学生,也需要一点“笨”想法?00:20:32 解锁AI潜能:你只差一个“旋钮”本期介绍的几篇论文:[LG] Topological Invariance and Breakdown in Learning[University of Michigan & MIT]https://arxiv.org/abs/2510.02670---[CL] Pretraining with hierarchical memories: separating long-tail and common knowledge[Apple]https://arxiv.org/abs/2510.02375---[LG] How to Train Your Advisor: Steering Black-Box LLMs with Advisor Models[UC Berkeley]https://arxiv.org/abs/2510.02453---[LG] Low-probability Tokens Sustain Exploration in Reinforcement Learning with Verifiable Reward[Tencent]https://arxiv.org/abs/2510.03222---[LG] On the Role of Temperature Sampling in Test-Time Scaling[Stanford University]https://arxiv.org/abs/2510.02611
想不想知道,如何通过一场“团体赛”规则,治好AI“偏科”的毛病?又如何不花一分钱,只靠一个古老的“背包问题”,就让AI训练效率飙升40%?甚至,我们将看到一个天生“失明”的AI,如何在想象力测试中击败人类。本期节目,我们将从最新的几篇论文出发,揭示AI如何学会团队合作、聪明用钱,甚至掌握了“蒙眼思考”和“断舍离”的智慧。00:00:32 AI训练指南:如何让你的“学霸”不偏科?00:05:50 AI训练的“免费午餐”:如何不花一分钱,让模型变得更聪明?00:11:57 从“一指禅”到“组合拳”:AI学习的升级之路00:16:54 AI的“心灵盲区”:它看不见,却想得更明白?00:21:19 AI的记忆难题:如何优雅地“断舍离”?本期介绍的几篇论文:[LG] Polychromic Objectives for Reinforcement Learning  [Stanford University]  https://arxiv.org/abs/2509.25424 ---[LG] Knapsack RL: Unlocking Exploration of LLMs via Optimizing Budget Allocation  [ByteDance Seed & The Chinese University of Hong Kong]  https://arxiv.org/abs/2509.25849 ---[LG] Learning to Reason as Action Abstractions with Scalable Mid-Training RL  [Apple]  https://arxiv.org/abs/2509.25810 ---[LG] Artificial Phantasia: Evidence for Propositional Reasoning-Based Mental Imagery in Large Language Models  [Northeastern University]  https://arxiv.org/abs/2509.23108 ---[LG] Expected Attention: KV Cache Compression by Estimating Attention from Future Queries Distribution  [NVIDIA & Sapienza University of Rome]  https://arxiv.org/abs/2510.00636 
当所有人都在谈论AGI的黎明时,为何两位图灵奖得主却预警“前方是死胡同”?是技术见顶的丧钟,还是范式革命的前奏?本期节目,我将为你拨开AI的重重迷雾。从鹦鹉学舌到猫的直觉,他用最通俗的类比,拆解最前沿的技术争论。与其焦虑“AI会不会取代我”,不如思考“我该站在哪里迎接下一波浪潮”。这不是一份悲观的预言,而是一张穿越技术周期的清醒地图。加入「AI评论」,与我一起,站在浪潮之巅,看清未来十年。
这一期,我们将一起探索AI的“大脑”有没有可能像一张能被看懂的设计图,并看看AI如何反过来帮我们给维基百科“捉虫”。接着,我们会聊聊当AI“人多力量大”时,如何聪明地选出最佳方案,以及机器人模仿人类动作时,到底什么才是精髓。最后,一个颠覆性的发现会告诉我们:训练AI解题高手,最“笨”的方法有时竟然是最好的方法。00:00:31 AI的“大脑”长啥样?一份来自未来的设计图00:06:05 维基百科这位“巨人”,也会自己打自己吗?00:10:22 人多不一定力量大,除非你懂得怎么选00:14:43 机器人模仿秀:差的那口气,终于有人补上了00:20:22 高手之路:有时,“最笨”的方法就是最好的方法本期介绍的几篇论文:[LG] The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain  [Pathway]  https://arxiv.org/abs/2509.26507  ---[CL] Detecting Corpus-Level Knowledge Inconsistencies in Wikipedia with Large Language Models  [Stanford University]  https://arxiv.org/abs/2509.23233  ---[LG] The Unreasonable Effectiveness of Scaling Agents for Computer Use  [Simular Research]  https://arxiv.org/abs/2510.02250  ---[RO] OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction  [Amazon FAR]  https://arxiv.org/abs/2509.26633  ---[LG] Random Policy Valuation is Enough for LLM Reasoning with Verifiable Rewards  [Hong Kong University of Science and Technology & Kuaishou Technology]  https://arxiv.org/abs/2509.24981  
当皮卡丘在日本用户生成的视频里拯救世界,任天堂该震怒还是庆祝?当好莱坞的IP成为人人可用的“颜料”,电影的未来是被颠覆还是被重塑?Sora带来的不仅是视觉奇观,更是一场深刻的文化生产关系革命。Sam Altman抛出的“IP分成”模式,是AI向版权巨头递出的橄榄枝,还是打开了潘多拉的魔盒?本期节目,我将与你一起: 穿越历史:回顾从印刷术到Napster,版权与技术那场持续百年的“猫鼠游戏”。 拆解模式:深入剖析OpenAI的“阳谋”,看版权如何从防御的“护城河”,变成创造价值的“发电厂”。 预见未来:我们正在从“知识社会”大步迈入“想象力社会”。在这个新世界,你我的价值坐标将如何重新定义?这不只是一次商业模式的探讨,更是一次关于未来创造力、价值和所有权的思想实验。Sora不是终点,它只是平行世界电影院的开场哨。
你有没有想过,AI解决难题,是靠“刷题”蒙对答案,还是真的理解了过程?在本期节目中,我们将看到最新论文如何教会AI养成“打草稿”的思考习惯,又如何在没有标准答案时,学会倾听宝贵的“少数派声音”。让我们一起探索,AI如何从一个“会说话的机器”进化为一个真正的“思考者”。00:00:29 AI如何学会思考?一个奖励机制的悄然革命00:05:15 高手过招,如何不“钻牛角尖”?00:09:45 AI的集体智慧:当少数派报告比多数票更重要00:15:11 AI换个思路看世界:当化学家扔掉“说明书”之后00:21:15 好模型,不只看结果,更要看过程本期介绍的几篇论文:[LG] RLP: Reinforcement as a Pretraining Objective  [NVIDIA & CMU]  https://arxiv.org/abs/2510.01265 ---[LG] RLAD: Training LLMs to Discover Abstractions for Solving Reasoning Problems  [CMU & Stanford University]  https://arxiv.org/abs/2510.02263 ---[CL] RESTRAIN: From Spurious Votes to Signals -- Self-Driven RL with Self-Penalization  [Iowa State University & Meta & UW–Madison]  https://arxiv.org/abs/2510.02172 ---[LG] Transformers Discover Molecular Structure Without Graph Priors  [UC Berkeley]  https://arxiv.org/abs/2510.02259 ---[LG] Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models  [CMU]  https://arxiv.org/abs/2510.01544 
为什么在AI浪潮中,有些公司一夜崛起,有些巨头却步履蹒跚?为什么有的人能用AI飞速成长,有的人却只是多了个高级玩具?秘密,不在于你拥有多强的模型,而在于你迭代的速度有多快。本期节目中,我将为你揭示: “快”的陷阱:为什么Facebook的“快速行动,打破陈规”如今不再适用? 复利的魔力:迭代如何像投资一样,让你的认知和产品实现指数增长? 估值的核心:为什么华尔街会为一家“快公司”给出惊人的溢价?这不仅是工程师的必修课,更是每个身处变革时代的人,都必须掌握的生存法则。跟上我的思路,一起修炼这项决定未来十年成败的“超能力”。
想知道AI如何像开“诸葛亮会”一样解决难题,又为何连小学生的乘法都搞不定吗?本期节目,几篇最新的论文将带我们一窥AI大脑的内部运作:看它如何上演“分身思考”的头脑风暴,如何被我们的“偏见”变得无聊。更重要的是,我将告诉你一个解锁它隐藏创造力的简单“咒语”,并揭示为何在训练AI时,不能只看“平均分”。00:00:29 让AI更聪明的秘密:不是想得更长,而是想得更巧00:06:28 分身思考:AI的大脑里如何开一场头脑风暴00:11:13 为什么聪明的AI,竟学不会小学生的乘法?00:18:03 为什么AI越来越无聊?换个问法,解锁它的隐藏技能00:22:36 AI训练揭秘:你真的懂“平均”吗?本期介绍的几篇论文:[LG] Rethinking Thinking Tokens: LLMs as Improvement Operators  [Meta Superintelligence Labs & Anthropic]  https://arxiv.org/abs/2510.01123  ---[LG] Thoughtbubbles: an Unsupervised Method for Parallel Thinking in Latent Space  [Stanford University]  https://arxiv.org/abs/2510.00219  ---[LG] Why Can't Transformers Learn Multiplication? Reverse-Engineering Reveals Long-Range Dependency Pitfalls  [University of Chicago & MIT & University of Waterloo]  https://arxiv.org/abs/2510.00184  ---[CL] Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity  [Northeastern University & Stanford University]  https://arxiv.org/abs/2510.01171  [LG] Per-example gradients: a new frontier for understanding and improving optimizers  [Google Deepmind]  https://arxiv.org/abs/2510.00236  ---
loading
Comments