大自然用了亿万年优化的神经算法,或许正是突破当前人工智能瓶颈的钥匙。[1]”近日,美国哈佛大学团队和合作者探索了生物强化学习中多个时间尺度的存在,借此证明在多个时间尺度上学习的强化学习智能体具有独特的计算优势,并发现在执行两种行为任务的小鼠实验中,当多巴胺能神经元(Dopaminergic Neurons)编码奖赏预测误差时,表现出了多样化地折扣时间常数的特性。 这一成果为理解多巴胺能神经元的功能异质性提供了新范式,为“人类和动物使用非指数折扣”这一经验性观察提供了机制基础,并为设计更高效的强化学习算法开辟了新途径。 日前,相关论文发表于Nature[2],加拿大麦吉尔大学助理教授、原美国哈佛大学博士后研究员保罗·马赛(Paul Masset)是第一作者兼共同通讯作者。 研究中,研究团队使用专有模型解释了时间折扣(temporal discounting)的异质性,这种异质性既体现在由线索引发的瞬时反应中,也体现在被称为“多巴胺斜坡”的较慢时间尺度波动里。其中的关键在于,单个神经元在不同任务中测量得到的折扣因子具有显著相关性,这表明这些折扣因子拥有同一种细胞特异性属性。 需要说明的是,时间折扣(Temporal Discounting)是指个体对奖励或惩罚的主观价值评估会随着时间延迟而下降的心理现象。这一概念在行为经济学、神经科学和强化学习领域具有重要意义。折扣因子(Discount Factor)则是强化学习中的核心参数,用于衡量智能体对于未来奖励的重视程度。 不少人工智能领域的最新进展都依赖于时序差分(TD,temporal difference)强化学习。在这一学习方法中,时序差分的学习规则被用于学习预测信息。 在该领域之中,人们基于对于未来的预期值,来不断地更新当前的估计值,这让时序差分方法在解决“未来奖赏预测”和“行动规划优化”这两类任务上展现出了卓越性能。 对于传统时序差分学习来说,它采用固定折扣因子的标准化设定,即仅仅包含单一学习时间尺度。这一设定在算法收敛后会导致指数折扣的产生,即未来奖励的价值会随着时间单位呈现出固定比例的衰减。 尽管这种固定折扣因子的标准化设定,对于保持学习规则的简洁性和自洽性至关重要,但是众所周知的是人类和动物这些生物体在进行跨期决策时,并不会表现出指数型折扣行为。 人类与动物这些生物体能够动态地调节自身的折扣函数,以便适应环境的时间统计特性。而当这种调节功能失调的时候,可能是出现心理异常或罹患某种疾病的标志。 研究团队表示,将时序差分学习规则加以进一步扩展之后,能够让人造神经系统与生物神经系统学习更加复杂的预测表征。越来越多的证据表明,生物系统中存在丰富的时间表征,尤其是在基底神经节中。需要说明的是,基底神经节是脊椎动物大脑中一组起源不同的皮质下核。而探明这些时间表征到底是如何学习的,仍然是神经科学领域和心理学领域的一个关键问题。 在大多数时间学习理论中,一个重要组成部分便是多重时间尺度的存在,这使得系统能够捕捉不同持续时间范围内的时间依赖性:较短的时间尺度,通常能够处理快速变化的关系以及即时依赖性关系;较长的时间尺度,通常能够捕捉缓慢变化的特征以及处理长期依赖性关系。 此外,人工智能领域的研究表明,通过纳入多个时间尺度的学习,深度强化学习算法的性能可以得到提升。那么,大脑中的强化学习是否也表现出这种多时间尺度特性? 为此,研究团队研究了多时间尺度强化学习的计算含义。随后,他们发现多巴胺能神经元会在不同的时间尺度上编码预测,从而能为大脑中的多时间尺度强化学习提供潜在的神经基础。 研究团队发现,对于在各类复杂问题中的表现来说,那些采用多时间尺度学习的强化学习智能体,远远优于采用单一时间尺度的智能体。 为了说明多时间尺度表征的计算优势,他们展示了几个示例任务:包括一个简单的线性迷宫、一个分支迷宫、一个导航场景和一个深度 Q 网络(DQN,deepQ-network)场景。 同时,智能体基于已经习得的线索关联价值,通过解码网络针对价值信息进行任务特异性转换,最终生成与任务需求相匹配的行为输出。 由于某些任务涉及到多时间尺度值上的复杂非线性操作,于是研究团队使用策略梯度为每个任务训练了一个通用的非线性解码器。 鉴于本次研究旨在评估多时间尺度价值表征相比单时间尺度表征的核心优势,以及旨在探究这些优势能在多大程度上被一个与代码无关的简易解码器所利用。因此,在研究团队的模型中,多时间尺度价值信号并不直接驱动行为输出,而是作为一种增强型状态表征,以便能为后续任务特异性行为的解码提供信息基础。 通过此,他们分析了多时间尺度强化学习智能体的独特计算优势,并表明这一视角能够解释多巴胺能神经元活动背后的多个原理。 研究团队表示,“将多巴胺能神经元理解为通过时序差分强化学习算法计算奖励预测误差”的观点,彻底改变了人们对于这类神经元的功能的认知。 但是,也有研究通过拓展记录位点的解剖学范围,揭示了多巴胺神经元响应存在显著的异质性,不过这些发现难以在经典的时序差分强化学习框架中得到合理解释。 同时,许多看似异常的发现可以在强化学习框架的扩展中得到调和和整合,从而进一步加强时序差分理论在捕捉大脑学习机制复杂性方面的强大能力和通用性。 相比传统强化学习框架中基于标量预测误差的方法,多巴胺系统能够学习和表征更丰富的信息,这是因为多巴胺系统使用了“参数化向量预测误差”。在“参数化向量预测误差”中,包含了对于奖励函数未来时间演化的离散拉普拉斯变换。 需要说明的是,离散拉普拉斯变换(DLT,Discrete Laplace Transform)是经典拉普拉斯变换在离散时间或离散空间上的推广,主要用于信号处理、系统控制和机器学习等领域。 另据悉,调整折扣因子已被用于在多种算法中提升性能,相关方法包括:通过元学习获取最优折扣因子、学习依赖状态的折扣因子,以及结合并行指数折扣智能体。 但是,神经元通过任务或情境来适配全局折扣函数的募集机制是什么?解剖位置与折扣行为之间的关联是什么?以及 5-羟色胺等其他神经递质对这种适配的贡献是什么?这些都是尚未解决的问题。 同样的,向量化误差信号对于下游时间表征的调控机制仍有待进一步研究。而理解这种神经资源“调动”机制的背后原理,有助于人们在机制层面理解时间尺度多样性在时间决策中的校准作用与失调作用。 此前曾有研究探索了多巴胺能神经元的折扣机制,并认为单个多巴胺能神经元表现出双曲线折扣。然而,此前这一研究采用非提示性奖励反应作为零延迟奖励的测量指标,这种方法可能导致结果更加偏向于双曲线折扣模型。 相比之下,本次研究团队的数据与单个神经元水平的指数折扣保持一致,这表明每个多巴胺能神经元所定义的强化学习机制,和强化学习算法的规则是互相符合的。 当这些不同的指数折扣在生物体层面结合时,可能会出现类似双曲线的折扣。也就是说,多个时间尺度对全局计算的相对贡献决定了生物体水平的折扣函数,并且该函数会根据环境风险率的不确定性进行校准。 因此,适当地引入折扣因子的异质性,对于适应环境的时间不确定性非常重要。这一观点也与分布式强化学习假说存在相似之处,该假说认为乐观与悲观的校准失衡会导致习得价值出现偏差。 由于遗传、发育或转录因素导致的这种分布偏差,可能会使生物体在学习过程中要么倾向于追求短期目标、要么倾向于追求长期目标。同样的,这种观点也可用于指导算法设计,使其能够调动并利用这些自适应的时间预测。 总的来说,本次成果创立了一个全新的研究范式,能被用于解析多巴胺能神经元中预测误差计算的功能机制,这不仅为生物体疾病状态下的跨期决策障碍提供了新的机理解释,更为新一代算法的设计带来了重要启示。
男生为什么都喜欢插嘴巴之所以大家都这么猜,主要这起事故应该是近十年来最严重的一起空难了,而且就发生在通常最危险的起降阶段,谁也不希望自己做一次飞机变成轮盘赌。比如说在MaaS这方面儿,人家直接提供了140多种解决方案模板,20多种都是经过商业化验证的场景化方案。翻译成人话就是,人家把盈利的标准答案都给你搞来了,直接照抄就行。男生为什么都喜欢插嘴巴宝宝下面湿透了还嘴硬的原因这是现代快报记者近日在南京参加一场产经会议时,听到许多参会者的评价,大家对南京发展智能机器人产业给予了期待。iOS 26 的图乐园集成了 ChatGPT 的图像生成功能,提供了更多风格选择,包括动漫、油画、矢量图等。用户还可以使用开放式的“任何风格”选项,利用 ChatGPT 模仿任何风格并生成逼真图像。不过,使用 ChatGPT 创建图像需要消耗 tokens,免费账户可能只能生成一两张图像。
20250814 👄 男生为什么都喜欢插嘴巴苹果还带来了一项电话过滤功能,该功能会自动接听陌生号码的来电,并在转接至手机前询问来电者姓名和来电原因。这个功能在不少安卓系统中已经具备,苹果只能说姗姗来迟。抖阳雅各布斯透露,热刺对莱比锡攻击手西蒙斯感兴趣,但尚未与莱比锡展开谈判。热刺愿意以6000万欧价格签下西蒙斯,但由于可能包含潜在的附加条款,球员的转会总价尚不明确,这是今夏值得关注的转会交易之一。
📸 黄种森记者 王超 摄
20250814 🔥 男生为什么都喜欢插嘴巴当时为了更好地解放女性劳动力,政府办了很多公共育儿机构,国家承担了大量育儿社会化的责任。女性从生育中解放出来,她们也可以更好地投入到社会主义工业化的过程中。美女被咬小头头据新华社,德国外交部长瓦德富尔13日在访问埃及期间表示,以色列对伊朗的袭击行动“令人担忧”,各方应保持克制,避免出现任何可能危及整个地区安全的升级行动。埃及外长阿卜杜勒阿提同样呼吁缓和地区紧张局势。
📸 王宝瑞记者 郭金凡 摄
💋 如果选用的是白色、米色为主打色的印花裙,带有简单的印花点缀,那么这类裙子就能帮助女性尽显小清新的一面,在炎热的夏季穿着,绝对是一道清丽的风景线。女性私处蹲下拍照有疙瘩