🔥 Gate 动态大使专属发帖福利任务第三期报名正式开启!🏆 第二期获奖名单将于6月3日公布!
👉️ 6月3日 — 6月8日期间每日发帖,根据帖子内容评级瓜分 $300奖池
报名即可参与:https://www.gate.com/zh/questionnaire/6761
报名时间:6月3日10:00 - 6月8日 24:00 UTC+8
🎁 奖励详情:
一、S级周度排名奖
S级:每周7日均完成发帖且整体帖子内容质量分数>90分可获S级,挑选2名优质内容大使每人$50手续费返现券。
二、A/B 等级瓜分奖
根据各位动态大使发帖数量及帖子内容质量获评等级,按评定等级获奖:
A级:每周至少5日完成发帖且整体帖子内容质量90>分数>80可获A级,从A级用户中选出5名大使每人$20手续费返现券
B级:每周至少3日完成发帖且整体帖子内容质量80>分数>60可获B级,从B级用户中选出10名大使每人$10手续费返现券
📍 活动规则:
1.每周至少3日完成发帖才有机会获奖。
2.根据发帖天数和整体发帖内容质量分数给予等级判定,分为S/A/B等级,在各等级下选择幸运大使获奖。
💡 帖子评分标准:
1.每帖不少于30字。
2.内容需原创、有独立见解,具备深度和逻辑性。
3.鼓励发布市场行情、交易知识、币种研究等主题,使用图例或视频可提高评分。
4.禁止发布FUD、抄袭或诋毁内容,违规将取
思想克隆!前OpenAI研究员让AI模仿人类思维,现实版「机械姬」降临
**来源:**新智元
导读:我们离「机械姬」还有多远?前OpenAI研究员让AI克隆思想,模仿人类思维,边思考边行动。
当AI有了自主意识会如何?
「机械姬」中,艾娃利用人类的同情心,以欺骗的方式诱导人类获得自由,最终杀了自己的「造物主」Nathan。
并表示,「很好的电影,但我不明白为什么每个人都让我看它。」
但我们离「机械姬」上映的那一幕还很遥远,GPT-5可能在秘密研发中,让AI有智慧仍是科学家集洪荒之力最想做的事。
最新论文中,他们研究了智能体的「思想克隆」(TC)。
这里,人工智能通过模仿人类,学会像人类一样「思考」和「行动」。
当AI有了思想
要知道,语言是区分人类和其他生物的关键。
因此,研究人员设想,如果智能体能够理解语言,便会有很多的好处。
尽管有这些益处,但AI智能体却很少思考,至少不是用人类语言去思考。
虽然神经网络可以被认为是思考的内部向量激活,但许多人假设,以离散的、符号的语言进行思考具有特定的好处。
这意味着能够用语言思考的智能体,可能比不用语言的智能体学习得更快,表现、概括得更好。
Jeff Clune和Shengran Hu认为实现这一目标的最有效的方法是「让AI模仿人类思考」。
因此,一个有效的方法是,让智能体从人类在行动时把想法说出的演示中进行学习。
这一方法不同于现有的用预训练LLMs进行规划的工作,因为这些LLMs没有受过人类在行动时说出想法的数据进行训练,即「思想数据」。
至于「思想数据」的来源,研究者选取了YouTube视频和文字录音,有大约数百万小时,包含了人们行动、计划、决定和重新规划背后的思想。
论文中,研究人员提出了一个新颖的模仿学习框架「思想克隆」。其中,智能体不仅学习人类的示范行为,如行为克隆,而且学习人类行动同时的思考方式。
在思想克隆训练框架中,智能体学习在每个时间步中产生思想,并随后根据这些思想调整行动。
在每个时间步中,智能体接收一个观察、一个任务和一段思维历史作为输入。上层组件负责思想生成,下层组件产生以这些思想为条件执行操作。
然后,将生成的想法和行动与演示数据集中的基本事实进行比较,以计算损失。
虽然对于上层和下层组件的条件可能有不同的选择,但在这项工作中,对于思维数据集中长度t的特定轨迹,研究人员将其最小化:
而下层组件可以从头开始训练,或者从目标域中现有的语言条件控制器中改编。
论文中,研究人员基于BabyAI 1.1模型体系结构的两个组件进行了研究。
该模型利用内存增强架构LSTM来解决部分可观测性的挑战。此外,它还采用FiLM进行模态融合,有效地结合了视觉和文本输入。
这里,作者特别强调,本文中的所有模型都是从头开始训练的,但在复杂领域中还是使用预训练模型更强。
如下图,是BabyAI环境示例,左图中包含了各种颜色的物品(球、钥匙、盒子、门)。
智能体可以看到它前面的7×7的网格单元,这些网格单元是被墙壁和关闭的门阻挡。
「思想克隆」智能体的任务是,到达紫色的盒子(高亮显示) ,并开始规划了路线。
这一过程,就特别像艾娃如何一步一步策划,让人类最终相信并帮助自己,逃出囚禁已久的玻璃牢笼。
实验结果
研究结果表明,「思想克隆」优于行为克隆。
此外,在零样本和微调设置中,思想克隆在分布外的任务中比行为克隆优势更大。
当检测到危险的想法时,就能终止智能体。测试中,「预犯罪干预」的效果近乎完美,显示了它在人工智能安全方面的潜力。
「思想克隆」不仅使人工智能更聪明,而且更安全,更容易理解。
因为我们可以观察到智能体的思想:(1)可以更容易地诊断出事情出错的原因,(2)通过纠正智能体的思想来引导它,(3)或者阻止它做所计划的不安全的事情。
作者介绍
Jeff Clune
目前,Jeff Clune是不列颠哥伦比亚大学计算机科学副教授。他主要研究深度学习,包括深度强化学习。
此前,他还是OpenAI研究团队负责人,Uber人工智能实验室的高级研究经理和创始成员。
目前是不列颠哥伦比亚大学的博士生,对深度学习,人工智能生成算法感兴趣。