📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
聊天机器人性能下降:数据挑战威胁生成人工智能的未来
本文简要:
·研究表明,随着时间的推移,由于训练数据质量的下降,ChatGPT 等聊天机器人的性能可能会下降。
·机器学习模型容易受到数据中毒和模型崩溃的影响,这会显着降低其输出质量。
·可靠的内容源对于防止聊天机器人性能下降至关重要,这给未来的人工智能开发人员带来了挑战。
现代聊天机器人不断学习,它们的行为总是在变化,但他们的表现可能会下降,也可能会提高。
最近的研究推翻了“学习总是意味着进步”的假设,这对ChatGPT及其同行的未来具有影响。为了确保聊天机器人保持正常运行,人工智能 (AI) 开发人员必须应对新出现的数据挑战。
ChatGPT 随着时间的推移变得越来越笨
最近发表的一项研究表明,随着时间的推移,聊天机器人执行某些任务的能力可能会下降。
为了得出这个结论,研究人员比较了大型语言模型 (LLM) GPT-3.5 和 GPT-4 在 2023 年 3 月和 6 月的输出。在短短三个月内,他们观察到支撑 ChatGPT 的模型发生了显着变化。
例如,今年 3 月份,GPT-4 能够以 97.6% 的准确率识别素数。到 6 月份,其准确率已骤降至 2.4%。
GPT-4(左)和 GPT-3.5(右)在 3 月和 6 月对同一问题的答复(来源:arXiv)
该实验还评估了模型回答敏感问题的速度、生成代码的能力以及视觉推理的能力。在他们测试的所有技能中,团队观察到人工智能输出质量随着时间的推移而恶化。
实时训练数据的挑战
机器学习(ML) 依赖于训练过程,人工智能模型可以通过处理大量信息来模拟人类智能。
例如,为现代聊天机器人提供支持的法学硕士的开发得益于大量在线存储库的可用性。其中包括从维基百科文章编译的数据集,使聊天机器人能够通过消化有史以来最大的人类知识体系来学习。
但现在,ChatGPT 之类的工具已经被广泛发布。开发人员对其不断变化的训练数据的控制力要小得多。
问题是这样的模型也可以“学习”给出错误的答案。如果训练数据的质量下降,他们的输出也会下降。这给动态聊天机器人带来了挑战,因为动态聊天机器人需要稳定地获取网络抓取的内容。
数据中毒可能导致聊天机器人性能下降
由于聊天机器人倾向于依赖从网络上抓取的内容,因此特别容易受到一种称为数据中毒的操纵。
这正是 2016 年微软 Twitter 机器人 Tay 身上发生的事情。推出后不到 24 小时,ChatGPT 的前身就开始发布煽动性和攻击性的推文。微软开发人员很快暂停了它并重新开始。
事实证明,网络流氓从一开始就向机器人发送垃圾邮件,操纵其从与公众互动中学习的能力。在遭到 4channer 军队的辱骂后,Tay 开始鹦鹉学舌地重复他们的仇恨言论也就不足为奇了。
与 Tay 一样,当代聊天机器人是其环境的产物,很容易受到类似的攻击。即使是在法学硕士发展中如此重要的维基百科也可能被用来毒害机器学习训练数据。
然而,故意损坏的数据并不是聊天机器人开发人员需要警惕的唯一错误信息来源。
模型崩溃:聊天机器人的定时炸弹?
随着人工智能工具的日益普及,人工智能生成的内容也在激增。但是,如果越来越多的内容本身是由机器学习创建的,那么接受过网络抓取数据集训练的法学硕士会发生什么呢?
最近一项关于递归对机器学习模型影响的调查就探讨了这个问题。它找到的答案对生成人工智能的未来具有重大影响。
研究人员发现,当人工智能生成的材料用作训练数据时,机器学习模型开始忘记他们之前学到的东西。
他们创造了“模型崩溃”一词,指出不同的人工智能家族在接触人工创建的内容时都倾向于退化。
该团队在一项实验中在图像生成机器学习模型及其输出之间创建了一个反馈循环。
经过观察,他们发现,每次迭代后,模型都会放大自己的错误,并开始忘记最初由人类生成的数据。20 个循环后,输出几乎与原始数据集相似。
图像生成 ML 模型的输出(来源:arXiv)
研究人员在与法学硕士进行类似的场景时观察到了同样的退化趋势。而且,随着每次迭代,诸如重复短语和断断续续的言语等错误发生的频率会更高。
据此,研究推测ChatGPT的未来几代可能面临模型崩溃的风险。如果人工智能生成越来越多的在线内容,聊天机器人和其他生成机器学习模型的性能可能会恶化。
防止聊天机器人性能下降所需的可靠内容
展望未来,可靠的内容源对于防止低质量数据的退化影响将变得越来越重要。那些控制对训练机器学习模型所需内容的访问的公司掌握着进一步创新的关键。
毕竟,拥有数百万用户的科技巨头成为人工智能领域的知名企业并非巧合。
仅在上周,Meta就发布了LLM Llama 2 的最新版本,谷歌为 Bard 推出了新功能,有报道称苹果也准备加入这场竞争。
无论是由数据中毒、模型崩溃的早期迹象还是其他因素驱动,聊天机器人开发人员都不能忽视性能下降的威胁。