📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
据站长之家 10 月 27 日报道,一篇由杰弗里・辛顿、尤瓦尔・赫拉利等联合撰写的论文呼吁全球政府采取具体监管措施,以规范 AI 的发展和应用。这些专家包括三位图灵奖得主、一位诺贝尔奖得主以及众多 AI 学者,他们敦促各国政府采取紧急行动,提出了“三分之一投资规则”,要求主要从事 AI 系统开发的组织至少投入三分之一的资源来确保 AI 的安全和伦理使用,这一承诺与他们在能力开发上的投资水平相当。 AI 科学家杰弗里・辛顿表示:“有些公司计划在 18 个月内用比今天最先进技术多 100 倍的计算来训练模型。没有人知道它们将有多强大。而且对于它们将能够做什么基本上没有监管。” 在伦敦举行首届国际 AI 安全峰会之前,专家们呼吁政府对 AI 风险采取民主监管,避免信息误导、社会不公和权力集中等问题。专家认为高级 AI 系统的能力增强必须伴随安全措施,与快速发展的技术同步。