💙 Gate广场 #Gate品牌蓝创作挑战# 💙
用Gate品牌蓝,描绘你的无限可能!
📅 活动时间
2025年8月11日 — 8月20日
🎯 活动玩法
1. 在 Gate广场 发布原创内容(图片 / 视频 / 手绘 / 数字创作等),需包含 Gate品牌蓝 或 Gate Logo 元素。
2. 帖子标题或正文必须包含标签: #Gate品牌蓝创作挑战# 。
3. 内容中需附上一句对Gate的祝福或寄语(例如:“祝Gate交易所越办越好,蓝色永恒!”)。
4. 内容需为原创且符合社区规范,禁止抄袭或搬运。
🎁 奖励设置
一等奖(1名):Gate × Redbull 联名赛车拼装套装
二等奖(3名):Gate品牌卫衣
三等奖(5名):Gate品牌足球
备注:若无法邮寄,将统一替换为合约体验券:一等奖 $200、二等奖 $100、三等奖 $50。
🏆 评选规则
官方将综合以下维度评分:
创意表现(40%):主题契合度、创意独特性
内容质量(30%):画面精美度、叙述完整性
社区互动度(30%):点赞、评论及转发等数据
d/acc一周年:去中心化防御加速的进展与挑战
d/acc:一年后的回顾与展望
去年,我写了一篇关于技术乐观主义的文章,阐述了我对技术的热情以及它可能带来的巨大效益,同时也表达了对一些特定问题的审慎态度,尤其是超级智能AI可能带来的风险。
文章的核心观点是倡导一种去中心化、民主且差异化的防御性加速理念。既要加速技术发展,又要有针对性地关注那些能提升防御能力而非破坏能力的技术,并致力于分散权力,避免权力集中在少数精英手中。
一年过去了,这些想法有了显著的发展和成熟。我在"80,000小时"平台上分享了这些想法,收到了很多反馈,大多是积极的,当然也有一些批评。
这项工作持续推进并取得了实质性成果:可验证开源疫苗领域有了进展;人们对健康室内空气价值的认知不断深化;"社区笔记"持续发挥积极作用;预测市场作为信息工具迎来了突破之年;零知识证明在政府身份识别和社交媒体领域得到应用;开源成像工具在医学和脑机接口领域获得应用,等等。
去年秋季,我们举办了首个重要的d/acc活动:"d/acc发现日"。活动汇聚了来自d/acc各个领域(生物、物理、网络、信息防御和神经技术)的演讲者。长期致力于这些技术的人们更好地了解了彼此的工作,外部人士也越来越意识到这一更宏大的愿景:推动以太坊和加密货币发展的价值观可以拓展到更广阔的世界。
d/acc的内涵与外延
d/acc的核心思想简洁明了:去中心化、民主且差异化的防御性加速。构建能够促使攻防平衡向防御倾斜的技术,并且在实施过程中不依赖于将更多权力交予中央权威机构。这两个方面之间存在着内在的紧密联系:任何一种去中心化、民主或自由的政治结构,在防御易于实施时往往能够蓬勃发展,而在防御面临重重困难时则会遭遇严峻挑战。
理解尝试同时实现去中心化、防御性和加速性的重要意义的一种方式,是将其与放弃这三个方面中的任意一个所产生的理念进行对比。
去中心化加速,但忽视"差异化防御"部分,这类似于成为一名有效加速主义者(e/acc),但同时追求去中心化。这种方式或许能够避免特定群体对全球人类实施独裁统治的风险,但它未能解决潜在的结构性问题:在一个有利于进攻的环境中,始终存在着灾难降临的持续风险,或者有人会将自己定位为保护者,并永久性地占据统治地位。
差异化防御加速,但忽略"去中心化和民主",为了实现安全目标而接受集中控制,这对一部分人始终具有一定的吸引力。然而,集中控制存在一个程度的问题。一种通常被忽视但仍然有害的相对温和的集中控制形式,体现在生物技术领域对公众监督的抵制,以及允许这种抵制行为不受挑战的闭源规范。
去中心化防御,但排斥加速,这本质上是试图减缓技术进步或推动经济衰退。这种策略面临着双重挑战。首先,总体而言,技术和经济增长对人类而言是极为有益的,任何对其的延迟都会带来难以估量的代价。其次,在一个非极权主义的世界中,停滞不前是不稳定的:那些"作弊"最多,能够找到看似合理的方式继续推进发展的人或群体将会占据优势。
通过d/acc,我们致力于实现以下目标:
思考d/acc的另一种视角是回归到21世纪00年代末欧洲海盗党运动的一个框架:赋权。我们的目标是构建一个能够保留人类能动性的世界,实现消极自由,即避免他人对我们塑造自身命运的能力进行积极干预,同时实现积极自由,即确保我们拥有知识和资源去践行这一能力。
第三维度:生存与繁荣的协同发展
在去年的文章中,d/acc特别聚焦于防御性技术:物理防御、生物防御、网络防御和信息防御。然而,单纯的去中心化防御并不足以构建一个伟大的世界:我们还需要一个具有前瞻性的积极愿景,明确人类在获得新的去中心化和安全性之后能够实现何种目标。
在各个领域中存在着一个一致的模式,即那些能够帮助我们在某一领域"生存"的科学、思想和工具,与能够助力我们"繁荣"的科学、思想和工具密切相关。以下是一些具体例子:
除此之外,不同学科领域之间还存在着重要的相互依存关系:
难题:AI安全、紧迫时间线与监管困境
去年我的文章所收到的最具说服力的反对观点来自AI安全社区。其论点为:"虽然我们有半个世纪的时间来发展强AI,我们可以集中精力构建所有这些有益的事物。但实际上,看起来我们可能仅有三年时间发展到通用AI,再过三年发展到超级智能。因此,如果我们不想让世界陷入毁灭或以其他方式陷入不可逆转的困境,我们不能仅仅加速有益技术的发展,还必须减缓有害技术的发展,这意味着需要通过可能会触怒权势阶层的强有力监管措施。"
对新监管持谨慎态度的理由:
去年,主要的AI监管提案是加利福尼亚州的SB-1047法案。SB-1047要求最强大模型的开发者在发布前采取一系列安全测试措施。此外,如果AI模型开发者未能足够谨慎,将对其追究责任。许多批评者认为该法案"对开源构成威胁";我对此持有异议,因为成本阈值意味着它仅影响最强大的模型。然而,回顾过去,我认为该法案存在一个更为严重的问题:如同大多数监管措施一样,它过度适应了当前的情况。
最有可能对AI超级智能毁灭场景负责的行为者:
实际上,最有可能对AI超级智能毁灭场景负责的行为者是军队。正如我们在过去半个世纪的生物安全中所目睹的那样,军队愿意采取一些可怕的行动,而且他们极易犯错。如今,AI在军事领域的应用正在迅速发展。并且,任何政府通过的安全监管措施,默认情况下都会豁免本国军队以及与军队密切合作的公司。
应对策略:
尽管如此,这些论点并非让我们束手无策的理由。相反,我们可以将它们作为指引,尝试制定引发这些担忧最少的规则。
策略1:责任
如果某人的行为以某种方式造成了可依法追究的损害,他们可能会被起诉。这并不能解决来自军队和其他"凌驾于法律之上"的行为者所带来的风险问题,但这是一种非常通用的方法,可避免过度拟合,正因如此,倾向于自由意志主义的经济学家通常支持这种做法。
到目前为止所考虑的主要责任目标如下:
将责任归于用户似乎最符合激励机制。虽然模型的开发方式与最终使用方式之间的联系往往不明确,但用户决定了AI的具体使用方式。对用户追究责任会产生一种强大的压力,促使人们以我认为正确的方式使用AI:专注于为人类思维构建机械套装,而非创造新的自我维持的智能生命形式。
策略2:工业规模硬件上的全球"软暂停"按钮
如果我确信我们需要比责任规则更"强有力"的措施,我会选择这个策略。目标是在关键时期具备将全球可用计算能力降低约90%-99%的能力,持续1-2年,为人类争取更多准备时间。1-2年的价值不应被高估:一年的"战时模式"在自满的情况下很容易抵得上一百年的常规工作。
一种更先进的方法是使用巧妙的加密技术手段:例如,生产出来的工业规模(但非消费级)AI硬件可以配备一个可信硬件芯片,只有在每周获得来自主要国际机构的3/3签名时,才允许其继续运行。这些签名将与设备无关,所以这将是全有或全无的:没有实际方法可以授权一个设备继续运行而不授权所有其他设备。
d/acc技术在AI风险中的作用:
这两种策略(责任和硬件暂停按钮)都存在漏洞,并且很明显它们只是暂时的权宜之计。因此,我们需要更稳定的措施来争取时间。许多d/acc技术在这里是相关的。我们可以如下看待d/acc技术的作用:如果AI接管世界,它会如何做到?