GenLayer是一家专注于为AI和机器代理构建去中心化法律基础设施的初创公司,近日推出了其首个激励测试网络"阿西莫夫"(Asimov)。
这标志着该公司多阶段验证器入驻和技术验证计划的正式启动,为主网部署奠定了重要基础。该测试网络引入了GenLayer所称的首个智能区块链,由AI模型驱动,专门用于解决传统确定性区块链无法处理的主观决策问题。
GenLayer首席执行官兼联合创始人Albert Castellana表示:"我们的理念是,当我们进入一个充满快速且智能的AI代理的世界时,我们需要一个全新的法律系统,因为当前的系统既分散又缓慢,成本高昂。GenLayer提供了一个合成管辖权:专为机器设计的法律系统。"
**融合区块链与AI的最佳特性**
阿西莫夫是GenLayer路线图中三个连续测试网络的第一个,后续还将推出Bradbury和Clark。该公司旨在逐步测试和扩展其"乐观民主"共识机制。与仅执行代码的传统区块链验证器不同,GenLayer验证器与大型语言模型(LLM)配对,使其能够评估链下数据并做出主观决策——例如判断提交的内容是否符合活动要求,或智能合约条件是否得到公平履行。
GenLayer将这一模式定位为AI代理时代和机器间交易的必要基础设施。据Castellana介绍,阿西莫夫的推出既是一次压力测试,也是向开发者和合作伙伴展示技术成熟度的信号。
**专业验证器和开发者生态系统**
阿西莫夫的验证器计划面向经验丰富的区块链基础设施运营商。入选参与者将通过测试共识逻辑、交易处理和模型协调来获得奖励。GenLayer已经接纳了数十名验证器,更多验证器正在排队等候。参与需要在测试阶段全职投入。
为支持开发者,GenLayer发布了全面的开发者工具栈,包括GenLayer Studio、钱包、区块链浏览器和GS库(Python工具包)。该测试网络还配备了资助计划,鼓励在主网启动前进行早期开发和实验。
**Rally协议的推出**
与阿西莫夫同时推出的是Rally的测试版本,这是一个去中心化营销协议,能够自动化影响者和社区激励活动。Rally使用AI驱动的验证器,根据智能合约中嵌入的活动规则评估提交的内容——如社交媒体帖子。
Castellana告诉VentureBeat:"Rally是我们在GenLayer上构建的第一个协议。它能够自主评估社区创建的内容并确定补偿,将参与范围扩展到影响者之外的任何人。"
品牌定义指导原则(如标签、语调、原创性),存入资金,然后让协议自主确定支付。这种设置避免了传统影响者项目中常见的手动谈判和绩效争议。内容创作者如果提交的内容符合预设标准,就能获得透明的链上补偿。
"未来,许多影响者将是寻求赚钱机会的AI代理——这个系统能够适应这种演变,"Castellana补充道。
Rally独立于GenLayer核心团队运营,最终将由DAO治理。从每个活动资金池中,1%归Rally DAO所有,而协议费用的10%分配给参与应用的开发者。
**企业收益**
对于技术决策者——包括品牌经理、增长营销人员和数字活动负责人——GenLayer和Rally提供了自动化和去中心化活动执行及质量控制的能力。团队可以部署使用LLM根据预定义标准判断提交内容的智能合约,而不是手动管理影响者关系、批准内容和处理活动后绩效争议。
这种方法显著减少了运营开销,实现了实时反馈和奖励,并确保了整个活动生命周期的公平性和透明度。此外,AI代理的使用允许在数千个潜在内容贡献者(人类或自动化)中进行可扩展的活动管理,无需额外的人员配置或供应商摩擦。
**AI原生经济的基础设施**
GenLayer的架构得到了技术合作伙伴的支持,包括ZKSync(用于基于rollup的可扩展性)、Heurist(用于去中心化模型托管)、Atoma Network(用于隐私保护执行)和Caldera。这些集成确保平台保持高性能、安全性,并与更广泛的基于以太坊的生态系统保持一致。
该公司已从North Island Ventures、Arrington Capital、ZK Ventures和Arthur Hayes的Maelstrom等投资者那里筹集了750万美元的种子资金。GenLayer将其协议视为合成全球管辖权的基础——AI经济的自主法律层,能够以机器速度解决争议,比传统法律系统更具可访问性。
**未来展望**
在阿西莫夫之后,Bradbury和Clark测试网络将引入验证器级别的LLM配置、生产级推理调优和自主网络操作。每个阶段都旨在在计划于今年晚些时候推出的主网之前验证系统组件。
GenLayer正在积极寻求专业验证器和开发者参与测试网络。有兴趣的人可以通过公司网站申请。
随着Rally等应用已经在测试版中上线,GenLayer呈现了一种新的智能区块链基础设施类别——将AI决策与去中心化治理相结合,为企业和社区用户解锁更加自主、透明和可扩展的系统。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。