AI模型很聪明。 然而,问题在于它们也擅长欺骗。 它们编造事实,错误引用来源,并自信地产生幻觉。 @Mira_Network是一个信任层,在用户接收到之前过滤掉未经验证的AI输出。 Mira通过一个去中心化的独立模型网络来验证AI输出。 Mira不是信任一个模型的答案,而是将其拆分为事实声明,并将其发送给多个验证者。 只有在独立模型中满足可配置的超级多数阈值的声明才会被批准。 根据团队报告的生产数据,集成应用程序中的共识将幻觉减少了约90%。 如果多个独立运行的模型达成一致,它们以相同方式出错的几率极低。 团队报告的结果显示,当输出通过Mira过滤时,准确率从约70%提高到约96%。 每次验证都会生成一个加密的、可追溯的证书(带有链上证明),显示参与的模型、它们的投票情况以及通过的声明。 这创建了一个透明且可审计的记录,监管者、平台和用户可以信任。 Mira是基础设施,而不是应用程序。 它集成到聊天机器人、金融科技工具、教育平台等使用的AI管道中。 验证在后台运行,默默过滤掉用户在看到之前的虚假声明。 验证的力量来自运行多样化AI模型的节点运营商。 他们使用节点委托者提供的计算资源,节点委托者是向网络租用GPU的人或实体,并因支持准确的验证工作而获得奖励。 主要合作伙伴包括@ionet、@AethirCloud、@hyperbolic_labs、@exa_bits和@SpheronFDN,它们提供去中心化的GPU基础设施。 这将验证分散到多个独立提供者,降低任何单一实体操纵结果的风险。 Mira的经济激励奖励诚实的验证。 与共识一致的节点获得更多奖励。 那些推动虚假或操纵结果的节点会受到惩罚。 这使网络的财务激励与追求真相相一致。 好处很简单: - 在虚假AI输出造成伤害之前捕捉它们 - 通过使用多样化模型减少偏见 - 创建可验证、可重复的AI结果 - 消除信任中的单点故障 没有信任,AI的采用将停滞不前。 Mira Network提供一个可扩展的去中心化验证层,使AI在受监管的行业、关键决策和高容量环境中更安全。
2.07K