AI模型很聰明。 然而,問題在於它們也擅長欺騙。 它們編造事實,錯誤引用來源,並自信地產生幻覺。 @Mira_Network是一個信任層,在用戶接收到之前過濾掉未經驗證的AI輸出。 Mira通過一個去中心化的獨立模型網絡來驗證AI輸出。 Mira不是信任一個模型的答案,而是將其拆分為事實聲明,並將其發送給多個驗證者。 只有在獨立模型中滿足可配置的超級多數閾值的聲明才會被批准。 根據團隊報告的生產數據,集成應用程序中的共識將幻覺減少了約90%。 如果多個獨立運行的模型達成一致,它們以相同方式出錯的機率極低。 團隊報告的結果顯示,當輸出通過Mira過濾時,準確率從約70%提高到約96%。 每次驗證都會生成一個加密的、可追溯的證書(帶有鏈上證明),顯示參與的模型、它們的投票情況以及通過的聲明。 這創建了一個透明且可審計的記錄,監管者、平台和用戶可以信任。 Mira是基礎設施,而不是應用程序。 它集成到聊天機器人、金融科技工具、教育平台等使用的AI管道中。 驗證在後台運行,默默過濾掉用戶在看到之前的虛假聲明。 驗證的力量來自運行多樣化AI模型的節點運營商。 他們使用節點委託者提供的計算資源,節點委託者是向網絡租用GPU的人或實體,並因支持準確的驗證工作而獲得獎勵。 主要合作夥伴包括@ionet、@AethirCloud、@hyperbolic_labs、@exa_bits和@SpheronFDN,它們提供去中心化的GPU基礎設施。 這將驗證分散到多個獨立提供者,降低任何單一實體操縱結果的風險。 Mira的經濟激勵獎勵誠實的驗證。 與共識一致的節點獲得更多獎勵。 那些推動虛假或操縱結果的節點會受到懲罰。 這使網絡的財務激勵與追求真相相一致。 好處很簡單: - 在虛假AI輸出造成傷害之前捕捉它們 - 通過使用多樣化模型減少偏見 - 創建可驗證、可重複的AI結果 - 消除信任中的單點故障 沒有信任,AI的採用將停滯不前。 Mira Network提供一個可擴展的去中心化驗證層,使AI在受監管的行業、關鍵決策和高容量環境中更安全。
2.07K