AI モデルは賢いです。 しかし、問題は、彼らが欺瞞にも長けていることです。 彼らは事実をでっち上げ、情報源を誤って引用し、自信を持って幻覚を見ます。 @Mira_Networkは、未検証の AI 出力がユーザーに届く前に除外する信頼層です。 Mira は、独立したモデルの分散型ネットワークを通じて AI 出力を検証します。 Mira は、1 つのモデルの答えを信頼する代わりに、それを事実に基づく主張に分割し、複数の検証者に送信します。 独立したモデル全体で構成可能な超多数のしきい値を満たすクレームのみが承認されます。 チームが報告した本番データによると、コンセンサスにより、統合されたアプリ全体で幻覚が最大~90%減少しました。 複数の独立して実行されたモデルが一致する場合、同じように間違っている可能性は非常に低くなります。 チームで報告された結果は、出力が Mira でフィルタリングされた場合、精度が ~70% から ~96% に向上することを示しています。 各検証では、どのモデルが参加したか、どのように投票したか、どのクレームが可決されたかを示す、暗号化された追跡可能な証明書 (オンチェーン証明付き) が生成されます。 これにより、規制当局、プラットフォーム、ユーザーが信頼できる透明性のある監査可能な記録が作成されます。 Mira はインフラストラクチャであり、アプリではありません。 チャットボット、フィンテック ツール、教育プラットフォームなどで使用される AI パイプラインに統合されます。 検証はバックグラウンドで実行され、ユーザーが確認する前に誤った主張をサイレントに除外します。 検証力は、多様な AI モデルを実行するノード オペレーターから得られます。 彼らは、ノード委任者、GPU をネットワークにレンタルする個人または団体によって提供されるコンピューティングを使用し、正確な検証作業をサポートすることで報酬を獲得します。 主要なパートナーには、分散型 GPU インフラストラクチャを提供する @ionet、@AethirCloud、@hyperbolic_labs、@exa_bits、@SpheronFDN が含まれます。 これにより、検証が複数の独立したプロバイダーに分散され、単一のエンティティが結果を操作できるリスクが軽減されます。 ミラの経済的インセンティブは、正直な検証に報いる。 コンセンサスに沿ったノードはより多くの収益を得ることができます。 虚偽の結果や操作された結果をプッシュする人はペナルティを受けます。 これにより、ネットワークの金銭的インセンティブが真実の追求と一致します。 利点は単純です。 - 誤ったAI出力が害を及ぼす前にキャッチする - 多様なモデルを使用してバイアスを減らす - 検証可能で再現可能な AI 結果を作成する - 信頼における単一障害点の排除 AI の導入は信頼がなければ停滞します。 Mira Network は、規制された業界、重要な意思決定、大量の環境で AI をより安全にする、スケーラブルで分散型の検証レイヤーを提供します。
2.05K