Модели ИИ умные. Проблема, однако, в том, что они также умеют обманывать. Они выдумывают факты, искажают источники и с уверенностью создают галлюцинации. @Mira_Network — это уровень доверия, который фильтрует непроверенные выходные данные ИИ, прежде чем они достигнут пользователя. Mira проверяет выходные данные ИИ через децентрализованную сеть независимых моделей. Вместо того чтобы доверять ответу одной модели, Mira разбивает его на фактические утверждения и отправляет их нескольким проверяющим. Только те утверждения, которые соответствуют настраиваемому порогу супербольшинства среди независимых моделей, одобряются. Согласно данным о производстве, сообщенным командой, консенсус снизил количество галлюцинаций до ~90% в интегрированных приложениях. Если несколько независимо работающих моделей согласны, вероятность того, что они ошибаются одинаково, крайне мала. Результаты, сообщенные командой, показывают, что точность улучшилась с ~70% до ~96%, когда выходные данные фильтруются через Mira. Каждая проверка генерирует зашифрованный, отслеживаемый сертификат (с доказательством в блокчейне), который показывает, какие модели участвовали, как они голосовали и какие утверждения прошли. Это создает прозрачную и поддающуюся аудиту запись, которой могут доверять регуляторы, платформы и пользователи. Mira — это инфраструктура, а не приложение. Она интегрируется в ИИ-пайплайны, используемые чат-ботами, финтех-инструментами, образовательными платформами и многим другим. Проверка работает в фоновом режиме, тихо фильтруя ложные утверждения, прежде чем пользователь их увидит. Сила проверки исходит от операторов узлов, работающих с разнообразными моделями ИИ. Они используют вычислительные мощности, предоставляемые делегаторами узлов, людьми или организациями, которые арендуют GPU для сети и зарабатывают вознаграждения за поддержку точной работы по проверке. Ведущими партнерами являются @ionet, @AethirCloud, @hyperbolic_labs, @exa_bits и @SpheronFDN, которые предоставляют децентрализованную инфраструктуру GPU. Это распределяет проверку между несколькими независимыми поставщиками, снижая риск того, что какая-либо одна сущность сможет манипулировать результатами. Экономические стимулы Mira вознаграждают честную проверку. Узлы, которые соответствуют консенсусу, зарабатывают больше. Те, кто продвигает ложные или манипулированные результаты, получают штрафы. Это согласует финансовые стимулы сети с стремлением к истине. Преимущества просты: - Ловить ложные выходные данные ИИ, прежде чем они причинят вред - Снижать предвзятость, используя разнообразные модели - Создавать проверяемые, воспроизводимые результаты ИИ - Устранять единичные точки отказа в доверии Принятие ИИ остановится без доверия. Сеть Mira предлагает масштабируемый, децентрализованный уровень проверки, который делает ИИ более безопасным для регулируемых отраслей, критических решений и высокообъемных сред.
2,08K