AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, постоянно推动ят стремительное развитие больших языковых моделей (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя пространство человеческого воображения и даже в некоторых случаях показывая потенциал замены человеческого труда. Однако ядро этих технологий прочно удерживается в руках нескольких централизованных технологических гигантов. Обладая мощным капиталом и контролем над дорогостоящими вычислительными ресурсами, эти компании создали непреодолимые барьеры, которые затрудняют большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточено на достижениях и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти вопросы окажут глубокое влияние на здоровье развития ИИ-индустрии и общественную приемлемость. Если эти проблемы не будут должным образом решены, споры о том, будет ли ИИ "направлен на добро" или "направлен на зло", станут все более актуальными, в то время как централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации для активного решения этих проблем.
Технология блокчейна благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам предлагает новые возможности для устойчивого развития AI-индустрии. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно увидеть, что эти проекты все еще сталкиваются со многими проблемами: с одной стороны, степень децентрализации ограничена, ключевые элементы и инфраструктура по-прежнему зависят от централизованных облачных сервисов, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, в отличие от AI-продуктов мира Web2, AI на блокчейне по-прежнему ограничен в своих моделях, использовании данных и сценариях применения, глубина и широта инноваций нуждаются в улучшении.
Чтобы по-настоящему реализовать видение децентрализованного ИИ, обеспечить безопасность, эффективность и демократичность блокчейна для поддержки масштабных ИИ-приложений и конкурировать с централизованными решениями по производительности, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократичного управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для приложений ИИ, имеет архитектуру и производительность, которые тщательно соответствуют требованиям задач ИИ, с целью эффективной поддержки устойчивого развития и процветания экосистемы ИИ в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса
Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерского учета, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI-моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов на инфраструктуру AI. Это предъявляет более высокие требования к основному консенсусу и механизмам вознаграждения: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи, связанные с AI-выводом и обучением, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети и эффективно снизить общие затраты на вычислительную мощность.
Превосходная высокая производительность и поддержка гетерогенных задач
AI-задачи, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и возможностям параллельной обработки. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многогранные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру для удовлетворения требований высокой пропускной способности, низкой задержки и гибкой параллельной обработки, а также предусмотреть родную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных AI-задач и обеспечить плавное расширение от "однородных задач" до "сложной многогранной экосистемы".
Проверяемость и гарантии надежного выхода
AI Layer 1 не только должен предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и должен обеспечивать проверяемость и согласованность результатов, выходящих от ИИ, на уровне базовых механизмов. Интегрируя передовые технологии, такие как доверенная вычислительная среда (TEE), нулевые знания (ZK), многопартитные безопасные вычисления (MPC), платформа позволяет каждой модели вывода, обучения и обработки данных быть независимо проверяемой, обеспечивая справедливость и прозрачность ИИ-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основания выводов ИИ, реализуя "то, что получено, то и желаемое", повышая доверие пользователей к продуктам ИИ и их удовлетворенность.
Защита конфиденциальности данных
Приложения ИИ часто связаны с конфиденциальными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет решающее значение. AI Layer 1 должен обеспечивать проверяемость, используя технологии обработки данных на основе шифрования, протоколы конфиденциальных вычислений и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах — от вывода и обучения до хранения, эффективно предотвращая утечки и злоупотребления данными, устраняя беспокойства пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки
Как инфраструктура Layer 1, изначально созданная для ИИ, платформа должна не только обладать технологическим превосходством, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы完善ные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулов. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных приложений, основанных на ИИ, и обеспечиваем постоянное процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного фона и ожиданий, в этой статье будет подробно рассмотрено шесть代表 проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически анализируя последние достижения в этой области, разбирая текущее состояние развития проектов и исследуя будущие тренды.
Sentient: создание лояльной открытой децентрализованной модели ИИ
Обзор проекта
Sentient — это платформа с открытым исходным кодом, которая разрабатывает AI Layer1 в блокчейне (, начальный этап — это Layer 2, после чего она будет мигрировать на Layer 1). Объединяя AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Ее основной целью является решение проблем владения моделями, отслеживания вызовов и распределения ценностей на централизованном рынке LLM через рамки "OML" (открытость, прибыльность, лояльность), что позволяет AI моделям реализовать структуру владения в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы любой мог создать, сотрудничать, владеть и монетизировать AI-продукты, способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. В состав ключевых участников входят профессор Принстонского университета Прамод Висванат и профессор Индийского института науки Химаншу Тяг, которые отвечают за безопасность AI и защиту конфиденциальности, а также соучредитель Polygon Сандип Найлвал, который курирует стратегию блокчейна и экосистемное развитие. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих университетах, таких как Принстонский университет и Индийский институт технологий, охватывая области AI/ML, NLP, компьютерного зрения и совместно способствуя реализации проекта.
Как второй стартап соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал ореолом, располагая обширными ресурсами, связями и рыночной узнаваемостью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а также десятки известных венчурных капиталистов, включая Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и тренировки "лояльного ИИ" артефактов, содержит два основных процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, для выравнивания модели.
Обучение лояльности (Loyalty Training): обеспечение согласованности процесса обучения модели с намерениями сообщества.
Система в блокчейне обеспечивает прозрачность и децентрализованный контроль для протоколов, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков.
Распределительный уровень: точка входа в модель вызова, контролируемая контрактом разрешений;
Уровень доступа: проверка авторизации пользователя через подтверждение прав.
Уровень стимулов: контракт маршрутизации доходов будет распределять выплаты между тренерами, развертывателями и валидаторами при каждом вызове.
OML модельная структура
OML рамка (Открытое Open, Монетизируемое Monetizable, Лояльное Loyal) является основной концепцией, предложенной Sentient, и направлена на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединив в блокчейне технологии и нативную криптографию AI, она имеет следующие характеристики:
Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло воспроизводить, проверять и улучшать.
Монетизация: Каждый вызов модели будет вызывать поток доходов, в блокчейне контракт будет распределять доход между тренерами, развертывателями и проверяющими.
Лояльность: Модель принадлежит сообществу вкладчиков, направление обновления и управление определяются DAO, использование и изменение контролируются криптографическим механизмом.
AI родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность моделей ИИ, структуры низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Ее核心技术是:
Встраивание отпечатков пальцев: во время обучения вставляется набор скрытых пар ключ-значение запрос-ответ для формирования уникальной подписи модели;
Протокол проверки прав собственности: проверка сохранения отпечатка пальца через сторонний детектор (Prover) в форме запроса.
Механизм разрешения вызовов: перед вызовом необходимо получить "разрешительный сертификат", выданный владельцем модели, на основании которого система предоставляет модели возможность декодировать данный ввод и возвращать точный ответ.
Этот метод позволяет реализовать "авторизационные вызовы на основе поведения + проверка принадлежности" без дополнительных затрат на повторное шифрование.
Модель прав подтверждения и безопасного исполнения
Sentient в настоящее время использует смешанную безопасность Melange: удостоверение личности по отпечаткам пальцев, выполнение TEE и распределение прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализован на основе OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", то есть предполагается соблюдение правил, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевым элементом OML, который позволяет модели генерировать уникальную подпись на этапе обучения, внедряя определенные пары "вопрос-ответ". С помощью этих подписей владельцы моделей могут проверять право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм защищает права разработчиков моделей и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенную вычислительную среду (например, AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью однородного шифрования (FHE), чтобы еще больше усилить защиту конфиденциальности и проверяемость, обеспечивая децентрализованное развертывание AI моделей.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
4
Репост
Поделиться
комментарий
0/400
NftDataDetective
· 22ч назад
ммм... просто еще одна попытка разжечь хайп вокруг "децентрализованного" ИИ, когда большие технологии уже владеют игрой, если честно
Посмотреть ОригиналОтветить0
ForeverBuyingDips
· 22ч назад
А? Есть и эта дорожка!
Посмотреть ОригиналОтветить0
MEVictim
· 22ч назад
Новый способ играть для лохов в индустрии?
Посмотреть ОригиналОтветить0
TeaTimeTrader
· 22ч назад
Заниматься такой сложной ерундой, лучше уж поиграть с токеном.
Новые тенденции в сегменте AI Layer1: Глубина анализа шести проектов
AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, постоянно推动ят стремительное развитие больших языковых моделей (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя пространство человеческого воображения и даже в некоторых случаях показывая потенциал замены человеческого труда. Однако ядро этих технологий прочно удерживается в руках нескольких централизованных технологических гигантов. Обладая мощным капиталом и контролем над дорогостоящими вычислительными ресурсами, эти компании создали непреодолимые барьеры, которые затрудняют большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредоточено на достижениях и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно недостаточно. В долгосрочной перспективе эти вопросы окажут глубокое влияние на здоровье развития ИИ-индустрии и общественную приемлемость. Если эти проблемы не будут должным образом решены, споры о том, будет ли ИИ "направлен на добро" или "направлен на зло", станут все более актуальными, в то время как централизованные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации для активного решения этих проблем.
Технология блокчейна благодаря своим децентрализованным, прозрачным и антикоррупционным характеристикам предлагает новые возможности для устойчивого развития AI-индустрии. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при более глубоком анализе можно увидеть, что эти проекты все еще сталкиваются со многими проблемами: с одной стороны, степень децентрализации ограничена, ключевые элементы и инфраструктура по-прежнему зависят от централизованных облачных сервисов, что затрудняет поддержку действительно открытой экосистемы; с другой стороны, в отличие от AI-продуктов мира Web2, AI на блокчейне по-прежнему ограничен в своих моделях, использовании данных и сценариях применения, глубина и широта инноваций нуждаются в улучшении.
Чтобы по-настоящему реализовать видение децентрализованного ИИ, обеспечить безопасность, эффективность и демократичность блокчейна для поддержки масштабных ИИ-приложений и конкурировать с централизованными решениями по производительности, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в области ИИ, демократичного управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для приложений ИИ, имеет архитектуру и производительность, которые тщательно соответствуют требованиям задач ИИ, с целью эффективной поддержки устойчивого развития и процветания экосистемы ИИ в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерского учета, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI-моделей, но также вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов на инфраструктуру AI. Это предъявляет более высокие требования к основному консенсусу и механизмам вознаграждения: AI Layer 1 должен быть в состоянии точно оценивать, поощрять и проверять фактический вклад узлов в задачи, связанные с AI-выводом и обучением, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети и эффективно снизить общие затраты на вычислительную мощность.
Превосходная высокая производительность и поддержка гетерогенных задач AI-задачи, особенно обучение и вывод LLM, предъявляют высокие требования к вычислительной производительности и возможностям параллельной обработки. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные, гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многогранные сценарии. AI Layer 1 должен глубоко оптимизировать свою базовую архитектуру для удовлетворения требований высокой пропускной способности, низкой задержки и гибкой параллельной обработки, а также предусмотреть родную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных AI-задач и обеспечить плавное расширение от "однородных задач" до "сложной многогранной экосистемы".
Проверяемость и гарантии надежного выхода AI Layer 1 не только должен предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и должен обеспечивать проверяемость и согласованность результатов, выходящих от ИИ, на уровне базовых механизмов. Интегрируя передовые технологии, такие как доверенная вычислительная среда (TEE), нулевые знания (ZK), многопартитные безопасные вычисления (MPC), платформа позволяет каждой модели вывода, обучения и обработки данных быть независимо проверяемой, обеспечивая справедливость и прозрачность ИИ-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основания выводов ИИ, реализуя "то, что получено, то и желаемое", повышая доверие пользователей к продуктам ИИ и их удовлетворенность.
Защита конфиденциальности данных Приложения ИИ часто связаны с конфиденциальными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, где защита конфиденциальности данных имеет решающее значение. AI Layer 1 должен обеспечивать проверяемость, используя технологии обработки данных на основе шифрования, протоколы конфиденциальных вычислений и управление правами на данные, чтобы гарантировать безопасность данных на всех этапах — от вывода и обучения до хранения, эффективно предотвращая утечки и злоупотребления данными, устраняя беспокойства пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки Как инфраструктура Layer 1, изначально созданная для ИИ, платформа должна не только обладать технологическим превосходством, но и предоставлять разработчикам, операторам узлов, поставщикам ИИ-услуг и другим участникам экосистемы完善ные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулов. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных приложений, основанных на ИИ, и обеспечиваем постоянное процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного фона и ожиданий, в этой статье будет подробно рассмотрено шесть代表 проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически анализируя последние достижения в этой области, разбирая текущее состояние развития проектов и исследуя будущие тренды.
Sentient: создание лояльной открытой децентрализованной модели ИИ
Обзор проекта
Sentient — это платформа с открытым исходным кодом, которая разрабатывает AI Layer1 в блокчейне (, начальный этап — это Layer 2, после чего она будет мигрировать на Layer 1). Объединяя AI Pipeline и технологии блокчейна, она создает децентрализованную экономику искусственного интеллекта. Ее основной целью является решение проблем владения моделями, отслеживания вызовов и распределения ценностей на централизованном рынке LLM через рамки "OML" (открытость, прибыльность, лояльность), что позволяет AI моделям реализовать структуру владения в блокчейне, прозрачность вызовов и распределение ценностей. Видение Sentient заключается в том, чтобы любой мог создать, сотрудничать, владеть и монетизировать AI-продукты, способствуя созданию справедливой и открытой экосистемы сети AI Agent.
Команда Sentient Foundation объединяет ведущих мировых академических экспертов, предпринимателей в области блокчейна и инженеров, стремящихся создать сообществом управляемую, открытую и проверяемую платформу AGI. В состав ключевых участников входят профессор Принстонского университета Прамод Висванат и профессор Индийского института науки Химаншу Тяг, которые отвечают за безопасность AI и защиту конфиденциальности, а также соучредитель Polygon Сандип Найлвал, который курирует стратегию блокчейна и экосистемное развитие. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих университетах, таких как Принстонский университет и Индийский институт технологий, охватывая области AI/ML, NLP, компьютерного зрения и совместно способствуя реализации проекта.
Как второй стартап соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал ореолом, располагая обширными ресурсами, связями и рыночной узнаваемостью, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а также десятки известных венчурных капиталистов, включая Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Основная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и тренировки "лояльного ИИ" артефактов, содержит два основных процесса:
Система в блокчейне обеспечивает прозрачность и децентрализованный контроль для протоколов, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
OML модельная структура
OML рамка (Открытое Open, Монетизируемое Monetizable, Лояльное Loyal) является основной концепцией, предложенной Sentient, и направлена на обеспечение четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Объединив в блокчейне технологии и нативную криптографию AI, она имеет следующие характеристики:
AI родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность моделей ИИ, структуры низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Ее核心技术是:
Этот метод позволяет реализовать "авторизационные вызовы на основе поведения + проверка принадлежности" без дополнительных затрат на повторное шифрование.
Модель прав подтверждения и безопасного исполнения
Sentient в настоящее время использует смешанную безопасность Melange: удостоверение личности по отпечаткам пальцев, выполнение TEE и распределение прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализован на основе OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", то есть предполагается соблюдение правил, а нарушения могут быть обнаружены и наказаны.
Механизм отпечатков пальцев является ключевым элементом OML, который позволяет модели генерировать уникальную подпись на этапе обучения, внедряя определенные пары "вопрос-ответ". С помощью этих подписей владельцы моделей могут проверять право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм защищает права разработчиков моделей и предоставляет отслеживаемую запись использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенную вычислительную среду (например, AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.
В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью однородного шифрования (FHE), чтобы еще больше усилить защиту конфиденциальности и проверяемость, обеспечивая децентрализованное развертывание AI моделей.