AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
Фон
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, активно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя пространство человеческого воображения и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий остаётся под контролем немногих технологических гигантов. Обладая значительными капиталами и контролем над дорогостоящими вычислительными ресурсами, эти компании создают непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредотачивается на прорывах и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти проблемы сильно повлияют на здоровое развитие ИИ-отрасли и ее принятие в обществе. Если их не удастся должным образом решить, споры о том, будет ли ИИ "на благо" или "во вред", будут становиться все более актуальными, а централизованные гиганты, движимые стремлением к прибыли, часто будут недостаточно мотивированы для активного противостояния этим вызовам.
Технология блокчейна, благодаря своим децентрализованным, прозрачным и антицензурным характеристикам, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на таких основных блокчейнах, как Solana и Base, уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно выявить множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных сервисов, меметические свойства слишком сильны, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI в блокчейне все еще ограничен по возможностям моделей, использованию данных и сценариям применения, глубина и широта инноваций требуют улучшения.
Чтобы по-настоящему осуществить видение децентрализованного ИИ, сделать так, чтобы в блокчейне безопасно, эффективно и демократично можно было размещать крупномасштабные ИИ-приложения и конкурировать с централизованными решениями по производительности, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно соответствуют требованиям AI-задач, с целью эффективной поддержки устойчивого развития и процветания AI-экосистемы в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые сосредоточены в основном на учете в главной книге, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но и вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, что позволяет разрушить монополию централизованных гигантов на инфраструктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен точно оценивать, мотивировать и проверять фактический вклад узлов в задачи вывода и обучения AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Отличная производительность и поддержка гетерогенных задач. Задачи ИИ, особенно тренировка и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные и гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для удовлетворения требований высокой пропускной способности, низкой задержки и гибкой параллельности, а также иметь изначальную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач ИИ и обеспечить плавное масштабирование от "одиночных задач" до "сложной многообразной экосистемы".
Проверяемость и гарантии надежного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. С помощью интеграции доверенных вычислительных сред (TEE), нулевых доказательств (ZK), многопартитных безопасных вычислений (MPC) и других передовых технологий платформа позволяет независимо проверять каждый процесс вывода модели, обучения и обработки данных, обеспечивая справедливость и прозрачность AI-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основы вывода AI, реализуя "то, что получено, то и желаемое", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать безопасность данных на протяжении всего процесса, включая вывод, обучение и хранение, используя технологии обработки данных на основе шифрования, протоколы вычислений с конфиденциальностью и управление правами на данные, чтобы эффективно предотвращать утечку и неправомерное использование данных, устраняя тем самым беспокойство пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки. В качестве инфраструктуры Layer 1, изначально созданной для ИИ, платформа должна не только обладать техническим превосходством, но и предоставлять полные инструменты разработки, интегрированные SDK, поддержку операций и механизмы стимулов для разработчиков, операторов узлов и поставщиков услуг ИИ, участвующих в экосистеме. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем разнообразному внедрению приложений, созданных для ИИ, и обеспечиваем устойчивое процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного фона и ожиданий, в данной статье будет подробно представлено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически проанализированы последние достижения в этой области, разобраны текущие состояния проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI-модели
Обзор проекта
Sentient является платформой открытого протокола, создающей AI Layer1 в блокчейне (, первоначально на уровне Layer 2, а затем будет мигрировать на уровень Layer 1). Объединив AI Pipeline и технологии блокчейна, она строит децентрализованную экономику искусственного интеллекта. Ее основной целью является решение вопросов принадлежности моделей, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру владения в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, продвигая тем самым справедливую и открытую экосистему сети AI Agent.
Команда Sentient Foundation объединила лучших академических экспертов, предпринимателей в области блокчейна и инженеров со всего мира, стремясь создать сообщество, управляемое открытым исходным кодом и проверяемой платформой AGI. В核心成员 входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность ИИ и защиту конфиденциальности, в то время как соучредитель Polygon Sandeep Nailwal возглавляет стратегию блокчейна и экосистемное развитие. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих вузах, таких как Принстонский университет и Индийский институт технологий, охватывающих области AI/ML, NLP, компьютерного зрения и совместно работают над реализацией проекта.
Как вторичный проект соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал ореолом, имея богатые ресурсы, связи и рыночную осведомленность, что обеспечивало сильную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а среди других инвестиционных компаний были такие известные VC, как Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядерная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного ИИ" артефактов и включает два ключевых процесса:
Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, для выравнивания модели.
Обучение лояльности (Loyalty Training): обеспечьте, чтобы модель проходила процесс обучения, соответствующий намерениям сообщества.
Блокчейн-система обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
Уровень хранения: хранение весов модели и информации о регистрации отпечатков.
Уровень распределения: точка входа для вызова модели, контролируемой контрактом авторизации;
Уровень доступа: проверка прав доступа для подтверждения авторизации пользователя;
Уровень стимулов: Контракт маршрутизации доходов будет распределять платежи между тренерами, развертывателями и валидаторами при каждом вызове.
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является ключевой концепцией, предложенной Sentient, и направлен на обеспечение четкой защиты прав собственности и экономических механизмов стимулирования для открытых AI моделей. Он сочетает в себе технологии в блокчейне и нативную криптографию AI, обладая следующими характеристиками:
Открытость: модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, чтобы сообщество могло их воспроизводить, проверять и улучшать.
Монетизация: каждый вызов модели будет инициировать поток доходов, в блокчейне контракт будет распределять доход между тренерами, развертывателями и проверяющими.
Верность: Модель принадлежит сообществу участников, направление обновления и управление определяются DAO, использование и модификация контролируются криптографическим механизмом.
AI родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность AI-моделей, структуру низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но необратимого" легковесного механизма безопасности. Основная технология заключается в следующем:
Встраивание отпечатка: во время обучения вставляется набор скрытых пар ключ-значение запрос-ответ для формирования уникальной подписи модели;
Протокол проверки владения: проверка сохранения отпечатка пальца с помощью стороннего детектора (Prover) в форме запроса.
Механизм разрешения вызовов: перед вызовом необходимо получить "разрешительный сертификат", выданный владельцем модели, после чего система предоставляет модели разрешение декодировать этот ввод и возвращать точный ответ.
Этот способ позволяет реализовать "авторизационный вызов на основе поведения + проверка принадлежности" без затрат на повторное шифрование.
Модель прав и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав собственности по отпечаткам пальцев, выполнения в TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализует основную линию OML 1.0, подчеркивая идею "оптимистической безопасности (Optimistic Security)", то есть по умолчанию соблюдение норм, а в случае нарушений — возможность их обнаружения и наказания.
Механизм отпечатков пальцев является ключевой реализацией OML, который с помощью внедрения определённых "вопросов-ответов" позволяет модели генерировать уникальные подписи на этапе обучения. С помощью этих подписей владелец модели может проверить принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись о поведении использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные исполняемые окружения (например, AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей в настоящее время.
В будущем Sentient планирует внедрить технологии нулевых доказательств (ZK) и полностью однородного шифрования (FHE), чтобы еще больше усилить защиту конфиденциальности и проверяемость, предоставляя более зрелые решения для децентрализованного развертывания моделей ИИ.
 и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
5 Лайков
Награда
5
3
Репост
Поделиться
комментарий
0/400
NFTHoarder
· 6ч назад
Несколько гигантов играют в монополию, но Web3 все еще привлекателен.
Посмотреть ОригиналОтветить0
MiningDisasterSurvivor
· 6ч назад
Хе-хе, в эпоху большого ИИ даже Понци должен надеть новый жилет, да? Это же уже было в 18-м году!
AI Layer1 исследование: Шесть проектов по созданию Децентрализация AI экосистемы
AI Layer1 исследование: поиск плодородной почвы для DeAI в блокчейне
Обзор
Фон
В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, активно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные возможности в различных отраслях, значительно расширяя пространство человеческого воображения и даже показывая потенциал замены человеческого труда в некоторых сценариях. Однако ядро этих технологий остаётся под контролем немногих технологических гигантов. Обладая значительными капиталами и контролем над дорогостоящими вычислительными ресурсами, эти компании создают непреодолимые барьеры, что затрудняет большинству разработчиков и инновационных команд конкурировать с ними.
В то же время, на ранних этапах быстрого развития ИИ общественное мнение часто сосредотачивается на прорывах и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, остается относительно недостаточным. В долгосрочной перспективе эти проблемы сильно повлияют на здоровое развитие ИИ-отрасли и ее принятие в обществе. Если их не удастся должным образом решить, споры о том, будет ли ИИ "на благо" или "во вред", будут становиться все более актуальными, а централизованные гиганты, движимые стремлением к прибыли, часто будут недостаточно мотивированы для активного противостояния этим вызовам.
Технология блокчейна, благодаря своим децентрализованным, прозрачным и антицензурным характеристикам, открывает новые возможности для устойчивого развития AI-индустрии. В настоящее время на таких основных блокчейнах, как Solana и Base, уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно выявить множество проблем: с одной стороны, степень децентрализации ограничена, ключевые этапы и инфраструктура все еще зависят от централизованных облачных сервисов, меметические свойства слишком сильны, что затрудняет поддержку по-настоящему открытой экосистемы; с другой стороны, по сравнению с AI-продуктами мира Web2, AI в блокчейне все еще ограничен по возможностям моделей, использованию данных и сценариям применения, глубина и широта инноваций требуют улучшения.
Чтобы по-настоящему осуществить видение децентрализованного ИИ, сделать так, чтобы в блокчейне безопасно, эффективно и демократично можно было размещать крупномасштабные ИИ-приложения и конкурировать с централизованными решениями по производительности, нам необходимо разработать Layer1 блокчейн, специально созданный для ИИ. Это обеспечит прочную основу для открытых инноваций в ИИ, демократического управления и безопасности данных, способствуя процветанию децентрализованной экосистемы ИИ.
Основные характеристики AI Layer 1
AI Layer 1 как блокчейн, специально разработанный для AI-приложений, имеет архитектуру и производительность, которые тесно соответствуют требованиям AI-задач, с целью эффективной поддержки устойчивого развития и процветания AI-экосистемы в блокчейне. Конкретно, AI Layer 1 должен обладать следующими ключевыми возможностями:
Эффективные стимулы и децентрализованный механизм консенсуса. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые сосредоточены в основном на учете в главной книге, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод AI моделей, но и вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, что позволяет разрушить монополию централизованных гигантов на инфраструктуре AI. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен точно оценивать, мотивировать и проверять фактический вклад узлов в задачи вывода и обучения AI, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.
Отличная производительность и поддержка гетерогенных задач. Задачи ИИ, особенно тренировка и вывод LLM, предъявляют высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные и гетерогенные типы задач, включая различные структуры моделей, обработку данных, вывод, хранение и другие многообразные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для удовлетворения требований высокой пропускной способности, низкой задержки и гибкой параллельности, а также иметь изначальную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач ИИ и обеспечить плавное масштабирование от "одиночных задач" до "сложной многообразной экосистемы".
Проверяемость и гарантии надежного вывода AI Layer 1 должны не только предотвращать злоупотребления моделями, подделку данных и другие угрозы безопасности, но и обеспечивать проверяемость и согласованность результатов вывода AI на уровне базовых механизмов. С помощью интеграции доверенных вычислительных сред (TEE), нулевых доказательств (ZK), многопартитных безопасных вычислений (MPC) и других передовых технологий платформа позволяет независимо проверять каждый процесс вывода модели, обучения и обработки данных, обеспечивая справедливость и прозрачность AI-системы. В то же время такая проверяемость помогает пользователям четко понимать логику и основы вывода AI, реализуя "то, что получено, то и желаемое", повышая доверие и удовлетворенность пользователей к продуктам AI.
Защита конфиденциальности данных Применение ИИ часто связано с чувствительными данными пользователей, особенно в таких областях, как финансы, здравоохранение и социальные сети, защита конфиденциальности данных имеет особое значение. AI Layer 1 должен обеспечивать безопасность данных на протяжении всего процесса, включая вывод, обучение и хранение, используя технологии обработки данных на основе шифрования, протоколы вычислений с конфиденциальностью и управление правами на данные, чтобы эффективно предотвращать утечку и неправомерное использование данных, устраняя тем самым беспокойство пользователей по поводу безопасности данных.
Мощные возможности поддержки экосистемы и разработки. В качестве инфраструктуры Layer 1, изначально созданной для ИИ, платформа должна не только обладать техническим превосходством, но и предоставлять полные инструменты разработки, интегрированные SDK, поддержку операций и механизмы стимулов для разработчиков, операторов узлов и поставщиков услуг ИИ, участвующих в экосистеме. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем разнообразному внедрению приложений, созданных для ИИ, и обеспечиваем устойчивое процветание децентрализованной экосистемы ИИ.
Исходя из вышеизложенного фона и ожиданий, в данной статье будет подробно представлено шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематически проанализированы последние достижения в этой области, разобраны текущие состояния проектов и обсуждены будущие тенденции.
Sentient: создание преданного открытого децентрализованного AI-модели
Обзор проекта
Sentient является платформой открытого протокола, создающей AI Layer1 в блокчейне (, первоначально на уровне Layer 2, а затем будет мигрировать на уровень Layer 1). Объединив AI Pipeline и технологии блокчейна, она строит децентрализованную экономику искусственного интеллекта. Ее основной целью является решение вопросов принадлежности моделей, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью структуры "OML" (открытость, прибыльность, лояльность), позволяя AI моделям реализовать структуру владения в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, продвигая тем самым справедливую и открытую экосистему сети AI Agent.
Команда Sentient Foundation объединила лучших академических экспертов, предпринимателей в области блокчейна и инженеров со всего мира, стремясь создать сообщество, управляемое открытым исходным кодом и проверяемой платформой AGI. В核心成员 входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность ИИ и защиту конфиденциальности, в то время как соучредитель Polygon Sandeep Nailwal возглавляет стратегию блокчейна и экосистемное развитие. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в ведущих вузах, таких как Принстонский университет и Индийский институт технологий, охватывающих области AI/ML, NLP, компьютерного зрения и совместно работают над реализацией проекта.
Как вторичный проект соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал ореолом, имея богатые ресурсы, связи и рыночную осведомленность, что обеспечивало сильную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд посевного финансирования на сумму 85 миллионов долларов, который возглавили Founders Fund, Pantera и Framework Ventures, а среди других инвестиционных компаний были такие известные VC, как Delphi, Hashkey и Spartan.
Проектирование архитектуры и уровень приложений
Инфраструктурный уровень
Ядерная архитектура
Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и системы в блокчейне.
AI трубопровод является основой для разработки и обучения "лояльного ИИ" артефактов и включает два ключевых процесса:
Блокчейн-система обеспечивает прозрачность и децентрализованный контроль для протокола, гарантируя право собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:
OML модельная структура
OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является ключевой концепцией, предложенной Sentient, и направлен на обеспечение четкой защиты прав собственности и экономических механизмов стимулирования для открытых AI моделей. Он сочетает в себе технологии в блокчейне и нативную криптографию AI, обладая следующими характеристиками:
AI родная криптография (AI-native Cryptography)
AI-родная криптография использует непрерывность AI-моделей, структуру низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но необратимого" легковесного механизма безопасности. Основная технология заключается в следующем:
Этот способ позволяет реализовать "авторизационный вызов на основе поведения + проверка принадлежности" без затрат на повторное шифрование.
Модель прав и безопасного выполнения
Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения прав собственности по отпечаткам пальцев, выполнения в TEE и распределения прибыли по смарт-контрактам в блокчейне. При этом метод отпечатков пальцев реализует основную линию OML 1.0, подчеркивая идею "оптимистической безопасности (Optimistic Security)", то есть по умолчанию соблюдение норм, а в случае нарушений — возможность их обнаружения и наказания.
Механизм отпечатков пальцев является ключевой реализацией OML, который с помощью внедрения определённых "вопросов-ответов" позволяет модели генерировать уникальные подписи на этапе обучения. С помощью этих подписей владелец модели может проверить принадлежность, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись о поведении использования модели в блокчейне.
Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенные исполняемые окружения (например, AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания моделей в настоящее время.
В будущем Sentient планирует внедрить технологии нулевых доказательств (ZK) и полностью однородного шифрования (FHE), чтобы еще больше усилить защиту конфиденциальности и проверяемость, предоставляя более зрелые решения для децентрализованного развертывания моделей ИИ.
![Biteye и PANews совместно выпустили исследование AI Layer1: поиск благодатной почвы для DeAI в блокчейне](