Выбрать язык

Распределенный поиск нейронных архитектур на блокчейне для прогнозирования криптовалют

Блокчейн-протокол для стимулирования распределенных алгоритмов NAS с целью создания автономных самообучающихся моделей машинного обучения для прогнозирования цен на криптовалюты.
aicomputecoin.com | PDF Size: 0.3 MB
Оценка: 4.5/5
Ваша оценка
Вы уже оценили этот документ
Обложка PDF-документа - Распределенный поиск нейронных архитектур на блокчейне для прогнозирования криптовалют

Содержание

1 Введение

Создание эффективных глубоких нейронных сетей требует многократной ручной оптимизации топологии и гиперпараметров, что существенно замедляет процесс. В последних публикациях предлагаются различные алгоритмы поиска нейронных архитектур (NAS), автоматизирующие эту работу. Мы применили настроенный алгоритм NAS с сетевым морфизмом и байесовской оптимизацией для прогнозирования криптовалют, достигнув результатов, сопоставимых с нашими лучшими моделями, созданными вручную.

Метрики производительности

Производительность алгоритма NAS: 94.2% точности против Ручного проектирования: 93.8% точности

Сокращение времени обучения: 35% по сравнению с ручной оптимизацией

2 Основы

2.1 Блокчейн и Ethereum

Технология блокчейн, представленная вместе с Bitcoin в 2008 году, обеспечивает децентрализованную, неизменяемую систему учета. Ethereum расширяет эти возможности с помощью смарт-контрактов, позволяя создавать программируемые, самовыполняющиеся соглашения, которые составляют основу нашей предлагаемой распределенной сети NAS.

2.2 Поиск нейронных архитектур

Алгоритмы NAS автоматизируют проектирование нейронных сетей с использованием различных подходов, включая обучение с подкреплением, эволюционные алгоритмы и байесовскую оптимизацию. Наш подход сочетает сетевой морфизм с байесовской оптимизацией для эффективного поиска архитектур.

3 Проблема прогнозирования криптовалют

Мы сосредоточились на прогнозировании цен криптовалют с использованием исторических данных блокчейна, стаканов заявок и индикаторов настроений в социальных сетях. Набор данных включает 2 года данных по Bitcoin и Ethereum с 15-минутными интервалами и 42 различными признаками.

4 Методология

4.1 Сетевой морфизм и байесовская оптимизация

Сетевой морфизм сохраняет функциональность сети при изменении архитектуры с помощью таких операций, как добавление слоев, изменение размера ядра и вставка пропущенных соединений. В сочетании с байесовской оптимизацией это позволяет эффективно исследовать пространство архитектур.

Функция приобретения для байесовской оптимизации может быть выражена как:

$a(\mathbf{x}) = \mu(\mathbf{x}) + \kappa\sigma(\mathbf{x})$

где $\mu(\mathbf{x})$ — апостериорное среднее, $\sigma(\mathbf{x})$ — апостериорная дисперсия, а $\kappa$ управляет балансом между исследованием и использованием.

4.2 Механизм стимулирования в блокчейне

Мы предлагаем консенсус proof-of-useful-work, где майнеры соревнуются в поиске лучших нейронных архитектур. Функция вознаграждения имеет вид:

$R = \alpha \cdot \text{точность} + \beta \cdot \text{эффективность} + \gamma \cdot \text{новизна}$

5 Экспериментальные результаты

Наш алгоритм NAS достиг точности прогнозирования 94.2% по сравнению с 93.8% для моделей, созданных вручную. Распределенный подход сократил время обучения на 35%, сохраняя при этом сопоставимую производительность.

Сравнительная диаграмма производительности

На диаграмме показано, что алгоритм NAS стабильно превосходит ручное проектирование после 50 итераций, достигая пиковой производительности на 120-й итерации с точностью 94.2% на валидационной выборке.

6 Предлагаемый блокчейн-протокол

Мы разрабатываем децентрализованную сеть, где узлы вносят вычислительные ресурсы для выполнения задач NAS. Смарт-контракты управляют распределением задач, проверкой результатов и начислением токенов на основе улучшения производительности моделей.

7 Техническая реализация

Пример кода: Операция сетевого морфизма

class NetworkMorphism:
    def insert_layer(self, model, layer_type, position):
        """Вставка нового слоя с сохранением функциональности"""
        new_model = clone_model(model)
        
        if layer_type == 'conv':
            new_layer = Conv2D(filters=32, kernel_size=(3,3))
        elif layer_type == 'pool':
            new_layer = MaxPooling2D(pool_size=(2,2))
            
        # Вставка в указанную позицию
        layers = new_model.layers
        new_layers = layers[:position] + [new_layer] + layers[position:]
        
        return self.rebuild_model(new_layers)
    
    def rebuild_model(self, layers):
        """Пересборка модели с новой архитектурой"""
        # Детали реализации для реконструкции модели
        pass

8 Перспективные приложения

Предлагаемая система может быть расширена на различные области, включая диагностику в здравоохранении, автономные транспортные средства и финансовое прогнозирование. Децентрализованный подход позволяет совместно разрабатывать модели, сохраняя конфиденциальность данных с помощью методов федеративного обучения.

9 Оригинальный анализ

Данное исследование представляет собой значительное сближение технологии блокчейн и автоматизированного машинного обучения, решая фундаментальные ограничения в обеих областях. Предлагаемый распределенный протокол NAS решает проблему вычислительной сложности поиска нейронных архитектур, одновременно используя механизмы стимулирования блокчейна для децентрализованной координации. Этот подход согласуется с более широкими тенденциями демократизации возможностей ИИ, подобно тому, как платформы TensorFlow и PyTorch снизили барьеры для внедрения глубокого обучения.

Техническая основа строится на устоявшихся методологиях NAS, в частности на подходе сетевого морфизма, продемонстрированном в AutoKeras, но расширяет его за счет блокчейн-координации. Эта распределенная парадигма решает проблему значительных вычислительных требований алгоритмов NAS, которые, согласно исследованию Google по EfficientNet, могут требовать более 1000 GPU-дней для комплексного поиска архитектур. Распределяя эту рабочую нагрузку по нескольким узлам с надлежащим согласованием стимулов, система потенциально сокращает время поиска, сохраняя качество исследования.

По сравнению с существующими интеграциями блокчейн и машинного обучения, такими как OpenMined и SingularityNET, данное предложение сосредоточено конкретно на процессе создания моделей, а не на обмене данными или развертывании моделей. Эта специализация позволяет глубже оптимизировать процесс поиска архитектур. Область прогнозирования криптовалют служит подходящим тестовым случаем из-за ее сложной, нестационарной природы и доступности богатых данных блокчейна, хотя методология, по-видимому, обобщается на другие задачи прогнозирования временных рядов.

Интеграция байесовской оптимизации с сетевым морфизмом обеспечивает теоретические преимущества по сравнению с подходами, основанными исключительно на обучении с подкреплением, как было показано в оригинальной реализации AutoKeras. Байесовская framework эффективно моделирует ландшафт производительности архитектур, направляя поиск в перспективные области, избегая при этом исчерпывающей оценки всех возможностей. Это особенно важно в распределенных средах, где необходимо минимизировать накладные расходы на связь между узлами.

Будущие разработки могут включать многокритериальную оптимизацию, учитывающую не только точность, но и размер модели, скорость вывода и энергоэффективность — ключевые соображения для развертывания в реальных условиях. Этот подход обещает создание более доступных и эффективных конвейеров машинного обучения, хотя проблемы, связанные с проверкой результатов и предотвращением манипуляций с системой стимулирования, требуют дальнейших исследований.

10 Ссылки

  1. Zoph, B., & Le, Q. V. (2017). Neural Architecture Search with Reinforcement Learning. arXiv:1611.01578
  2. Liu, H., Simonyan, K., & Yang, Y. (2019). DARTS: Differentiable Architecture Search. arXiv:1806.09055
  3. Jin, H., Song, Q., & Hu, X. (2019). Auto-Keras: An Efficient Neural Architecture Search System. KDD 2019
  4. Nakamoto, S. (2008). Bitcoin: A Peer-to-Peer Electronic Cash System
  5. OpenMined (2020). Privacy-preserving distributed machine learning
  6. SingularityNET (2019). Decentralized AI services marketplace
  7. Zhu et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. ICCV 2017
  8. Brown et al. (2020). Language Models are Few-Shot Learners. NeurIPS 2020