Быстрые преобразования и самоподобные нейронные сети глубокого обучения. Часть 1. Стратифицированные модели самоподобных нейронных сетей и быстрых преобразований

Дорогов Александр Юрьевич

ПАО «Информационные телекоммуникационные технологии» («Интелтех»), Санкт-Петербургский государственный электротехнический университет

В работе показано, что в основе построения быстрых преобразований (подобных БПФ) лежат самоподобные структуры, которые в равной степени можно использовать и для построения быстрых нейронных сетей (БНС). Показано, что класс быстрых преобразований определяется системными инвариантами морфологического уровня и может быть описан, как морфогенез терминальных проекций нейронных модулей. Предложены лингвистические модели для описания морфологии, структуры и топологии регулярных самодобных нейронных сетей. Модели легко обобщаются на многомерные варианты нейронных сетей данного типа. Благодаря своей структуре БНС обладают особыми алгоритмами обучения, которые принципиально отличаются от классического ErrorBackPropagation отсутствием механизма обратного распространения ошибки. Алгоритмы обучения основаны на предложенных в работе методах мультипликативной факторизации образов и быстрых преобразований. Разработанные алгоритмы завершаются за конечное число шагов с гарантируемой сходимостью (будет показано в части 2 статьи). Последовательное развитие концепции самоподобия приводит к разработке методов создания быстрых нейронных сетей с глубокой степенью обучения. Самоподобные нейронные сети обладают уникальной возможностью дообучения к новым данным без потери ранее приобретённых знаний. Показано, что БНС могут быть использованы для создания быстродействующей памяти образов с произвольным доступом и сложных устройств комбинационной логики. В работе представлены результаты исследований автора по следующим вопросам: биологические предпосылки самоподобия нейронных сетей; самоподобные многослойные структуры, морфогенез, стратификация модельных представлений; алгоритмы быстрых преобразований, быстрые нейронные сети (БНС), методы настройки; обучение БНС к эталонным функциям; пластичность БНС; пирамидальные нейронные сети глубокого обучения; многоканальные корреляторы; реализация памяти и комбинационной логики на пирамидальных структурах. Результаты исследований будут представлены статьями в трёх частях.

самоподные структуры, быстрые преобразования, морфогенез, быстрые нейронные сети, пирамидальные структуры, память образов, комбинационная логика

Вернуться назад