Основы теории нейронных сетей


         

Основы теории нейронных сетей

Развитие искусственных нейронных сетей вдохновляется биологией. То есть, рассматривая сетевые конфигурации и алгоритмы, исследователи применяют термины, заимствованные из принципов организации мозговой деятельности. Но на этом аналогия заканчивается. Наши знания о работе мозга столь ограничены, что мало бы нашлось точно доказанных закономерностей для тех, кто пожелал бы руководствоваться ими. Поэтому разработчикам сетей приходится выходить за пределы современных биологических знаний в поисках структур, способных выполнять полезные функции. Во многих случаях это приводит к необходимости отказа от биологического правдоподобия, мозг становится просто метафорой, и создаются сети, невозможные в живой материи или требующие неправдоподобно больших допущений об анатомии и функционировании мозга.
Несмотря на то, что связь с биологией слаба и зачастую несущественна, искусственные нейронные сети продолжают сравнивать с мозгом. Их функционирование часто имеет внешнее сходство с человеческим познанием, поэтому трудно избежать этой аналогии. К сожалению, такие сравнения неплодотворны и создают неоправданные ожидания, неизбежно ведущие к разочарованию.

Биологический прототип
Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона.

Цель обучения
Обучение с учителем
Обучение без учителя
Алгоритмы обучения
Биологический прототип
Искусственный нейрон
Искусственный нейрон - 2
Однослойные искусственные нейронные сети
Многослойные искусственные нейронные сети
Многослойные искусственные нейронные сети - 2

Персептроны и зарождение искусственных нейронных сетей
В качестве предмета исследования искусственные нейронные сети впервые заявили о себе в 1940-е годы. Стремясь воспроизвести функции человеческого мозга, исследователи создали простые аппаратные (а позже программные) модели биологического нейрона и системы его соединений. Когда нейрофизиологи достигли более глубокого понимания нервной системы человека, эти ранние попытки стали восприниматься как весьма грубые аппроксимации.

Персептронная представляемость
Проблема функции ИСКЛЮЧАЮЩЕГО ИЛИ
Проблема функции ИСКЛЮЧАЮЩЕГО ИЛИ - 2
Линейная разделимость
Преодоление ограничения разделимости
Преодоление ограничения разделимости - 2
Эффективность запоминания
Персептроны и зарождение искусственных НС
Персептроны и зарождение искусственных НС - 2
Персептронная представляемость

Обучение персептрона
Способность искусственных нейронных сетей к обучению является их наиболее интригующим свойством. Подобно биологическим системам, которые они моделируют, эти нейронные сети сами совершенствуют себя в результате попыток создать лучшую модель поведения.

Алгоритм обучения однослойного персептрона
Алгоритм обучения однослойного персептрона - 2
Алгоритм обучения однослойного персептрона - 3
Целочисленность весов персептронов
Двуслойность персептрона
Двуслойность персептрона - 2
Трудности с алгоритмом обучения персептрона
Обучение персептрона
Алгоритм обучения однослойного персептрона
Алгоритм обучения однослойного персептрона - 2

Введение в процедуру обратного распространения
Среди различных структур нейронных сетей (НС) одной из наиболее известных является многослойная структура, в которой каждый нейрон произвольного слоя связан со всеми аксонами нейронов предыдущего слоя или, в случае первого слоя, со всеми входами НС. Такие НС называются полносвязными. Когда в сети только один слой, алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны и подстройка синаптических связей идет в направлении, минимизирующем ошибку на выходе сети. По этому принципу строится, например, алгоритм обучения однослойного персептрона

Обучающий алгоритм обратного распространения
Дальнейшие алгоритмические разработки
Применение
Введение в процедуру обратного распространения
Алгоритм обратного распространения
Алгоритм обратного распространения - 2
Алгоритм обратного распространения - 3
Алгоритм обратного распространения - 4
Алгоритм обратного распространения - 5
Алгоритм обратного распространения - 6

Переобучение и обобщение
Одна из наиболее серьезных трудностей алгоритма обратного распространения заключается в том, что таким образом мы минимизируем не ту ошибку, которую на самом деле нужно минимизировать, — ошибку, которую можно ожидать от сети, когда ей будут подаваться совершенно новые наблюдения. Иначе говоря, мы хотели бы, чтобы нейронная сеть обладала способностью обобщать результат на новые наблюдения.

Переобучение и обобщение
Переобучение и обобщение - 2
Переобучение и обобщение - 3
Отбор данных
Отбор данных - 2
Как обучается многослойный персептрон
Как обучается многослойный персептрон - 2
Как обучается многослойный персептрон - 3
Предостережения
Паралич сети

Введение в сети встречного распространения
По своим возможностям сети встречного распространения превосходят возможности однослойных сетей. Время же их обучения, по сравнению с обратным распространением, может уменьшаться в сто раз. Встречное распространение не настолько общее, как обратное распространение, но оно может давать решение в тех приложениях, где долгая обучающая процедура невозможна. Будет показано, что, помимо преодоления ограничений других сетей, встречное распространение обладает собственными интересными и полезными свойствами.

Структура сети
Слои Кохонена
Слой Гроссберга
Обучение слоя Кохонена
Предварительная обработка входных векторов
Предварительная обработка входных векторов - 2
Выбор начальных значений весовых векторов
Выбор начальных значений весовых векторов - 2
Примеры обучения
Модификации алгоритма обучения

Использование обучения
Искусственная нейронная сеть обучается с помощью некоторого процесса, модифицирующего ее веса. Если обучение успешно, то предъявление сети множества входных сигналов приводит к появлению желаемого множества выходных сигналов. Имеется два класса обучающих методов: детерминистский и стохастический.

Больцмановское обучение
Больцмановское обучение - 2
Обучение Коши
Метод искусственной теплоемкости
Обратное распространение и обучение Коши
Трудности с обратным распространением
Трудности с алгоритмом обучения Коши
Трудности с алгоритмом обучения Коши - 2
Экспериментальные результаты
Использование обучения

Конфигурации сетей с обратными связями
Рассмотренный нами ранее персептрон относится к классу сетей с направленным потоком распространения информации и не содержит обратных связей. На этапе функционирования каждый нейрон выполняет свою функцию — передачу возбуждения другим нейронам — ровно один раз. Динамика состояний нейронов является неитерационной.

Бинарные системы
Бинарные системы - 2
Устойчивость
Ассоциативность и задача распознавания
Ассоциативность и задача распознавания - 2
Конфигурации сетей с обратными связями
Бинарные системы
Бинарные системы - 2
Бинарные системы - 3
Устойчивость

Модификации правила Хэбба
Ограничения емкости синаптической памяти, а также проблема ложной памяти классической нейронной сети в модели Хопфилда, обученной по правилу Хебба, привели к появлению целого ряда исследований, целью которых было снятие этих ограничений. При этом главный упор делался на модификацию правил обучения.

Матрица Хебба с ортогонализацией образов
Отказ от симметрии синапсов
Алгоритмы разобучения (забывания)
Непрерывные системы
Сети Хопфилда и машина Больцмана
Термодинамические системы
Статистические сети Хопфилда
Обобщенные сети
Аналого-цифровой преобразователь
Аналого-цифровой преобразователь - 2

Структура ДАП
В дальнейшем будем предполагать, что используется пороговая функция активации. Примем также, что существует память внутри каждого нейрона в слоях 1 и 2 и что выходные сигналы нейронов изменяются одновременно с каждым тактом синхронизации, оставаясь постоянными в паузах между этими тактами.

Восстановление запомненных ассоциаций
Кодировка ассоциаций
Кодировка ассоциаций - 2
Емкость памяти
Емкость памяти - 2
Непрерывная ДАП
Адаптивная ДАП
Конкурирующая ДАП
Структура ДАП
Восстановление запомненных ассоциаций

Принцип адаптивного резонанса
Привлекательной особенностью нейронных сетей с адаптивным резонансом является то, что они сохраняют пластичность при запоминании новых образов, и, в то же время, предотвращают модификацию старой памяти. Нейросеть имеет внутренний детектор новизны - тест на сравнение предъявленного образа с содержимым памяти. При удачном поиске в памяти предъявленный образ классифицируется с одновременной уточняющей модификацией синаптических весов нейрона, выполнившего классификацию.

Архитектура АРТ
Описание APT
Упрощенная архитектура APT
Упрощенная архитектура APT - 2
Функционирование сети APT
Функционирование сети APT - 2
Функционирование сети APT - 3
Принцип адаптивного резонанса
Принцип адаптивного резонанса - 2
Архитектура АРТ

Функционирование сетей APT
Для выработки точной классификации полезна возможность изменять коэффициент сходства на протяжении процесса обучения, обеспечивая только грубую классификацию в начале процесса обучения и затем постепенно увеличивая коэффициент сходства.

Пример обучения сети АРТ
Пример обучения сети АРТ - 2
Характеристики АРТ
Инициализация весовых векторов T
Настройка весовых векторов Bj
Инициализация весов bij
Теоремы APT
Нерешенные проблемы и недостатки АРТ-1
Сети АРТ-2 и АРТ-3
Сети АРТ-2 и АРТ-3 - 2

Структура сети
Когнитрон состоит из иерархически связанных слоев нейронов двух типов — тормозящих и возбуждающих. Состояние возбуждения каждого нейрона определяется суммой его тормозящих и возбуждающих входов. Синаптические связи идут от нейронов одного слоя (далее слоя 1) к следующему (слою 2). Относительно данной синаптической связи соответствующий нейрон слоя 1 является пресинаптическим, а нейрон второго слоя — постсинаптическим.

Обучение когнитрона
Обучение когнитрона - 2
Когнитрон как модель зрительной коры мозга
Результаты моделирования
Структура сети
Обучение когнитрона
Обучение когнитрона - 2
Обучение когнитрона - 3
Обучение когнитрона - 4
Когнитрон как модель зрительной коры мозга

Обобщение
Неокогнитрон имеет иерархическую структуру, ориентированную на моделирование зрительной системы человека. Он состоит из последовательности обрабатывающих слоев, организованных в иерархическую структуру. Входной образ подается на первый слой и передается через плоскости, соответствующие последующим слоям, до тех пор, пока не достигнет выходного слоя, в котором идентифицируется распознаваемый образ.

Структура
Обобщение
Вычисления
Обучение
Обучение - 2
Заключение
Структура
Структура - 2
Обобщение
Вычисления

Обучение с учителем и без учителя
Обучающие алгоритмы могут быть классифицированы как алгоритмы обучения с учителем и обучения без учителя. В первом случае существует учитель, который предъявляет входные образы сети, сравнивает результирующие выходы с требуемыми, а затем настраивает веса сети таким образом, чтобы уменьшить различия. Трудно представить такой обучающий механизм в биологических системах; следовательно, хотя данный подход привел к большим успехам при решении прикладных задач, он отвергается теми исследователями, кто полагает, что искусственные нейронные сети обязательно должны использовать те же механизмы, что и человеческий мозг.

Метод обучения Хэбба
Алгоритм обучения Хэбба
Метод сигнального обучения Хэбба
Метод дифференциального обучения Хэбба
Входные и выходные звезды
Обучение входной звезды
Обучение выходной звезды
Обучение персептрона
Метод обучения Уидроу—Хоффа
Метод статистического обучения

Путь художника

Эта книга и есть то, что я делаю. Вот уже десять лет я веду семинары, целью которых является высвобождение творческого начала. Моими учениками были художники и не художники, музыканты и режиссеры, домохозяйки и адвокаты ? словом, любой, кто хотел научиться жить более созидательно, занимаясь каким-либо искусством. Более того, любой, кто хотел бы научиться искусству жить творчески. За эти годы я нашла, изобрела, угадала разные приемы, а также была одарена ими свыше. Используя их, преподавая и рекомендуя другим, я видела, как исчезали преграды, мешающие творчеству, и менялись судьбы людей, и все лишь благодаря тому, что мы привлекали Великого Создателя к открытию и пробуждению в нас творческих сил.
"Великий Создатель? Точно о каком-то индейском божестве. Звучит как-то слишком по-христиански, чересчур мудрено, слишком..." Глупо? Бесхитростно? Угрожающе? Не спорю. Воспринимайте это как тренировку восприимчивости или как игру. Просто скажите себе: "Ладно, пусть будет Великий Создатель, кем бы он ни был" ? и продолжайте читать. Позвольте себе допустить, что где-то существует какой-то там Великий Создатель, который способен помочь вам высвободить творческое начало.

Мой собственный путь
Упражнение "раннее воспитание"

МТС пакета MetaStock - перейти
Экономика - перейти
Что такое финансы - перейти
Банки России - перейти
Статистика - перейти
Статистика - перейти
Биржевая статистика - перейти
Задачи статистики в пакете SPSS - перейти
Пакет SoundForge - перейти
Предисловие - перейти
Основы MIDI и цифрового звука - перейти
Начинаем работу с Sound Forge - перейти
Настройка программы Sound Forge - перейти
Работа со звуковыми файлами - перейти
Работа в Sound Forge - перейти