<<
>>

ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ

Биологические элементарные нейронные сети служат для усиления слабых сигналов, уменьшения слишком интенсивной активности, выделения контрастов, поддержания ритмов или сохранения рабочего состояния нейронов путем регулировки их входов. Искусственные нейронные сети — это интегральные электронные цепи со стандартными элементами, которые выполняют наиболее часто повторяющиеся операции и могут быть включены в схемы самых разнообразных электронных приборов в том числе и компьютеров.

Нейронные сети, часто также называемые искусственными нейронными сетями (ANN) или вычислительными нейронными сетями, представляют собой упрощенную математическую модель обработки информации головным мозгом человека.

Тем не менее большинство современных архитектур нейронных сетей не воспроизводит в точности функции мозга, и их следует рассматривать как разновидность параллельных алгоритмов [605].

Искусственные нейронные сети становятся одним из наиболее широко применяемых методов построения разнообразных количественных зависимостей. Благодаря возможности построения нелинейных моделей любого уровня сложности методология искусственных нейронных сетей нашла широкое применение в рамках QSAR.

Среди известных архитектур нейросетей ведущее место по популярности занимает многослойная нейросеть прямого распространения, обучающаяся по методу обратного распространения ошибки. В ней имеется возможность обобщать и аппроксимировать данные с высокой точностью.

Нейронные сети состоят из набора нескольких слоев простых, но соединенных между собой большим количеством связей вычислительных элементов, называемых — нейродами (в нервной системе — нейрон). Каждый нейрод имеет различные входы (лс,, х2, ...), а связь между отдельными двумя нейродами характеризуется действительным числом, называемым весом связи (рис. 12.3).

Совокупность весовых коэффициентов связей между нейро- дами определяет вычислительные свойства нейросети, и ее обучение сводится к соответствующей настройке весовых коэффициентов.

Внутри каждого нейрода выполняются двустадийные вычисления. Сначала вычисляется общий выходной сигнал Net нейрода путем суммирования всех w, а затем с помощью передаточной функции вычисляется выходной сигнал Out этого нейрода. В качестве передаточных чаще всего применяются сигмоидные функции [606], как показано на рисунке 12:4.

Архитектура нейронной сети определяется топологией соединения нейродов между собой. Для моделирования QSAR применяют нейросети, состоящие из нескольких слоев, число которых диктуется конкретной архитектурой нейросети [607].

Слои обычно подразделяют на три группы: входной, скрытый и выходной (рис. 12.5).

Для всех нейродов, принадлежащих одному слою, характерно одинаковое число входных связей, соединяющих нейрод с предыдущем слоем. Рассчитанными выходными значениями всей нейросети являются выходные сигналы последнего вычислительного слоя сети.

Выход нейросети

Рис. 12.5. Структура нейросети прямого распространения (—► различные дескрипторы)

Нейросети прямого распространения характеризуются послойной передачей сигнала от входа нейросети к ее выходу.

Они могут содержать несколько скрытых слоев (рис. 12.5) или состоять только из входного и выходного слоев.

При обучении многослойных нейросетей прямого распространения настройка проводится последовательно, начиная со связей выходного слоя. Поэтому методы обучения таких нейросетей носят название методов обратного распространения ошибки [608]. Для каждого слоя нейросети обучение выполняется по правилу Уидроу—Хоффа или дельта-правилу. При обучении по методу гибкого распространения (RPROP) для подстройки весовых коэффициентов используется только информация о знаках частных производных функции ошибки нейросети

(обычно сумма квадратов ошибок на выходных нейродах). Ква- зиньютоновские методы обучения (BFGS) базируются на ньютоновском методе аппроксимации функций. На каждой итерации вычисляется вектор, компоненты которого равны частным производным ошибки нейросети по всем весовым коэффициентам.

Как и в предыдущих случаях (разделы 12.1.1 —12.1.5) при нейросетевом моделировании QSAR для описания структур соединений используют соответствующие дескрипторы. При этом выбирают только те, которые вносят существенный вклад в активность. Такой выбор можно производить предварительно или в ходе обучения нейросети.

Предварительный отбор параметров осуществляется с применением пошагового множественного регрессионного анализа [609] или с помощью нейросетевых алгоритмов [610].

Примером нейросетевых алгоритмов может быть соответствующая сеть, использующая «генетический» алгоритм обучения. Это своего рода стохастический метод оптимизации, в основе которого лежат эволюционные принципы. Из разнообразных вариантов описания объектов на протяжении нескольких поколений выбирают те, которые включают в себя наиболее значимые параметры. В литературе описаны разнообразные методы генерирования нового поколения в рамках «генетического» алгоритма. Это так называемый метод аппроксимации генетической функции [611] и эволюционное программирование [612].

Совокупность параметров, подаваемых на вход нейросети, как правило, представляют в виде вектора. Поэтому при выборе описания необходимо выполнить следующие условия [613]: 1) количество и тип используемых дескрипторов одинаковы для всех описываемых структур; 2) каждому дескриптору соответствует определенная компонента в векторе параметров; 3) различным молекулам соответствуют различные вектора параметров.

Для того, чтобы осуществить анализ полученных нейросетевых зависимостей, необходимо вычислить значения частных производных исследуемых свойств последовательно по значениям всех исходных дескрипторов на множестве примеров из обучающей выборки. Таким способом вычисляется набор статистических функций, позволяющий оценить вклад всех исходных дескрипторов в построение нейросетевой модели.

Для оценки нейросетевых моделей используют стандартные статистические функции: вычисляют среднеквадратические ошибки, коэффициенты корреляции или распознавания.

Во многих случаях, для того чтобы сделать выводы об адекватности использования нейросетевого моделирования, сравнивают модели нейросетевых алгоритмов, с моделями, полученными другими методами (PLS, CoMFA).

Несмотря на ограниченность анализа полученных нейросетевых зависимостей, все же в ряде работ приведены результаты успешного количественного нейросетевого моделирования сродства веществ к различным рецепторам [614], транспортным белкам [615], моделирования констант ингибирования ферментов и ряда биологических активностей.

12.2.

<< | >>
Источник: Головенко М. Я.. Фізико-хімічна фармакологія: Монографія. — Одеса: Астропринт,2004. —720 с.. 2004

Еще по теме ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ:

  1. Расширение поверхностной капиллярной сети
  2. Искусственное вскармливание
  3. Осложнения методов искусственной физико-химической детоксикации
  4. Реферат. Этические проблемы искусственного оплодотворения2017, 2017
  5. РЕФЕРАТ. Микрофагоциты: искусственные иммунные клетки2017, 2017
  6. Глава 38. Экспертиза искусственных и притворных болезней. 38.1. Общие положения
  7. Морфология
  8. Головной мозг
  9. Ламотриджин
  10. Препараты центрального действия (средства, угнетающие сосудодвигательный центр)