Опубликован: 03.04.2013 | Доступ: свободный | Студентов: 354 / 30 | Длительность: 34:17:00
Специальности: Разработчик аппаратуры
Лекция 6:

Базовые положения теории многофункциональных логических модулей

< Лекция 5 || Лекция 6: 123456 || Лекция 7 >

5.4. Нейроподобная модель универсальных дискретных модулей с ассоциативным управлением по "сходству" и по "отличию"

Введем и исследуем избыточную по управлению формальную модель универсальных дискретных модулей и на ее основе покажем как совместимость перечислительных схем, использующих ассоциации по "сходству" и "отличию", так и гиперкомбинаторную размерность задачи управления одним реальным нейроном.

Каноническая тройка (5.13) обобщает классическую многопороговую модель формального нейрона и исходит из условия (5.15) точной настройки на заданный класс функций (5.2), то есть предполагает фиксированными структурные параметры класса функций (k, <q_{i}>, n).

Функционирование реальных нейронов предполагает не только выбор структурных параметров, но и возможность неточной настройки, как на сам класс, так и на отдельные его функции. В частности, экспериментально показано [112], что установление нового отношения "стимул - реакция" происходит только в том случае, если старое отношение того же типа обеспечивает полезный приспособительный эффект всего в 50 % инструментальных действий животного.

Условие неточной настройки на конкретную F_{\alpha} реализуемо как при точной (5.15) настройке УДМ на класс \{F_{\alpha}\}, так и при неточной (5.16) его настройке. Но в последнем, отвечающем условиям функционирования реального нейрона случае его адаптивные возможности резко возрастают.

Определение 5.2. Произвольная функция \tilde{F}_{\alpha}, случайно выбранная из множества функций \{F_{\alpha}\} типа (5.2), аппроксимирует некоторую функцию \hat{F}_{\alpha} с абсолютной ошибкой \delta, если \tilde{F}_{\alpha}\ne\hat{F}_{\alpha} ровно на \delta (любых) наборах значений ее аргументов ( 0\le\delta\le Q+1 ).

Из определения 5.2 следует, что по отношению к заданной функции \hat{F}_{\alpha} все множество \{F_{\alpha}\} можно разбить на непересекающиеся классы ( \delta -эквивалентности, которое не исключает, а дополняет рассмотренное ранее отношение \chi -эквивалентности.

Аналитическую оценку мощности классов \delta -эквивалентности получим исходя из того, что любая F_{\alpha} из (5.2) представляет собой упорядоченную последовательность \{ f_{s}\} (s = \overline{0,Q}).

Тогда количество всех последовательностей вида (5.2), отличающихся ровно \delta -значениями (в любых s -позициях) от некоторой фиксированной последовательности того же вида, будет [124]:

R[k,<q_{i} >,n,\delta] = (k-1)^{\delta}С^{\delta}_{Q+1}, ( 5.20)

где C_{Q+1} - число сочетаний из Q+1 элементов по \delta.

Из (5.20) и определения 5.2 следует, что количество классов ( \delta -эквивалентности зависит только от мощности множества наборов значений входных аргументов, а количество функций в каждом классе определяется еще и мощностью множества допустимых значений F_{\alpha} типа (5.2). Исключение составляет только ("вырожденный") класс булевых функций ( k =q = const = 2 ), для которого R[2,n, \delta]=C_2^{\delta}*n, то есть количество функций каждого класса определяется биномиальным рядом, который нарушается уже при k = 3 (табл. 5.5).

Таблица 5.5. Распределение ЛФ по классам д-эквивалентности
q n \delta 0 1 2 3 4 5 6 7 8 9
2 1 1 2 1
2 1 4 6 4 1
3 1 1 6 12 8
2 1 18 144 672 2016 4032 5376 4608 2304 512

Нетрудно увидеть, что мощность всего класса функций (5.2) выражается через (5.20)

M_k=\sum_{\delta }{R_{\delta }} ( 5.21)

Перечислительный характер (5.20) и (5.21) следует из необходимости получения всех \delta -разбиений множества наборов значений аргументов.

Если в (5.9-5.11) зафиксирован только способ перечисления F_{\alpha}\in \{F_{\alpha}\}, но не порядок задания \lambda -разбиений, то в (5.20, 5.21) не оговаривается ни первое, ни второе.

Как и в случае МДМ со смешанными информационными и управляющими входами, в (5.21) за основу берется некоторая \hat{F}_{\alpha}, из которой тем или иным способом получаются подклассы \{\tilde{F}_{\alpha}\}, объединение которых и дает весь класс функций типа (5.2). Отличие состоит в том, что ни на выбор "первообразной", ни на множество допустимых преобразований над ней в данном случае не накладывается никаких ограничений.

Рассматривая \hat{F}_{\alpha} типа (5.2) как упорядоченную последовательность значений \{ f_{s}\}, для реализации (5.21) можно использовать алгоритм:

  1. Выполнить все подстановки (k - 1) значения \{b_j\}, отличного от заданного \hat{F}_{\alpha}(X_{n}^0) = \hat{b}_j, зафиксировав значения \hat{F}_{\alpha} над остальными значениями \{X^{s}_n \setminus X^0_n\}.
  2. Восстановить \hat{F}_{\alpha}\{X_{n}) = \hat{b}_{j} и повторить последовательно шаг 1 для остальных X^{s}_n \in \{X^{s}_n\ X_{n}^0\}.
  3. Выполнить шаги 1 и 2 над неупорядоченными двойками, тройками и так далее векторов \{X^{s}_n\} до s = Q.

Этого алгоритма достаточно, чтобы увидеть сходство (5.21) с синтаксическими методами распознавания образов [73, 74, 125, 126], где для классификации используют минимум расстояния между эталонными \hat{F}_{\alpha} и классифицируемыми \{F_{\alpha}\} объектами. Разница состоит в том, что при распознавании образов минимизируют количество вставок, удалений и замещений b_j в \{f_s\} при переходе от классифицируемой F_{\alpha} к одному из эталонов \{\tilde{F}_{\alpha}\} или наоборот.

Таким образом, если каноническая система (5.13) обобщает перцеп-тронную модель распознавания образов [72], в которой классификация выполняется по минимуму "аналитического" или "статистического" расстояния, то при распознавании образов на основе (5.21) используется минимум "синтаксического" расстояния, измеряемого количеством подстановок символов b_j в упорядоченную последовательность \{ f_{s}\} [126].

Система (5.13) использует ассоциацию по сходству управляющих воздействий, приводящих к фиксированному \lambda -разбиению \{X^{s}_n\} на эквизначные подмножества, в то время как (5.21) базируется на ассоциации по отличию (контрасту) \delta -разбиений \{X^{s}_n\}, а при использовании этих преобразований в системах распознавания образов к ним добавляется третья Аристотелева ассоциация - по близости [115].

Для реализации приведенного алгоритма отображения \hat{F}_{\alpha}\to \{\tilde{F}_{\alpha}\}_{\delta} достаточно минимально избыточной модели УДМ (5.19), где вся адаптация сосредоточена в выходном контуре (рис. 5.7), реализующем размещения A^{\gamma}_{Q+1} с повторениями \gamma значений \hat{F}_{\alpha} над одноэлементными подмножествами \{X_{n}^{s(i)}\} с фиксированным по s(i) порядком их перечисления (рис. 5.9-а).

В более общем случае (рис. 5.9-б) \delta -аппроксиматор реализует (5.21) за счет флуктуации правил перестановки, разбиения и подстановки в канонической тройке (5.13).

В этом случае настройка (5.13) на заданную \hat{F}_{\alpha} выполняется векторами Е_s, Е_{d}, Е_{k}, а отображение \hat{F}_{\alpha}\to\{\tilde{F}_{\alpha}\} - модификацией правила \delta -аппроксимации.

Таким образом, в схеме УДМ рис. 5.9-а и 5.9-б используется и основанный на 1-разбиениях механизм структурно-функциональной адаптации типа (5.13), и основанный на \delta -разбиениях флуктуационный механизм адаптации типа (5.21).

Минимальная абсолютная избыточность по управлению УДМ рис. 5.9-б по отношению к УДМ рис. 5.7

\Delta J = (М_{k} -1)*k^{Q+1} = (k^{Q+1}-1)*k^{Q+1}, ( 5.22)

что для технических систем является непозволительной роскошью, которую устраняют еще на этапе синтеза средств управления.

В реальных нейронах схемы адаптации (5.13) и (5.21) по объективным причинам сосуществуют [127], и поэтому УДМ рис. 5.9-б можно рассматривать как абстрактный нейрон, для которого выражения (5.11) и (5.13) имеют вид:

\sum_{\delta}{\sum_{\gamma}{\sum_{\lambda}{\cfrac{(Q+1)!k!(Q+1)!(k-1)^{\delta}}
{\prod_j{r_j^{\lambda}!} \prod_m{\rho_m^{\lambda}!}(k-\gamma)!(Q+1-\delta)!\delta!}}}} ( 5.23)
[(K*G^2):( \Lambda*G_{\delta}*\Omega)]*P_{k-1}^{\delta} ( 5.24)

где G^{2} = G*G - прямое произведение групп G мощности |G| = (Q+1)!;

G_{\delta} - группа перестановок мощности |G_{\delta} | = (Q+1-d)!;

\Omega - группа перестановок мощности | \Omega | =\delta!;

Р_{k-1}^{\delta} - декартово \delta -произведение, заданное на входном алфавите \{b_j\}_{\delta} (с исключением \hat{b}_j );

(K*G^{2}) и (\Lambda*G_{\delta}*\Omega) - прямое произведение соответствующих групп.

Соотношения (5.23) и (5.24) следуют из независимого использования и полноты каждого из механизмов (5.13) и (5.21).

В реальных нейронах могут сосуществовать не только разнотипные схемы адаптации, но и разные по биофизической и биохимической природе механизмы реализации одних и тех же формально-логических преобразований, что создает еще один невоспроизводимый в микроэлектронике тип функциональной избыточности.

В частности, на постсинаптической мембране реальных нейронов благодаря наличию "индифферентных" наборов значений входных переменных (мощности \delta!) имеется принципиальная возможность произвольного размещения "активных" наборов значений входных переменных \{X^{s}_n\} на допустимом (морфологическом) множестве наборов \{Y ^{s}_m\}, где | \{X^{s}_n\} | = Q_x+1 ; |\{Y ^{s}_m\}| = Q_y +1 ; Q_y - Q_x =\delta > 0.

Обобщенные структурно-функциональные схемы универсальных модулей

увеличить изображение
Рис. 5.9. Обобщенные структурно-функциональные схемы универсальных модулей

Тогда постсинаптический интерпретатор наборов значений входных переменных (рис. 5.9-в) дублирует одно из преобразований \delta -аппроксиматора, так как

C_{Q_y+1}^{Q_x+1}= C_{Q+1}^{\delta}=\cfrac{(Q_y+1)!}{(Q_x+1)!\delta !} ( 5.25)

С учетом (5.25) для УДМ рис. 5.9-в выражения (5.23) и (5.24) принимают вид:

\sum_{\delta}{\sum_{\gamma}{\sum_{\lambda}{\cfrac{(Q_y+1)!k!(Q_y+1)!(k-1)^{\delta}}
{\prod_j{r_j^{\lambda}!} \prod_m{\rho_m^{\lambda}!}(k-\gamma)!(Q_x+1-\delta)!(\delta!)^2}}}} \ge (k^{Q+1})^2 ( 5.26)
[(K*G^2_y):( \Lambda*G_{x}*\Omega^2)]*P_{k-1}^{\delta} ( 5.27)

Если функционирование реальных нейронов ограничить булевым алфавитом ( q_i = k = 2 ), то и в этом случае из-за большого количества его входов ( m = 10^{3}-10^{4} ) в левой части (5.26) получаются гиперкомбинаторные цифры. Они подтверждают хорошо известные нейрофизиологические данные [25, 128] о роли и месте механизмов эволюции, роста и развития организмов, "управляющего" влияния мотивации, обстановки, опыта и внутреннего состояния организма, влияние которых приводит к более или менее однозначному поведению нейрона (в смысле отображения состояния его входов в выходную реакцию).

Таким образом, введя в каноническую систему (5.13) преобразований УДМ только два типа нейроизбыточности (по управлению и по реализации преобразований), удалось показать:

  1. Функционирование и адаптация реальных нейронов, а тем более нейронных ансамблей, осуществляется на основе колоссальной избыточности по управлению, которая не достижима методами и средствами одной микроэлектроники даже с учетом перспектив ее развития.
  2. В реальных нейронах зафиксировать F_{\alpha} или полностью устранить неоднозначность в отображении "вход-выход", задав вектор управления в (5.24), гораздо "сложнее", чем реализовать это отображение, так как здесь мощность пространства состояний управляющих (перечисляющих) векторов гораздо больше мощности множества реализуемых (вычисляемых) функций.
  3. Функционирование систем распознавания образов синтаксического типа базируется на флуктуационных механизмах "перечисления" реали-зуемых ими отображений "вход-выход", а систем распознавания классического (статистического типа) - на структурно-функциональных механизмах, причем в первых фактически используется ассоциация по "отличию", а во вторых - "по сходству", но само распознавание выполняется по "близости", определяемой минимумом некоторого расстояния.
  4. Флуктуационные и структурно-функциональные механизмы адаптации МДМ совместны по используемым преобразованиям, изменяя в них только тип ассоциативного перечисления отображений "вход-выход".
< Лекция 5 || Лекция 6: 123456 || Лекция 7 >