Нейронные сети и ...
Нечеткие нейроны
Преобразование, осуществляемое типичным нейроном с двумя входами, имеет вид , где -сигмоидная функция. Для того, чтобы обобщить его, нужно представить себе, что вес нейрона не обязательно должен умножаться на значение соответственного входа, а здесь может быть применена какая-либо другая операция. Далее, суммирование воздействий также может быть заменено неким другим действием. Наконец, вместо сигмоидной функции потенциал нейрона может быть преобразован каким-либо новым способом. В нечеткой логике операция умножения заменяется для булевых переменных операцией И, а для числовых - операцией взятия минимума (min). Операция суммирования заменяется соответственно операциями ИЛИ и взятием максимума (max).
Если осуществить соответствующие замены в преобразовании, осуществляемом знакомым нам нейроном, и положить в нем (линейный выход), то мы получим так называемый нечеткий ИЛИ-нейрон:
Для нечетких нейронов полагается, что значения входов и весов заключены в интервале [0, 1], поэтому и выход нейрона ИЛИ будет принадлежать этому же интервалу.
Используя противоположную подстановку (умножение max), (сложение min ) получим преобразование, характерное для нечеткого И-нейрона:
Извлечение правил if-then
В лекции, посвященной извлечению знаний, мы уже познакомились с нейросетевыми методами извлечения правил из данных. Настало время узнать, как можно извлечь с их помощью нечеткие правила.
Рассмотрим набор нечетких правил
Если есть то есть ,Каждое из них может интерпретироваться как обучающая пара для многослойного персептрона. При этом, условие (x есть ) определяет значение входа, а следствие (y есть ) - значение выхода сети. Полное обучающее множество имеет вид . Заметим, что каждому лингвистическому значению соответствует своя функция принадлежности, так что каждое нечеткое правило определяет связь двух функций.
Если же правила имеют более сложный вид, типа "два входа - один выход":
Если есть и есть то есть то обучающая выборка принимает форму , Существует два основных подхода к реализации нечетких правил типа if-then с помощью многослойных персептронов.В методе Умано и Изавы нечеткое множество представляется конечным числом значений совместимости. Пусть включает носители всех , входящих в обучающую выборку а также носители всех , которые могут быть входами в сети. Предположим также, что включает носители всех , входящих в обучающую выборку, а также носители всех , которые могут быть входами в сети. Положим
Дискретный аналог обучающего множества правил (заменяющее функциональное) имеет вид:
Если теперь ввести обозначения , то можно представить нечеткую нейронную сеть с входными и выходными нейронами ( рисунок 11.3).
Рис. 11.3. Нечеткая нейронная сеть и треугольные функции принадлежности входных и выходных переменных
Пример 1. Предположим, что обучающая выборка включает три правила: : Если город мал, то доход от продажи бриллиантов отрицателен, : Если город средний, то доход от продажи бриллиантов близок к нулю, : Если город велик, то доход от продажи бриллиантов положителен.
Функции принадлежности определим как
(Здесь предполагается, что доход не превышает 100% или 1.0 в относительных величинах)Тогда обучающая выборка принимает форму {(малый, отрицательный), (средний, близок к нулю), (большой, положительный)}
Если носитель множества входов [0, 10 000 000], то для покрытия множества населения городов равномерной сеткой, захватывающей и малые города, понадобится несколько сот точек. Поэтому, ограничимся городами с населением 1 000 000 человек. Тогда можно выбрать . Носитель множества выходов [-1,1] может быть описан набором из . Таким образом, в рассматриваемом случае сеть будет иметь умеренные размеры (например 50 - ... - 5) и 3 пары в обучающем наборе.
В методе Уехары и Фуджицы вместо разбиения равномерной сеткой области, покрывающей носители всех функций принадлежности, равномерно разбивается область изменения этих функций [0,1]. Здесь видна явная аналогия с переходом от интегрирования по Риману к интегралу Лебега. Остальные действия аналогичны уже описанным.