Властивості операцій над нечіткими множинами. Обмеження моделі нейрона

Нечітка логікаі
нейронні мережі

Термін "нечітка логіка"

Термін "нечітка логіка"
У вузькому значенні,
нечітка логіка - це логічне обчислення,
є розширенням багатозначної
логіки.
В широкому сенсі
нечітка логіка рівнозначна теорії нечітких
множин.

Засновник

Вперше термін
нечітка логіка
(fuzzy logic) був
введено
американським
професором
Лотфі Заде у 1965
року у роботі
“Нечіткі
множини” в
журналі
“Інформатика та
управління”.
Народився в Баку, Азербайджан як Лотфі.
Алескерзаде (або Аскер Заде) від російської
матері та батька азербайджанця іранського
походження; з 1932 року жив в Ірані,
навчався Тегеранському університеті; з 1944 у
Сполучені Штати; працює в
Каліфорнійський університет (Берклі).

приклад

У лютому 1991 року була
сконструйовано першу
<интеллектуальная>
пральна машина,
системі управління якої
поєднувалися нечітка логіка.
Автоматично визначаючи
нечіткі вхідні фактори:
об'єм та якість білизни,
рівень забрудненості,
тип порошку і т.д.),
пральна машина
вибирала оптимальний
режим прання з 3800
можливих.

Розпізнавання рукописних символів у кишенькових комп'ютерах
(записних книжках)
(Sony)
Однокнопкове керування пральними машинами
(Matsushita, Hitatchi)
Розпізнавання рукописних текстів, об'єктів, голосів
(CSK, Hitachi, Hosai Univ., Ricoh)
Управління метрополітенами для підвищення зручності
водіння, точності зупинки та економії енергії (Hitachi)
Оптимізація споживання бензину в автомобілях
(NOK, Nippon Denki Tools)
Підвищення чутливості та ефективності управління
ліфтами
(Fujitec, Hitachi, Toshiba)

Приклади застосування нечіткої логіки:

Автоматичне керування воротами греблі на
гідроелектростанціях
Спрощене керування роботами
Наведення телекамер під час трансляції спортивних подій
Ефективне та стабільне керування автомобільними
двигунами
Управління економічною швидкістю автомобілів
(Nissan, Subaru)
Оптимізоване планування автобусних розкладів (Toshiba)
Системи архівації документів
(Mitsubishi Elec.)
Системи прогнозування землетрусів (Japan)
Діагностика раку
(Kawasaki Medical School)

Нечітка безліч

Основи нечіткої логіки були закладені в кінці 60-х років
роботах відомого американського математика
Латфі Заде
Нехай E – універсальна множина, x – елемент E, а R –
певну властивість.
Тоді нечітка підмножина A універсальної множини E
визначається як безліч упорядкованої пари
,
A (A(x)/x)
A(x)
де
характеристична функціяприладдя
(або просто функція приналежності), що приймає
значення в деякій упорядкованій множині M
(Наприклад, M = ).
Функція приладдя вказує ступінь (або рівень)
приналежності елемента x до підмножини A.
18

Приклади запису нечіткої множини

Нехай Е = (x1, x2, x3, x4, x5), M =; A – елемент
множини, для якої
A (x1) 0,2 A (x2) 0 A (x3) 0,4 A (x4) 1 A (x5) 0,7
1)
2)
3)
Тоді A можна подати у вигляді:
А=(0,2/x1;0/x2;0,4/x3;1/x4;0.7/x5),
A=(0,2/x1+0/x2+0,4/x3+1/x4+0,7/x5),
А =
x1
x2 x3
x4 x5
0,2
0
0,4
1
0,7

Приклад нечіткої множини

Основні характеристики нечітких множин

Нехай М = та А - нечітка безлічз елементами з
універсальної множини Е та безліччю
приладдя М.
sup A(x)
Висота:
.
x E
A(x) 1
Якщо sup
, то нечітка множина А нормально.
x E
sup A(x) 1
Якщо x E
, то нечітка множина А
субнормально.
20

Нечітка множина порожня, якщо x E A (x) 0
Непорожня субнормальна множина можна
нормалізувати за формулою: A(x): A(x)
.
sup A(x)
x E
Нечітка множина унімодальна, якщо A (x) 1
тільки в одному х з E.
Носієм нечіткої множини A є звичайне
підмножина з властивістю A (x) 0 , тобто A (x / x E , A (x) 0)
Елементи x E , для яких A (x) 0,5 ,
називаються точками переходу множини A.
-рівневе підмножина А це безліч в
якому
Приклад:
"Кілька" = 0,5/3+0,8/4+1/5+1/6+0,8/7+0,5/8; його
Показники: висота = 1, носій = (3,4,5,6,7,8),
точки переходу – (3,8).

Лінгвістична змінна «Вік»

Нехай перед нами стоїть завдання інтерпретації значень ЛП «вік», таких як «молодий»
вік, "похилий" вік або "перехідний" вік. Визначимо "вік" як ЛП.
Тоді «молодий», «похилий», «перехідний» будуть значеннями цієї лінгвістичної
змінної. Більше повний базовий набір значень ЛП «вік» наступний:
В = (дитячий, дитячий, юний, молодий, зрілий, похилий, старечий).
Для ЛП «вік» базова шкала – це числова шкала від 0 до 120, що позначає
кількість прожитих років, а функція приналежності визначає, наскільки ми впевнені у
тому, що цю кількість років можна віднести до цієї категорії віку.
02:09
12

Характеристики нечітких множин

Методи визначення функції
приладдя
Прямі (опитування експертів)
Непрямі (парні порівняння)
L-R – функції

Методи визначення функції власності

L-R нечіткічисла

L-R нечіткі числа

.
Операції над нечіткими множинами
Логічні операції
1. Увімкнення. Нехай А і В – нечіткі множини на універсальному
множині Е. Тоді А міститься в, якщо x E A (x) B (x)
Позначення: A B
2. Рівність. А та В рівні, якщо x E A (x) B (x) Позначення: А = В
3. Доповнення. Нехай М = , А і В – нечіткі множини, задані на
Е. А та В доповнюють один одного, якщо x E A (x) 1 B (x)
Позначення: B A
4. Перетин - найбільше нечітке підмножина, що містить
одночасно А і (A B): A B (x) min(A (x), B (x))
5. Об'єднання – найменша нечітка підмножина,
що включає як А, так і В з функцією приналежності (A B):
A B (x) max(A (x), B (x))
6. Різниця - операція з функцією приналежності (A B A B):
A B (x) A B (x) min(A (x), 1 B (x))
7. Диз'юнктивна сума - логічна операціяз функцією
приладдя (AB) (AB) (AB) (AB)):
A B (x) max(min(A (x), 1 B (x)); min(1 A (x), B (x)))

Операції над нечіткими множинами

приклад
Нехай A нечіткий інтервал від 5 до 8 та B
нечітке число близько 4

приклад

Перетин нечітка множина між 5
та 8 І (AND) близько 4 (синя лінія).

Об'єднання Нечітка множина між
5 і 8 АБО (OR) близько 4

Доповнення (заперечення) сенс НЕ

Концентрація
Лінгвістичний сенс «дуже»

Розмивання (або розмиття)
Лінгвістичний сенс
"не дуже"

Посилення чи ослаблення
лінгвістичних понять
Посилення чи ослаблення лінгвістичних понять досягається
запровадженням спеціальних квантифікаторів. Наприклад, якщо
поняття «старечий вік» визначається як
то поняття «дуже старечий вік» визначиться як
тобто НМ для «дуже старечий вік» виглядатиме так

Посилення чи ослаблення лінгвістичних понять

приклад

приклад

Трикутні норми та
конорми
Трикутна норма
Трикутна конорма

Трикутні норми та конорми

Алгебраїчні операції
1. Алгебраїчний твір А та В позначається
A B
і визначається так:
x E A B (x) A (x) B (x)
2. Алгебраїчна сумацих множин позначається A
ˆB
і визначається так:
x E A ˆ B (x) A (x) B (x) A (x) B (x)
На основі операції алгебраїчного твору визначається
операція зведення в ступінь α нечіткої множини,
де α -
A
додатне число. Нечітка безліч
визначається
функцією приналежності (x.)
A
A
Окремим випадком зведення у ступінь є такі.
3. Операція концентрування (ущільнення) CON(A) A2
4. Операція розтягування DIL(A) A
0.5
5. Множення на число. Якщо α – позитивне число, таке що
max A (x) 1 , то нечітка множина αА має функцію
x A
приладдя:
A(x) A(x)

Приклад застосування
трикутних норм та конорм

Приклад застосування трикутних норм та конорм

Нечітка і
лінгвістична
змінні. Нечіткі
числа
Нечітка логіка та
нейронні мережі

Нечіткі стосунки.

Визначення нечіткої
зміною

Приклад нечіткого відношення

Приклад: нечітка змінна
"високий зріст"
Х – «високе зростання» (найменування
змінної),
U = ,
– функція власності
елементів з універса X даної
нечіткої змінної.
Пояснення: Нечітка змінна – іменована нечітка множина

Приклад подання 1

Визначення лінгвістичної
змінної

Приклад подання 2

Приклад: ЛП "температура в кімнаті"
β = «температура в кімнаті» – ім'я лінгвістичної змінної;
U = - Універс визначення;
T = ("холодно", "комфортно", "жарко") - базова терм-множина;
G - синтаксичні правила, що породжує нові терми з використанням
квантифікаторів "і", "або", "не", "дуже", "менш-менш";
М - процедура, що ставить кожному новому терму у відповідність
функцію приналежності (тобто задаючи нечітку множину) за правилами:
якщо терми А та В мали функції приналежності μа(x) та μB(x)
відповідно, нові терми матимуть функції приналежності:
Квантифікатор
Функція приладдя:
не t
дуже t
більш-менш t
АіВ
max(μA(x), μB(x))
А чи В
min(μA(x), μB(x))

Модель "Ринок-Продукція"

Приклад: ЛП «дисципліна»
β – дисципліна;
Т – («Складна дисципліна», «Цікава
дисципліна», «Нагоді у майбутній роботі»);
U = [«Програмування», «Бази даних»,
«Нечітка логіка», «Історія»] – безліч
дисциплін, що вивчаються студентами напряму
"Бізнес Інформатика";
G – процедура перебору елементів базової термомножини;
M – процедура експертного опитування.

Операції над нечіткими відносинами

Приклад: товщина деталі
Нехай експерт визначає товщину виробу за допомогою
понять «мала товщина», «середня товщина» та «велика товщина»,
при цьому мінімальна товщина дорівнює 10 мм, а максимальна – 80 мм.
Формалізація такого опису може бути проведена за допомогою
наступною лінгвістичною змінною< β, T, X, G, M>, де
β – товщина виробу;
T – («мала товщина», «середня товщина», «велика товщина»);
U =;
G – процедура утворення нових термів за допомогою зв'язок і, або
модифікаторів типу дуже, не, злегка та ін. Наприклад: «мала або
середня товщина» (рис. 24), «дуже мала товщина» та ін;
М - процедура завдання на X = нечітких підмножин
А1 = "мала товщина", А2 = "середня товщина", А3 = "велика
товщина», а також нечітких множин для термів з G(T) відповідно
з правилами трансляції нечітких зв'язок та модифікаторів і, або, не,
дуже, злегка та ін.

Операції над нечіткими відносинами

Приклад: товщина деталі
Функції приналежності нечітких множин:
"мала товщина" = А1, "середня товщина" = А2, "велика товщина" = А3
Функція приладдя
нечіткої множини «мала або середня товщина» = А1 U А1

Приклад поєднання нечітких відносин

Види ЛП
ЛП
Дисципліна
Швидкість
Гравець
команди
Розмір
Вік
Числові
Нечислові
Банк

Приклад перетину нечітких відносин

Нечіткі числа
Нечіткі числа – нечіткі змінні, визначені числової осі, тобто. нечітке
число визначається як нечітка множина А на множині R c функцією
приладдя
Нечітке число - це нечітке підмножина універсальної множини
дійсних чисел, що має нормальну та опуклу функцію
приналежності, тобто таку, що:
а) існує значення носія, в якому функція приналежності дорівнює одиниці,
а також
b) при відступі від свого максимуму ліворуч або праворуч функція приналежності не
зростає.
Приклад:
"Товщина" (Т = ("мала товщина", "середня товщина", "велика товщина"))
Можливі значення, що залежать від області визначення U: даному випадкузначення
лінгвістичної змінної «товщина виробу» можуть бути визначені як
"близько 20 мм", "близько 50 мм", "близько 70 мм", тобто у вигляді нечітких чисел.

Приклади композицій

Операції над нечіткими
числами

Приклади композицій

L-R нечіткі числа

Композиція двох нечітких відносин

L-R нечіткі числа

Вибір кандидатів на навчання

L-R нечіткі числа
Толерантні нечіткі числа (L-R)-типу називають трапезоїдними
числами.
Якщо ми оцінюємо параметр якісно, ​​наприклад, кажучи: Це значення
параметра є середнім", необхідно ввести уточнююче
висловлювання типу "Середнє значення - це приблизно від a до b",
яке є предмет експертної оцінки(нечіткої класифікації), та
тоді можна використовувати для моделювання нечітких класифікацій
трапезоїдні числа.
!!! це самий природний спосібневпевненої класифікації.
Унімодальні нечіткі числа (L-R)-типу називають трикутними
числами.
Трикутні числа формалізують висловлювання типу "приблизно
одно α". Зрозуміло, що α+σ≈α, причому в міру спадання σ до нуля ступінь
впевненість у оцінці зростає до одиниці.

Нечіткий висновок
Нечітка логіка та
нейронні мережі

Нечітка і лінгвістична змінні. Нечіткі числа


y Y
X
Фаззифікатор
A X
Блок нечіткого
логічного
висновку
Нечітка база
правил
B Y
Дефаззифікатор

Визначення нечіткою зміною


моделі
Логіко-лінгвістичні методи опису систем засновані на тому, що
поведінка досліджуваної системи описується в природному
(або близькою до природної) мови у термінах лінгвістичних змінних.
L1: Якщо та/або … та/або то та/або… та/або
L2: Якщо та/або … та/або то та/або… та/або
....................
Lk: Якщо та/або … та/або то та/або… та/або
Нечіткі висловлювання типів 1 та 2

Приклад: нечітка змінна «високе зростання»

Логіко-лінгвістичний опис систем, нечіткі
моделі
L1: якщо то
L2: якщо то


....................
Lk: якщо то

Нечіткі висловлювання типу 3
Сукупність імплікацій (L1, L2, ..., Lk) відбиває функціональну
взаємозв'язок вхідних та вихідних змінних і є основою
побудови нечіткого відношення XRY, заданого на творі X x Y
універсальних множин вхідних та вихідних змінних.
Відношення R будується як
L.
i
i

Визначення лінгвістичної змінної


Лінгвістичні змінні
Зростання баскетболіста

Безліч термів - (дуже високий, високий, середній, низький)
Техніка гри баскетболіста

Безліч термів - (відмінна, дуже хороша, хороша, середня, погана)
Впевненість прийняття до команди
Безліч визначення –
Безліч термів - (повна, середня, мала, не беремо)

Система "Набір баскетболістів"
Зростання баскетболіста
Безліч визначення –
Дуже високий
середній
високий
низький

Приклад: ЛП «дисципліна»

Система "Набір баскетболістів"
Техніка гри баскетболіста
Безліч визначення –
відмінна
дуже хороша
гарна
середня
погана

Приклад: товщина деталі

Система "Набір баскетболістів"
Впевненість прийняття до команди
Безліч визначення –
повна
середня
мала
не беремо

Приклад: товщина деталі

Система "Набір баскетболістів"- Правила
Вхідні лінгвістичні змінні
Вихідна ЛП
Техніка гри
Зростання гравця
Впевненість відбору
Відмінно
Дуже високий
Повна
Відмінно
Високий
Повна
Відмінно
Не дуже високий
Середня
Відмінно
Низький
Середня
Дуже добре
Дуже високий
Повна
Дуже добре
Високий
Повна
Дуже добре
Не дуже високий
Середня
Дуже добре
Низький
Середня
добре
Дуже високий
Повна
добре
Високий
Повна
добре
Не дуже високий
Середня
добре
Низький
Мала
Не дуже добре
Дуже високий
Середня
Не дуже добре
Високий
Середня
Не дуже добре
Не дуже високий
Мала
Не дуже добре
Низький
Не беремо
Погано
Дуже високий
Мала
Погано
Високий
Мала
Погано
Не дуже високий
Мала

Види ЛП

Схеми нечіткого висновку
Схема 1: Алгоритм Мамдані (Mamdani). Імплікація
моделюється мінімумом, а агрегація – максимумом.
Схема 2: Алгоритм Цукамото (Tsukamoto). Вихідні
посилки - як у попереднього алгоритму, але
передбачається, що функції приладдя є
монотонними.
Схема 3. Алгоритм Суджено (Sugeno). Алгоритм
передбачає, що праві частини правил виведення
представлені у вигляді лінійних функцій.
Схема 4. Алгоритм Ларсена (Larsen). В алгоритмі Ларсена
нечітка імплікація моделюється з використанням
операції множення.
Схема 5. Спрощений алгоритм нечіткого виведення.
Вихідні правила у разі задаються як:
Якщо X є Аi та Y є Bi , то z = Zi, де Zi – чітке значення.

Нечіткі числа

Алгоритм Мамдані
Нехай деяка система описується такими
нечіткими правилами:
П1: якщо x є A, тоді w є D,
П2: якщо y є B, тоді w є E,
П3: якщо z є C, тоді w є F,
де x, y, z – імена вхідних змінних, w – ім'я
змінної виведення, а A, B, C, D, E, F – задані
функції приналежності (трикутної форми).
Передбачається, що вхідні змінні прийняли
деякі конкретні (чіткі) значення x0, y0, z0.
15

Операції над нечіткими числами

Алгоритм Мамдані
Етап 1. Для даних значень та виходячи з функцій приналежності A, B,
C, знаходяться ступеня істинності α(x0), α(y0), α(z0) для передумов
кожного із трьох наведених правил.
Етап 2. Відбувається «відсікання» функцій належності висновків
правил (тобто D, E, F) на рівнях α(x0), α(y0), α(z0).
Етап 3. Розглядаються усічені на другому етапі функції
приналежності та провадиться їх об'єднання з використанням
операції max, в результаті чого виходить комбіноване нечітке
підмножина, що описується функцією приналежності μ∑(w) та
відповідне логічного висновкудля вихідної змінної w.
Етап 4 (за потреби). Знаходиться точне значення вихідний
змінної, наприклад, із застосуванням центроїдного методу: чітке
значення вихідний змінної визначається як центр тяжіння для
кривою μ∑(w):
w0
w
(w) dw
(w) dw
16

L-R нечіткі числа

Алгоритм Мамдані
w0
w
(w) dw
(w) dw
17

L-R нечіткі числа

Приведення до чіткості
(скаляризація)

L-R нечіткі числа

Приведення до чіткості
(скаляризація)

Нечіткий висновок

Алгоритм Ларсена

Нечітке (логіко-лінгвістичне) моделювання

Завдання про управління
кондиціонером
Правила:

Завдання про управління
кондиціонером

Логіко-лінгвістичний опис систем, нечіткі моделі

Завдання про управління
кондиціонером

Система "Набір баскетболістів"

Алгоритм Цукамото

Алгоритм Суджено та Такажі

Схеми нечіткого висновку

Алгоритм спрощеного вибору

Алгоритм Мамдані

Алгоритм спрощеного вибору

Алгоритм Мамдані

Дякую за увагу!
Успіхів!

Алгоритм Мамдані

Нейрони та нейронні
мережі
Нечітка логіка та
нейронні мережі

Нейронні мережі…
- розділ штучного інтелекту, в
якому для обробки сигналів
використовуються явища, аналогічні
тим, що відбувається в нейронах живих
істот.
Апроксимація
Прогнозування
Асоціативне управління
Ідентифікація та оцінювання
Класифікація та розпізнавання образів
86

Приведення до чіткості (скаляризація)

Завдання, успішно
розв'язувані нейромережами
розпізнавання зорових,
слухових образів;
асоціативний пошук
інформації та створення
асоціативних моделей; синтез
мови; формування
природної мови;
формування моделей та
різних нелінійних і важко
описуваних математично
систем, прогнозування
розвитку цих систем у
часу:
застосування з виробництва;
прогнозування розвитку
циклонів та інших природних
процесів, прогнозування
змін курсів валют та інших
фінансових процесів;
системи управління та
регулювання з
передбачення; управління
роботами, іншими складними
пристроями
різноманітні кінцеві
автомати: системи масового
обслуговування та комутації,
телекомунікаційні
системи;
прийняття рішень та
діагностика, що виключають
логічний висновок; особливо в
областях, де відсутні
чіткі математичні
моделі: в медицині,
криміналістиці, фінансовій
сфери.
87

Алгоритм Ларсена

Сфери знань
88

Нейрокомп'ютер.
- програмно-технічна система (її
також можна назвати спеціалізованою
ЕОМ), яка реалізує, або, як
кажуть, забезпечує деяку
формальну модель природної
нейронної мережі.
Програмування нейрокомп'ютерів
здійснюється не завданням послідовності
команд, а пред'явленням зразків, прикладів
вирішення завдань із потрібної галузі
89

Завдання про керування кондиціонером

40-ті
50-ті
60-ті
передумови
70-ті
Нові знання про мозок
Розвиток мікроелектроніки та
КТ => технічна база
Недосконалість
існуючих ІІС
спад через технічні
складнощів реалізації, розвитку
символьне програмування
5000 фахівців,
> 100 компаній
Публікація Хопфілда:
Модель Хебба ~ клас
фізичних систем
3)
1)
2)
Розенблатом та Віндроу
створений персептрон пристрій для
розпізнавання образів
концепція клітинних
ансамблів Хебба (Канада)
перші спроби розробки ІІС
на основі нервових клітин
Рівень інтересу
Історія нейрокомп'ютера
80-ті
Міжнародні
конференції з
нейромереж (Neural
Information Processing
Systems та ін),
спеціалізовані
журнали (Neural
Networks,
NeuroComputers та ін.)
1996
серійний випуск та експлуатація
заснованих на нейромережевій
технології прикладних систем
90-ті
ХХI століття
90

Деякі відомості про мозок
Найскладніша з відомих системпереробки інформації.
У ньому міститься близько 100 млрд.
нейронів, кожен з яких має в
в середньому 100 тис. зв'язків.
Надійний: функціонує при втраті
(відмирання) нейронів
Обробка величезних обсягів
інформації здійснюється за частки
секунди, незважаючи на те, що час
реакції нейрона кілька
мілісекунд.
Добре вивчено структуру та функції окремих нейронів
Є деякі дані про організацію внутрішніх та зовнішніх
зв'язків між нейронами деяких структурних
утворень мозку
Мало відомо про участь різних структуру процесах
переробки інформації.
91

Біологічний нейрон
92

Нервовий імпульс
- процес поширення
збудження по аксону від тіла
клітини (аксонного пагорба) до
закінчення аксона.
- основна одиниця інформації,
що передається по волокну.
… передається у вигляді стрибків
потенціалу внутрішньоклітинного середовища
по відношенню до зовнішнього середовища,
навколишньої клітини зі швидкістю від
1 до 100 м/с.
Рефрактерність – відсутність збудливості нервової клітини
після попереднього збудження.
Період рефрактерності – мінімальний інтервал часу
між нервовими імпульсами(10-4. 10-3 с)
93

Алгоритм Цукамото

Мембрана
Забезпечує
проведення
нервових
імпульсів по
волокну
Товщина
мембрани
близько 10 нм
Міра збудження клітини = рівень поляризації
її мембрани, що залежить від сумарного
кількості нейромедіатора (хімічної
субстанції), виділеної усім синапсах.
94

Нейроподібний елемент (НПЕ)
або формальний нейрон
Модель фізичний нейрон.
НПЕ складається з виваженого суматора і
нелінійний елемент. Функціонування
визначається формулами:
і
де xi – вхідні сигнали, сукупність xi утворює вектор Х;
wi - вагові коефіцієнти, сукупність wi утворює вектор ваг W;
NET - виважена сума вхідних сигналів, значення NET передається на
нелінійний елемент;
Θ - пороговий рівень даного нейрона;
F - нелінійна функція, що називається функцією активації.
НПЕ має кілька вхідних сигналів x і один вихідний сигнал OUT.
Параметри НПЕ: вектор ваг W, пороговий рівень Θ та вид функції
активації F.
95

Алгоритм Суджено та Такажі

Принцип роботи НПЕ
1. На НПЕ надходить вхідний вектор X, що представляє
собою вихідні сигнали інших НПЕ
Цей вхідний сигнал відповідає сигналам, що надходять у
синапси біологічних нейронів
2. Кожен вхідний сигнал множиться на відповідний
вага w1, w2, ... wn - аналог ефективності сигналу.
Вага є скалярною величиноюпозитивною для
збудливих та негативних для гальмівних зв'язків.
3. Зважені вагами зв'язків вхідні сигнали надходять на
блок підсумовування, що відповідає тілу клітини, де
здійснюється їх алгебраїчне підсумовування та
визначається рівень збудження НПЕ.
4. Вихідний сигнал нейрона y визначається шляхом
пропускання рівня збудження через активацію.
96

Алгоритм спрощеного вибору

Види функцій
активації F

Алгоритм спрощеного вибору

Жорстка сходинка та
Жорстка
сходинка сходинка
полога
Полога сходинка
+ Проста;
+ Реалізація вимагає малих витрат;
-не дозволяє моделювати схеми
з безперервними сигналами;
- Утруднено навчання нейромереж.
+ легко розраховується;
+ Навчання утруднене.
98

Гіперболічний тангенс
Логістична функція
та функція Фермі
(функція Фермі)
Гіперболічний тангенс
* застосовується для мереж з
безперервними сигналами;
+ Легке навчання.
* використовується для
багатошарових персептронів;
+ Широкий діапазон сигналів;
+ Легке навчання.
99

Нейрони та нейронні мережі

Особливі функціїактивації
експонента
SOFTMAX-функція (виходи ймовірності)
Лінійна функція (не потрібна
послідовне з'єднання шарів
Гауссова крива (реакція НПЕ
має бути максимальна для
деякого значення)
100

Нейронні мережі…

Вибір функції активації
визначається…
1. специфікою завдання.
2. зручністю реалізації на ЕОМ, як
електричної схеми чи іншим способом.
3. алгоритм навчання: деякі
алгоритми накладають обмеження на
вид функції активації, їх потрібно
враховувати.
Найчастіше вид нелінійності не має принципового
впливу рішення завдання. Однак вдалий вибір може
скоротити час навчання у кілька разів
101

Завдання, що успішно вирішуються нейромережами

Обмеження моделі нейрона
Обчислення виходу нейрона
передбачаються
миттєвими, які не вносять
затримки.
У моделі відсутні
нервові імпульси.
Немає модуляції рівня
сигналу щільністю
імпульсів, як у нервовій
системі.
Не з'являються ефекти
синхронізації, коли
скупчення нейронів
обробляють інформацію
синхронно, під керуванням
періодичних хвиль
збудження-гальмування.
Немає чітких алгоритмів для
вибору функції активації.
Немає механізмів, що регулюють
роботу мережі в цілому (приклад гормональне регулювання
активності в біологічних
нервових мережах).
Надмірна формалізація
понять: "поріг", "вагові
коефіцієнти".
Не підтримується
різноманіття синапсів.
Гальмівні та збуджуючі
синапси реалізуються в даній
моделі у вигляді вагових
коефіцієнтів
протилежного знака, але це
далеко не всі види.
У моделі не простежується
різницю між градуальними
потенціалами та нервовими
імпульсами.
102

Сфери знань

Нейроподібна мережа
- сукупність нейроподібних елементів,
певним чином з'єднаних друг
з другом та із зовнішнім середовищем.
Вхідний вектор (кодуючий вхідний вплив або образ
зовнішнього середовища) подається на мережу шляхом активації вхідних
нейроподібних елементів.
Безліч вихідних сигналів нейронної мережі y1, y2,..., yn
називається вектором вихідної активності, або патерном
активності нейронної мережі.
103

Нейрокомп'ютер.

Особливості архітектури
нейромережі
топологія міжнейронних зв'язків;
вибір певної підмножиниНПЕ для
введення та виведення інформації;
наявність чи відсутність конкуренції;
напрям і спосіб управління та
синхронізації інформаційних потоківміж
нейронами
зумовлюють конкретний виглядвиконуваного
мережею перетворення інформації
104

Історія нейрокомп'ютера

Штучні нейронні
мережі
105

Деякі відомості про мозок

Найважливіші властивості
біологічних нейромереж
Здатність до повної обробки
інформації: асоціативність
(Мережа може відновлювати
повний образ з його частини),
здатність до класифікації,
узагальнення, абстрагування та
безліч інших.
Надійність. Біологічні НС
мають фантастичну
надійністю: вихід з ладу
навіть 10% нейронів у нервовій
системі не перериває її
роботи. Порівняно з
послідовними ЕОМ,
заснованими на принципах фону
Неймана, де збій одного осередку
пам'яті або одного вузла в
апаратурі призводить до краху
системи.
Паралельність обробки
інформації.
Самоорганізація. В процесі
роботи біологічні НС
самостійно, під
впливом зовнішньої
середовища, навчаються рішенню
різноманітних завдань.
Невідомо жодних
важливих обмежень
на складність завдань,
вирішуваних біологічними
нейронними мережами. Нервова
система сама формує
алгоритми своєї
діяльності, уточнюючи та
ускладнюючи їх протягом життя.
Біологічні НС є
аналоговими системами
106

Біологічний нейрон

Підходи до створення
нейронних мереж
Інформаційний підхід: байдуже, які
механізми лежать в основі роботи штучних
нейронних мереж, важливо лише, щоб при вирішенні
завдань інформаційні процесив СР були
подібні до біологічних.
Біологічний підхід: при моделюванні важливо
повна біоподібність, і необхідно детально
вивчати роботу біологічного нейрона
Великі роботи в біологічних дослідженнях
нейронних мереж належать Ендрю Хакслі, Алану
Ходжкіну, Бернарду Катцу, Джону Екклзу, Стівену
Куффлеру та ін.
108

Нервовий імпульс

Методи дослідження
нейроподібних мереж
Метод
Особливості
аналітичне
дослідження
- складність через велику кількість НПЕ
+ цікаві аналітичні результатиотримані
для багатьох моделей нейроподібних мереж
математичне
(імітаційне
моделювання)
+ дає можливість створити практично будь-які
моделі
- через послідовний характер їх роботи
вдається дослідити моделі обмеженого
розміру
фізичне
моделювання
+ дозволяє швидко отримати достовірні
результати роботи моделі
- технічна складність апаратної реалізації
великої кількості НПЕ з багатьма
адаптивними зв'язками
109

Мембрана

Категорії моделей
нейронних мереж
моделі окремих нейронів;
моделі невеликих групнейронів;
моделі нейронних мереж;
моделі розумової діяльностіі
мозку загалом.
110

Нейроподібний елемент (НПЕ) або формальний нейрон

Види навчання нейронних
мереж
111

Принцип роботи НПЕ

Алгоритми навчання
З учителем
Без учителя
Дано
вектор Х,
очікувані вихідні сигнали
нейрона dj ∈ D
вектор Х
Підбір
значень
фактичні вихідні сигнали
нейрона повинні приймати
значення, якнайбільше
близькі до очікуваних
мережа вчиться давати найкращі
значення виходів. Що
розуміється під "найкращими"
- Визначається алгоритмом
навчання.
Нові
значення
.. за рахунок здатності до
узагальнення мережею, якщо подати
на вхід вектор, який не
зустрічався під час навчання.
завжди
112

Види функцій активації F

Методи навчання МСП
Алгоритм зворотного
поширення помилки
класичний
Градієнтні
Виявлення градієнта
цільової функції
Алгоритм змінної метрики
Евристичні методи
На основі особистого досвіду
автора в галузі навчання
нейронних мереж
Алгоритм якнайшвидшого спуску
Алгоритм сполучення градієнтів
Алгоритм Левенберга-Марквардта
113

Жорстка сходинка та полога сходинка

Модель МакКаллока-Пітса
Вихідний сигнал:
Порогова функція:
Побудова дискретної моделіобґрунтовується проявом рефракції
у біологічних нейронів, що призводить до того, що нейрон може
змінювати свій стан із кінцевою частотою, причому тривалість
періодів бездіяльності залежить від частоти спрацьовування.
114

Гіперболічний тангенс та функція Фермі

Логічні операції

Особливі функції активації

Алгоритм навчання персептрону
Маккалока-Піттса

Вибір функції активації

Класифікація нейронних
мереж
Односпрямовані
Рекурентні
(Зі зворотним зв'язком)
Спосіб об'єднання нейронів
Нейронна мережа
Кількість шарів нейронів
Одношарові
Багатошарові
118

Обмеження моделі нейрона

Простий персептрон
матриця бінарних входів
(сенсорних нейронів або
"сітківка") r1, r2, ... rn, куди
подаються вхідні образи;
набір нейроподібних
елементів x1 , x2, ... xm, с
фіксованими зв'язками до
підмножинам сітківки
("детектори ознак");
"вирішальний елемент" - бінарний НПЕ з модифікованими
зв'язками із "детекторами". Зазвичай число вирішальних елементів
вибирається рівною кількості класів, на яку
необхідно розбити пред'являються персептрон образи.
119

Нейроподібна мережа

Персептрон Розенблатта
Простий
якого
умови:
персептрон, для
справедливі
n=m та xi=ri,
при
цьому
детектори
ознак
можуть
розглядатися як вхідний
шар.
Персептрон Розенблатта мав один шар ваг, що навчаються,
на входи якого подавалися сигнали з d = 512
асоціюючих нейронів з випадковими фіксованими
вагами, що утворюють ознаковий простір для 400 піксельних образів
120

Особливості архітектури нейромережі

Алгоритм навчання
персептрона Розенблатта
процедура збіжності персептрона Розенблатта
1.Вектор ваг wi встановлюється у довільне
стан.
2.На сітківку по черзі подають образи з навчальної
вибірки, які трансформуються у вихідний сигнал y
вирішального елемента.
3.При правильному відгуку нічого не змінюється.
4.При неправильному відгуку y=0 ваги всіх зв'язків від
активних елементів сітківки збільшують, а при
неправильний відгук y=1 – зменшують на величину.
Якщо рішення існує, воно буде досягнуто
кінцева кількість кроків при початковому виборізв'язків.
121

Штучні нейронні мережі

Характеристики персептрону
Тип вхідних сигналів: бінарні чи аналогові (дійсні).
Розмірності входу та виходу обмежені при програмній реалізації
лише можливостями обчислювальної системи, на якій
моделюється нейронна мережа, При апаратній реалізації технологічними можливостями.
Місткість мережі збігається з числом нейронів.
Модифікації. Багатошарові персептрони дають можливість будувати
більш складні розділяючі поверхні і тому мають більше
широке застосування під час вирішення завдань розпізнавання.
Переваги. Програмні або апаратні реалізації моделі дуже
прості. Простий та швидкий алгоритм навчання.
Недоліки. Примітивні розділяючі поверхні (гіперплощини)
дають можливість вирішувати лише самі прості завданнярозпізнавання.
Області застосування. Розпізнавання образів, класифікація.

Найважливіші властивості біологічних нейромереж

Багатошаровий персептрон
мережа прямого поширення
Сенсорний
(вхідний)
шар
Вихідний
(результативний) шар
Приховані (асоціативні) шари
Принцип зв'язку між нейронами - "кожен з кожним".
Кількість нейронів у шарах може бути довільною.
Зазвичай у всіх прихованих шарах однакова кількість нейронів.
Вхідний шар лише розподіляє сигнали.
123

Відмінності між біологічними НР та ЕОМ на архітектурі фон Неймана

Класифікація

Підходи до створення нейронних мереж

Регресія (апроксимація)

Методи дослідження нейроподібних мереж

Алгоритм розв'язання задач з
допомогою МСП
1.
2.
3.
4.
Визначити, який сенс
вкладається в компоненти
вхідний вектор x. Вхідний
вектор повинен містити
формалізована умова
завдання, тобто. всю інформацію,
необхідну для отримання
відповіді.
Вибрати вихідний вектор у
таким чином, щоб його
компоненти містили повний
відповідь поставленого завдання.
Вибрати вид нелінійності в
нейронах (функцію активації).
Встановити діапазон зміни
входів, виходів, ваг і
порогових рівнів, враховуючи
безліч значень обраної
5. Присвоїти початкові значення
ваговим коефіцієнтам та
порогових рівнів та
додатковим параметрам
(наприклад, крутість функції
активації, якщо вона буде
налаштовуватися під час навчання).
6. Провести навчання, тобто.
підібрати параметри мережі так,
щоб завдання вирішувалося
найкращим чином. за
закінчення навчання мережа готова
вирішити завдання того типу, яким
вона навчена.
7. Подати на вхід мережі умови
Завдання у вигляді вектора х.
Розрахувати вихідний вектор у,
який і дасть формалізоване
рішення завдання.
функції активації.
126

Категорії моделей нейронних мереж

Алгоритм зворотного
поширення помилки
Error backpropagation
Основа методу – цільова функція, що формулюється у вигляді
квадратичної суми різниць між фактичними та
очікуваними значеннями вихідних сигналів.
У разі одиничної одинарної
вибірки (x,d) цільова функція
визначається у вигляді:
При велику кількістьнавчальних вибірок j (j = 1,2,.. p) цільова
функція перетворюється на суму за всіма вибірками:
127

Види навчання нейронних мереж

Етапи виконання алгоритму
зворотного розповсюдженняпомилки
1.Аналіз нейронної
мережі у прямому
напрямку
передачі інформації
при генерації
вхідних сигналів,
складових
черговий вектор Х.
2.Створення мережі
зворотного
поширення
помилок
3.Уточнення ваг
4.Описаний у п. 1, 2
і 3 процес слід
повторити для всіх
навчальних вибірок.
.
До 1. розраховуються значення вихідних
сигналів нейронів прихованих шарів та вихідного
шару, а також відповідні похідні
функцій активації кожного шару.
До 2.шляхом зміни напрямів передачі
сигналів, заміна функцій активації їх
похідними та подача на колишній вихід
збудження у вигляді різниці між
фактичним та очікуваним значенням. Для
певної таким чином мережі необхідно
розрахувати значення необхідних зворотних
різниць.
3. за формулами на основі результатів,
отриманих у п. 1 і 2, для оригінальної мережі та
для мережі зворотного розповсюдження помилки
К 4. Дія алгоритму завершується у момент,
коли норма градієнта впаде нижче апріорі
заданого значення точності навчання е.
128

Алгоритми навчання

Перенавчання нейромережі
Функція вчитель,
породжуюча
навчальні
приклади, N<∞
У
Нейросітка з нульовою
помилкою навчання
Проблема: недостатньо
інформації, щоб
вибрати єдине
правильне рішення:
функцію-вчителі.
обрана випадковим чином функція дає
погані передбачення на нових прикладах,
відсутні в навчальній вибірці, хоча
останню мережу відтворила без помилок.
Замість того, щоб узагальнити відомі приклади,
мережа запам'ятала їх
130

Методи навчання МСП

Багатошаровий персептрон
нейронів з фіксованими
великому).
вагами
Поділ даних
на навчальне та
валідаційне
безлічі прикладів
скоротити різноманітність
можливих конфігурацій
навчених нейромереж
при мінімальній втраті
їх апроксимують
здібностей
137

Персептрон Розенблатта

Мережа Хопфілда
вихідні
сигнали
нейронів
є одночасно вхідними
сигналами
мережі,
при
цьому
збудливий вектор особливо не
виділяється.
відсутній зв'язок нейрона з
власним виходом
Вихідний сигнал i-го нейрона:
де bi-порогове значення,
задане зовнішнім джерелом,
N – кількість нейронів.
138

Алгоритм навчання персептрона Розенблатта

Розв'язання задач за допомогою
мереж Хопфілда
1. Побудувати функцію енергії таким чином, щоб точка
глобального мінімуму цієї функції збігалася із рішенням
завдання. При цьому градієнт функції енергії має
допускати обчислення за допомогою СР.
2. Записати формули для розрахунку параметрів мережі (вагових
коефіцієнтів та порогових рівнів) для розрахунку
градієнт функції енергії.
3. Розірвати ланцюжок зворотного зв'язку та пред'явити мережі
Вхідний вектор. Розрахувати значення виходів.
4. Замкнути зворотний зв'язок та надати мережі можливість
самостійно міняти свій стан (релаксація).
Зупинити процес релаксації після того, як вихідний
вектор перестане змінюватись, тобто. після досягнення мінімуму
функції енергії. Отримані виходи мережі дають рішення
завдання.
139

Характеристики персептрону

Властивості сучасних
нейромереж
Навчання. Вибравши одну з моделей СР, створивши мережу та
виконавши алгоритм навчання, ми можемо навчити мережу
розв'язання задачі, яка їй під силу. Нема ніяких
гарантій, що це вдасться зробити при вибраних мережах,
алгоритм і завдання, але якщо все зроблено правильно, то
Навчання буває успішним.
Здатність до узагальнення. Після навчання мережа
стає нечутливою до малих змін
вхідних сигналів (шуму або варіаціям вхідних образів)
та дає правильний результат на виході.
Здатність до абстрагування. Якщо пред'явити мережі
кілька спотворених варіантів вхідного образу, тобто мережа
сама може створити на виході ідеальний образ,
яким вона ніколи не зустрічалася.
142

Багатошаровий персептрон

Відмінність експертних та НС
систем за характером знань
Експертні системи (ЕС)
Джерело Формалізований досвід
знань
експерта, виражений у вигляді
логічних тверджень правил та фактів, безумовно
прийнятих системою
Характер Формально-логічне
знань
"лівопівкульне" знання в
вигляді правил
Розвиток У формі розширення
знань
сукупності правил та фактів
(бази знань)
Нейромережні системи (НС)
Сукупний досвід експерта-вчителя,
відбирає приклади для навчання +
індивідуальний досвід учня на цих
приклади нейронної мережі
Асоціативне “правопівкульне” знання у
вигляді зв'язків між нейронами мережі
У формі донавчання на додатковій
послідовності прикладів, з уточненням
кордонів категорій та формуванням нових
категорій
Роль
Задає на основі правил повний Відбирає характерні приклади,
експерта обсяг знань експертної
формулюючи спеціально обґрунтування свого
системи
вибору
Роль
Пошук ланцюжка фактів та правил Формування індивідуального досвіду в
искус.сист. для доказу судження
формі категорій, одержуваних на основі
прикладів та категоризація образів

Логічні операції

Увімкнення.Нехай Аі У- нечіткі множини на універсальній множині е.Кажуть що Аміститься в В,якщо

Позначення: АСт.

Іноді використовують термін домінування,тобто. у випадку, коли АВ,кажуть що Удомінує А.

Рівність.А і В рівні, якщо

Позначення: А = В.

Доповнення.Нехай М = , Аі У– нечіткі множини, задані на Є. Аі Удоповнюють один одного, якщо

Позначення:

Очевидно, що (додаток визначено для М= , але очевидно, що його можна визначити для будь-якого впорядкованого М).

Перетин. АУ- найбільше нечітке підмножина, що міститься одночасно в Аі В:

Об'єднання.AУ- найменше нечітке підмножина, що включає як А,так і В,з функцією приналежності:

Різниця. з функцією приналежності:

Диз'юнктивна сума

АУ = (A - B) ∪ (B - A) = (A̅ B) ∪ ( ̅A ⋂ B )

з функцією приналежності:

приклади. Нехай


Тут:

1) А ⊂ В,тобто А міститься в Bабо Bдомінує А; З незрівнянноні з A, ні з В,тобто. пари ( А, С) та ( А, С) - пари недомінованих нечітких множин.

2) ABC

3) ̅A = 0,6/x 1 + 0,8/x 2 + 1/x 3 + 0/x 4 ; ̅B = 0,3/x 1 + 0,1/x 2 + 0,9/x 3 +0/x 4 .

4) АВ = 0,4/x 1 + 0,2/x 2 + 0/x 3 + 1 /х 4 .

5) AУ= 0,7/ x 1+ 0,9/x 2 + 0,1/x 3 + 1/x 4 .

6) А - В= А̅В = 0,3/x 1 + 0,l/ x 2 + 0/x 3 + 0/x 4 ;

У- А= ̅АУ= 0,6/x 1 + 0,8/x 2 + 0,l/ x 3 + 0/x 4 .

7) АВ = 0,6/x 1 + 0,8/x 2 + 0,1/x 3 + 0/x 4 .

Наочне уявлення логічних операцій над нечіткими множинами. Для нечітких множин можна будувати візуальну виставу. Розглянемо прямокутну систему координат, на осі ординат якої відкладаються значення μ А (х),на осі абсцис у довільному порядку розташовані елементи Е(Ми вже використовували таке уявлення в прикладах нечітких множин). Якщо Еза своєю природою впорядковано, цей порядок бажано зберегти у розташуванні елементів на осі абсцис. Таке уявлення робить наочними прості логічні операції над нечіткими множинами (див. рис. 1.3).

Мал. 1.3. Графічна інтерпретація логічних операцій: α - нечітка безліч А; б- нечітка безліч ̅А, в - А̅А; г- A̅А

На рис. 1.3α заштрихована частина відповідає нечіткому множині Аі, якщо говорити точно, зображує область значень Аі всіх нечітких множин, що містяться в А.На рис. 1.3 б, в, гдані ̅ А, А ̅ A, A U ̅А.

Властивості операцій і

Нехай А, В, С- нечіткі множини, тоді виконуються такі властивості:


На відміну від чітких множин, для нечітких множин загалом

випадку:

A̅A ≠∅, A ∪ ̅A ≠ E

(що, зокрема, проілюстровано вище з прикладу наочного уявлення нечітких множин).

Зауваження . Введені вище операції над нечіткими множинами засновані на використанні операцій max min. Теоретично нечітких множин розробляються питання побудови узагальнених, параметризованих операторів перетину, об'єднання та доповнення, що дозволяють врахувати різноманітні смислові відтінки відповідних їм зв'язок «і», «або», «ні».

Один з підходів до операторів перетину та об'єднання полягає в їх визначенні класі трикутних норм та конорм.

Трикутною нормою(t-Нормою) називається двомісна дійсна функція T: x → , що задовольняє наступним умовам:


Приклади трикутних норм

min( μ A, μ B)

твір μ A· μ B

max(0, μ A+ μ B- 1 ).

Трикутною конормою(t-конормою) називається двомісна дійсна функція S: x → із властивостями:


Прикладиt-конорм

max( μ A, μ B)

μ A+ μ B- μ A· μ B

min(1, μ A+ μ B).

Алгебраїчні операції над нечіткими множинами

Алгебраїчний твір Аі Упозначається A· Уі визначається так:

Алгебраїчна сумацих множин позначається А+ Ві визначається так:

Для операцій (-, +) виконуються властивості:

Не виконуються:


Зауваження.При спільному використанні операцій ( U, ⋂, + , ) виконуються властивості:


На основі операції алгебраїчного твору визначається операція зведення у ступінь αнечіткої множини А,де α - додатне число. Нечітка безліч А αвизначається функцією приналежності μ α A = μ α A ( x). Окремим випадком зведення у ступінь є:

1) CON( А) = А 2- Операція концентрування (ущільнення);

2) DIL( А) = А 0,5- Операція розтягування,

які використовуються під час роботи з лінгвістичними невизначеностями (рис. 1.4).


Мал. 1.4. Ілюстрація до поняття операцій концентрування (ущільнення) та розтягування

Множення на число.Якщо α - позитивне число, таке, що, то нечітка безлічαАмає функцію приналежності:

μ αА(х) = αμA(x).

Випукла комбінація нечітких множин.Нехай A 1 , А 2,..., Аn- нечіткі множини універсальної множини Е, a ω 1 , ω 2 , …, ωn- Невід'ємні числа, сума яких дорівнює 1.

Випуклою комбінацією A 1 , А 2 , ..., Аnназивається нечітка безліч Аз функцією приналежності:

Декартове(пряме) твір нечітких множин.Нехай A 1 , А 2 , ..., Аn- нечіткі підмножини універсальних множин Е 1, Е 2, ..., Еnвідповідно. Декартово, або прямий твір А = А 1 x А 2 x... x Аnє нечітким підмножиною множини Е = Е 1 x Е 2 x... x Еnз функцією приналежності:

Оператор збільшення нечіткостівикористовується для перетворення чітких множин у нечіткі і для збільшення нечіткості нечіткої множини.

Нехай А- нечітка множина, Е- Універсальна безліч і для всіх хϵ Евизначено нечіткі множини До(х).Сукупність усіх До(х)називається ядром оператора збільшення нечіткості Ф. Результатом дії оператора Ф на нечітку множину Ає нечітка безліч виду


де μ А(х)К(х)- Добуток числа на нечітку безліч.

приклад . Нехай

Е =(1,2,3,4); А = 0,8/1+0,6/2+0/3+0/4; До(1)= 1/1 + 0,4/2;

До(2) = 1/2 + 0,4/1 + 0,4/3; До(3) = 1/3 + 0,5/4; До(4)= 1/4.

Тоді

Чітка безліч α-рівня(або рівня α).Безліч α-рівня нечіткої множини Ауніверсальної множини Еназивається чіткепідмножина А αуніверсальної множини Е,що визначається у вигляді

А α ={ x/μ A(x) ≥ α },

де α ≤ 1.

приклад.Нехай А = 0,2/x 1 + 0/x 2 + 0,5/x 3 + 1/x 4 , тоді A 0,3 = { x 3 , x 4 } , A 0,7 = {х 4} .

Досить очевидна властивість: якщо α 1≥ 2, то А α1А α2.

Алгебраїчний твір Aі Bпозначається ABі визначається так:

xE  AB ( x) =  A ( x) B ( x).

Алгебраїчна сумацих множин позначається і визначається так:

xE =  A ( x) +  B ( x) A ( x) B ( x).

Для операцій (, ) виконуються властивості:

- Комутативність;

- асоціативність;

A = , A  = A, AE = A, A E = E

- Теореми де Моргана.

Не виконуються:

Ідемопотентність;

- дистрибутивність;

а також A = , A = E.

Зауваження. Докази властивостей операцій над нечіткими множинами ми залишаємо читачеві.

Наприклад доведемо якість: . Позначимо  A ( x) через a ,  B ( x) через b . Тоді у лівій частині для кожного елемента х маємо: 1- ab , а у правій: (1- a )+(1-b )-(1-a )(1-b ) = 1-a +1-b- 1+a +b-ab = 1-ab . 

Доведемо, властивість дистрибутивності не виконується, тобто. A(B C)  (AB) (AC). Для лівої частини маємо: a (b +c-bc ) = ab +ac-abc ; для правої: ab +ac -(ab )(ac ) = ab +ac +a 2 bc . Це означає, що дистрибутивність не виконується при aa 2 . 

Зауваження.При спільному використанні операцій (, ,,) виконуються властивості:

А(BC) = (AB)(A  C);

А (BC) = (AB)(AC);

А (BC) = (AB)(AC);

А (BC)=(AB)(AC).

Продовжимо огляд основних операцій над нечіткими множинами.

На основі операції алгебраїчного твору (принаймні для цілих ця основа очевидна) визначається операція зведення у ступінь нечіткої множини A, де - додатне число. Нечітка безліч Aвизначається функцією власності  A  =   A (x). Окремим випадком зведення у ступінь є:

CON(A) = A 2- Операція концентрування,

DIL(A) = A 0,5- Операція розтягування,

які використовуються під час роботи з лінгвістичними невизначеностями.

Множення на число.Якщо - позитивне число, таке, що   A ( x) 1, то нечітка множина Aмає функцію приналежності:

A( x) = A( x).

Випукла комбінація нечітких множин.Нехай A 1 , A 2 ,.., A n - нечіткі множини універсальної множини E, а  1 ,  2 , ...,  n- Невід'ємні числа, сума яких дорівнює 1.

Випуклою комбінацією A 1 , A 2 ,.., A n називається нечітка множина Aз функцією приналежності:

xE A ( x 1 , x 1 ,..., x n) =  1  A1 ( x) +  2  A2 ( x) + ... +  n  Ai ( x).



Декартове твір нечітких множин.Нехай A 1 , A 2 , ..., A n - нечіткі підмножини універсальних множин E 1 , E 2 , ..., E n відповідно. Декартове твір A = A 1  A 2  ... A n є нечітким підмножиною множини E = E 1  E 2  ... E n з функцією приналежності:

 A ( x 1 ,x 1 , ...,x n) = min(  A1 ( x 1),  A2 ( x 2) , ... ,  Ai ( x n)).

Оператор збільшення нечіткостівикористовується для перетворення чітких множин у нечіткі і для збільшення нечіткості нечіткої множини.

Нехай A- нечітка множина, E- Універсальна безліч і для всіх xE визначено нечіткі множини K( х) . Сукупність усіх K( х) називається ядром оператора збільшення нечіткості Ф. Результатом дії оператора Фна нечітку множину A є нечітка множина виду:

Ф(A, K) =  A ( x)K( х),

де  A ( x)K( х) - Добуток числа на нечітку безліч.

приклад:

E = {1,2,3,4};

A = 0,8/1+0,6/2+0/3+0/4;

K(1) = 1/1+0,4/2;

K(2) = 1/2+0,4/1+0,4/3;

K(3) = 1/3+0,5/4;

K(4) = 1/4.

Ф(A,K) = A(1) K(1)  A(2)K(2)  A(3)K(3) A(4)K(4) =

0,8(1/1+0,4/2)  0,6(1/2+0,4/1+0,4/3) =

0,8/1+0,6/2+0,24/3.

Чітка безліч -рівня (або рівня ) . Безліч -рівня нечіткої множини Aуніверсальної множини Eназивається чіткепідмножина A універсальної множини E, Яке визначається у вигляді:

A ={x / A(x )), де 1.

Приклад: A= 0,2/x 1 + 0/x 2 + 0,5/x 3 + 1/x 4

тоді A 0.3 = {x 3 ,x 4 },

A 0.7 = {x 4 }.

Досить очевидна властивість: якщо  1  2 , то A 1  A 2 .

Теорема про декомпозицію.Будь-яка нечітка безліч Aрозкладемо за його множинами рівня у вигляді:

A = A , де A - Добуток числа на безліч A, і "пробігає" область значень Mфункції приналежності нечіткої множини A.

Приклад:A = 0,1/x 1 + 0/x 2 + 0,7/x 3 + 1/x 4 представимо у вигляді:

A = 0,1(1,0,1,1)  0,7(0,0,1,1,)  1(0,0,0,1)=

= (0,1/x 1 + 0/x 2 + 0,1/x 3 + 0,1/x 4) (0/x 1 + 0/x 2 + 0,7/x 3 + 0,7 /x 4)

(0/x1+0/x2+0/x3+1/x4) = 0,1/x1+0/x2+0,7/x3+1/x4.

Якщо область значень функції приналежності складається з n градацій  1   2   3  ...  n , то A(При фіксованих значеннях градацій) представимо у вигляді:

A = i A i ,

тобто. визначається сукупністю звичайних множин ( A 1 , A 2 , ..., Ai ), де A1  A2  , ...,  Ai.

7. Лінгвістичні змінні. Приклади лінгвістичних змінних. Концепція терму. Визначення кількості термів

Лінгвістична змінна- Теоретично нечітких множин, змінна, яка може набувати значення фраз з природної чи штучної мови. Наприклад, лінгвістична змінна «швидкість» може мати значення «висока», «середня», «дуже низька» тощо. буд. Фрази, значення яких набуває змінна, своєю чергою є іменами нечітких змінних і описуються нечітким безліччю.

Приклад: нечіткий вік

Розглянемо лінгвістичну змінну, яка описує вік людини, тоді:

x: "вік";

X: безліч цілих чисел з інтервалу;

T(x): значення "молодий", "зрілий", "старий". безліч T(x) - безліч нечітких змінних, для кожного значення: «молодий», «зрілий», «старий», необхідно задати функцію приналежності, яка задає інформацію про те, людей якого віку вважати молодими, зрілими, старими;

G: "дуже", "не дуже". Такі добавки дозволяють утворювати нові значення: «дуже молодий», «не дуже старий» та ін.

M: математичне правило, що визначає вид функції приналежності кожного значення утвореного з допомогою правила G.

Терм- Вираз формальної мови (системи), є формальним ім'ям об'єкта або ім'ям форми. Концепція термавизначається індуктивно. Термом називається символьне вираз: t(X1, X2, … , Xn), де t - ім'я терма, звана функтор або «функціональна літера», а X1, X2, … , Xn - терми, структуровані чи найпростіші.

8. Нечіткі відносини та їх властивості

Одним з основних понять теорії нечітких множин вважається поняття нечіткого відношення. Ці відносини дозволяють формалізувати неточні твердження типу «майже одно» чи «значно більше, ніж». Наведемо визначення нечіткого відношення та комбінації нечітких відносин.

Нечітке відношення між двома непустими множинами (чіткими) і називатимемо нечітку множину, визначену на декартовому творі

Нечіткий логічний висновок - це процес отримання нечітких висновків на основі нечітких умов або передумов.

Стосовно нечіткої системи управління об'єктом, нечіткий логічний висновок - це процес отримання нечітких висновків про необхідне управління об'єктом на основі нечітких умов або передумов, що становлять інформацію про поточний стан об'єкта.

Логічний висновок здійснюється поетапно.

Фаззифікація (введення нечіткості) – це встановлення відповідності між чисельним значенням вхідної змінної системи нечіткого виведення та значення функції належності терму лінгвістичної змінної. На етапі фазифікації значення всіх вхідних змінних системи нечіткого виведення, отриманих зовнішнім по відношенню до системи нечіткого виведення способом, наприклад, за допомогою статистичних даних, ставляться у відповідність конкретні значення функцій належності відповідних лінгвістичних термів, які використовуються в умовах (антецедентах) ядер нечітких продукцій , що становлять основу нечітких продукційних правил системи нечіткого висновку Фаззифікація вважається виконаною, якщо знайдені ступені істинності (a) всіх елементарних логічних висловлювань виду «Є», що входять в антецеденти нечітких продукційних правил, де - деякий терм з відомою функцією приналежності µ(x), - чітке чисельне значення, що належить уні.

Поняття нечіткого алгоритму, вперше запроваджене Л.А. Заде є важливим інструментом для наближеного аналізу складних систем і процесів прийняття рішень. Під нечітким алгоритмом (fuzzy algorithm) розуміється впорядкована множина нечітких інструкцій (правил), у формулюванні яких містяться нечіткі вказівки (терми).

Перехід від отриманої нечіткої множини до єдиного чіткого значення ()о, яке і визнається потім як рішення поставленого завдання, називається дефаззифікацією (defuzzyfication).

11. Алгоритм Мамдані (Mamdani) знайшов застосування у перших нечітких системах автоматичного управління. Був запропонований у 1975 році англійським математиком Е.Мамдані для керування паровим двигуном.

Формування бази правил системи нечіткого виведення здійснюється як упорядкованого узгодженого списку нечітких продукційних правил як «IF A THEN B », де антецеденти ядер правил нечіткої продукції побудовано з допомогою логічних зв'язок «І», а консеквенти ядер правил нечіткої продукції прості.

Фаззифікація вхідних змінних здійснюється описаним вище способом, як і, як і загальному випадку побудови системи нечіткого виведення.

Агрегування умов правил нечіткої продукції здійснюється за допомогою класичної нечіткої логічної операції «І» двох елементарних висловлювань A, B: T (A ∩ B) = min (T (A); T (B)).

Активізація підукладень правил нечіткої продукції здійснюється методом min-активізації μ(y) = min(c; μ(x) ) , де μ(x) і c – відповідно функції належності термів лінгвістичних змінних та ступеня істинності нечітких висловлювань, що утворюють відповідні наслідки (консеквенти ) ядер нечітких продукційних правил.

Акумуляція підзаключень правил нечіткої продукції проводиться за допомогою класичного для нечіткої логіки max-об'єднання функцій належності ∀ x ∈ X μ A B x = max( μ A x ; μ B x ).

Дефаззифікація проводиться методом центру тяжкості чи центру площі.

12 Для реалізації систем з урахуванням нечітких правил розроблено безліч алгоритмів нечіткого вывода. Алгоритми нечіткого висновку різняться переважно видом використовуваних правил, логічних операцій та різновидом способу дефазифікації. Розроблено моделі нечіткого висновку Мамдані, Сугено, Ларсена, Цукамото.

Наприклад, правила нечіткого виведення задані таким чином:

П1: якщо x є A, то w є D, П2: якщо y є B, то w є E, П3: якщо z є C, w є F,

де x, y, z – імена вхідних змінних (чіткого формату);

w – ім'я змінної виведення;

A, B, C, D, E, F – задані функції власності.

FAT-теорема Б. Коско: Будь-яка класична математика може бути апроксимована засобами математики нечіткою. Тобто. можна побудувати нечітку систему максимально наближає функцію коливання курсу певної валюти.

Основні переваги системи пояснень у ЕС.

1) Пояснення допомагають користувачеві використовувати систему для вирішення своїх завдань,

2) Так як ЕС використовуються в слабоформалізованих областях, де немає чітких алгоритмів, то пояснення дозволяють користувачеві переконатись у правильності отриманих результатів, підвищують його ступінь довіри до ЕС,

3) Служать для навчання користувача,

4) Служать для налагодження бази знань ЕС

Основні недоліки системи пояснень у ЕС.

1) Запити на пояснення інтерпретуються тільки в одному вузькому значенні (питання ЧОМУ і ЯК інтерпретуються тільки в термінах цілей та правил),

2) Не всі дії системи можуть бути пояснені (наприклад, чому спочатку перевірялася одна гіпотеза, а потім інша),

3) Пояснення, що ґрунтуються фактично на треку виконання програми, тому при зміні інтерпретатора необхідно змінювати і систему пояснень.

Ретельне опрацювання та облік ризиків стало невід'ємною частиною та важливою складовою успіху діяльності кожної компанії. Проте все частіше компаніям доводиться приймати рішення в умовах невизначеності, які можуть призвести до непередбачених наслідків та, відповідно, небажаних наслідків та збитків. Особливо серйозні наслідки можуть мати неправильні рішення щодо довгострокових інвестицій, які зазвичай маються на увазі при оцінці інвестиційних проектів. Тому своєчасне виявлення, а також адекватна та найточніша оцінка ризиків є однією з насущних проблем сучасного інвестиційного аналізу.

На жаль, існуючі на сьогоднішній день методи обліку та оцінки ризиків не позбавлені суб'єктивізму та суттєвих передумов, що призводять до неправильних оцінок ризику проектів. Теорія нечіткої логіки – це новий підхід, що динамічно розвивається, до оцінки ризику. Останнім часом нечітке моделювання є одним із найактивніших і найперспективніших напрямів прикладних досліджень у галузі управління та прийняття рішень.

У цій роботі представлені:

Визначення ризику та невизначеності,

обґрунтування необхідності застосування нових підходів до аналізу ризику,

короткий опис методу нечіткої логіки,

приклади застосування нечіткої логіки

Завдання, що вирішуються нейронними мережами, дуже різноманітні. Не дивно, що цей метод знайшов застосування у таких сферах, як медицина, фінансовий менеджмент та політична наука. У цілому нині можна звести основну частину вирішуваних з допомогою ІНС проблем до кількох категорій завдань.

Класифікація. Завданням нейронної мережі є розподіл об'єктів за кількома заздалегідь встановленими класами, що не перетинаються.

У політичній науці нейромережевий метод використовується на вирішення завдань класифікації, зокрема у івент-аналізі. Заздалегідь визначається клас конфліктних подійних послідовностей, що ведуть до мирного врегулювання, та клас конфліктних подійних послідовностей, що ведуть до військового протистояння.

Штучний нейрон (математичний нейрон Маккалока - Піттса, формальний нейрон) - вузол штучної нейронної мережі, що є спрощеною моделлю природного нейрона. Математично, штучний нейрон зазвичай представляють деяку нелінійну функцію від єдиного аргументу - лінійної комбінації всіх вхідних сигналів. Цю функцію називають функцією активації або функцією спрацьовування, функцією передавання. Отриманий результат посилається єдиний вихід. Такі штучні нейрони поєднують у мережі - з'єднують виходи одних нейронів із входами інших. Штучні нейрони та мережі є основними елементами ідеального нейрокомп'ютера.

18. Функція активації (активаційна функція, функція збудження) – функція, яка обчислює вихідний сигнал штучного нейрона. Як аргумент приймає сигнал Y, одержуваний на виході вхідного суматора Sigma. Найчастіше використовуються такі функції активації.

1. Поодинокий стрибок або жорстка порогова функція

Проста шматково-лінійна функція. Якщо вхідне значення менше порогового, то значення функції активації дорівнює мінімальному допустимому, інакше максимально допустимому.

функція активації. Жорстка порогова функція

2. Лінійний поріг чи гістерезис

Нескладна шматково-лінійна функція. Має дві лінійні ділянки, де функція активації тотожно дорівнює мінімально допустимому і максимально допустимому значенню і є ділянка, на якій функція строго монотонно зростає.

функція активації. Лінійний поріг

3. Сігмоїдальна функція або сигмоїд

Монотонно зростаюча диференційована S-подібна нелінійна функція з насиченням. Сігмоїд дозволяє посилювати слабкі сигнали та не насичуватися від сильних сигналів. Гроссберг (1973 рік) виявив, що така нелінійна функція активації вирішує поставлену їм дилему шумового насичення.

Штучна нейронна мережа (ІНС) - математична модель, а також її програмне або апаратне втілення, побудована за принципом організації та функціонування біологічних нейронних мереж - мереж нервових клітин живого організму. Це поняття виникло щодо процесів, які у мозку, і за спробі змоделювати ці процеси. Першою такою спробою були нейронні мережі У. Маккалока та У. Піттса. Після розробки алгоритмів навчання одержувані моделі почали використовувати у практичних цілях: у завданнях прогнозування, для розпізнавання образів, у завданнях управління та ін.

ІНС (Штучні Нейронні Мережа) може розглядатися як спрямований граф із зваженими зв'язками, в якому штучні нейрони є вузлами. По архітектурі зв'язків ІНС можуть бути згруповані у два класи: мережі прямого поширення, в яких графи не мають петель, та рекурентні мережі, або мережі зі зворотними зв'язками. У найбільш поширеному сімействі мереж першого класу, званих багатошаровим перцептроном, нейрони розташовані шарами і мають односпрямовані зв'язки між шарами. На малюнку представлені типові мережі кожного класу. Мережі прямого поширення є статичними тому, що у заданий вхід вони виробляють одну сукупність вихідних значень, які залежать від попереднього стану мережі. Рекурентні мережі є динамічними, тому що через зворотні зв'язки в них модифікуються входи нейронів, що призводить до зміни стану мережі. 22

23. Перцептрон-математична модель процесу сприйняття (Див. Сприйняття). Стикаючись із новими явищами чи предметами, людина їх дізнається, тобто відносить до того чи іншого поняття (класу). Так, ми легко впізнаємо знайомих, навіть якщо вони змінили зачіску чи одяг, можемо читати рукописи, хоча кожен почерк має свої особливості, дізнаємося мелодію у різному аранжуванні тощо. Ця здатність людини і отримала назву феномена сприйняття. Людина вміє виходячи з досвіду виробляти нові поняття, вчитися нової системі класифікації. Наприклад, під час навчання розрізнення рукописних знаків учневі показують рукописні знаки і повідомляють, яким літерам вони відповідають, тобто яких класів ці знаки ставляться; в результаті він виробляється вміння правильно класифікувати знаки.

Кожна окрема клітина називається вузлом або персептроном:

нейронна мережа, що складається з шару вузлів між входом і виходом - одношаровим персептроном: а мережа, що складається з декількох шарів - багатошаровим персептроном:

Справедливе твердження, що багатошаровий персептрон ефективніший, ніж одношаровий

Навчання – це процес, у якому вільні параметри нейронної мережі налаштовуються у вигляді моделювання середовища, у якому ця мережа вбудована. Тип навчання визначається способом підстроювання цих параметрів.

Це визначення процесу навчання нейронної мережі передбачає таку послідовність подій:

У нейронну мережу надходять стимули із зовнішнього середовища.

Внаслідок першого пункту змінюються вільні параметри нейронної мережі.

Після зміни внутрішньої структури нейронна мережа відповідає на порушення вже в інший спосіб.

Вищезазначений список чітких правил вирішення проблеми навчання нейронної мережі називається алгоритмом навчання. Неважко здогадатися, що немає універсального алгоритму навчання, придатного всім архітектур нейронних мереж. Існує лише набір засобів, представлений безліччю алгоритмів навчання, кожен із яких має свої переваги. Алгоритми навчання відрізняються один від одного способом налаштування синаптичних вагів нейронів. Ще однією відмінною характеристикою є спосіб зв'язку нейронної мережі, що навчається, із зовнішнім світом. У цьому контексті говорять про парадигму навчання, пов'язану з моделлю навколишнього середовища, в якій функціонує дана нейронна мережа.

Навчання нейронної мережі з учителем передбачає, що для кожного вхідного вектора з навчальної множини існує необхідне значення вихідного вектора, що називається цільовим. Ці вектори утворюють навчальну пару. Ваги мережі змінюють доти, доки кожного вхідного вектора буде отримано прийнятний рівень відхилення вихідного вектора від цільового.

Навчання нейронної мережі без вчителя є набагато правдоподібнішою моделлю навчання з точки зору біологічного коріння штучних нейронних мереж. Навчальна множина складається лише з вхідних векторів. Алгоритм навчання нейронної мережі підлаштовує ваги мережі те щоб виходили узгоджені вихідні вектори, тобто. щоб пред'явлення досить близьких векторів вхідних давало однакові виходи.

Нехай є нейронна мережа, що виконує перетворення векторів F:X®Y з ознакового простору входів X у вектора Y вихідного простору Y. Мережа знаходиться в стані W з простору станів W. Нехай далі є навчальна вибірка (Xa,Ya), a = 1 ..p. Розглянемо повну помилку E, що робиться мережею може W.

Зазначимо дві властивості повної помилки. По-перше, помилка E=E(W) є функцією стану W, визначеної просторі станів. За визначенням, вона набуває невід'ємних значень. По-друге, у деякому навченому стані W*, в якому мережа не робить помилок на навчальній вибірці, дана функція набуває нульового значення. Отже, навчені стану є точками мінімуму введеної функції E(W).

Логічні операції

Увімкнення.Нехай Аі У- нечіткі множини на універсальній множині е.Кажуть що Аміститься в В,якщо

Позначення: АСт.

Іноді використовують термін домінування,тобто. у випадку, коли АВ,кажуть що Удомінує А.

Рівність.А і В рівні, якщо

Позначення: А = В.

Доповнення.Нехай М = , Аі У– нечіткі множини, задані на Є. Аі Удоповнюють один одного, якщо

Позначення:

Очевидно, що (додаток визначено для М= , але очевидно, що його можна визначити для будь-якого впорядкованого М).

Перетин. АУ- найбільше нечітке підмножина, що міститься одночасно в Аі В:

Об'єднання.AУ- найменше нечітке підмножина, що включає як А,так і В,з функцією приналежності:

Різниця. з функцією приналежності:

Диз'юнктивна сума

АУ = (A - B) ∪ (B - A) = (A̅ B) ∪ ( ̅A ⋂ B )

з функцією приналежності:

приклади. Нехай


Тут:

1) А ⊂ В,тобто А міститься в Bабо Bдомінує А; З незрівнянноні з A, ні з В,тобто. пари ( А, С) та ( А, С) - пари недомінованих нечітких множин.

2) ABC

3) ̅A = 0,6/x 1 + 0,8/x 2 + 1/x 3 + 0/x 4 ; ̅B = 0,3/x 1 + 0,1/x 2 + 0,9/x 3 +0/x 4 .

4) АВ = 0,4/x 1 + 0,2/x 2 + 0/x 3 + 1 /х 4 .

5) AУ= 0,7/ x 1+ 0,9/x 2 + 0,1/x 3 + 1/x 4 .

6) А - В= А̅В = 0,3/x 1 + 0,l/ x 2 + 0/x 3 + 0/x 4 ;

У- А= ̅АУ= 0,6/x 1 + 0,8/x 2 + 0,l/ x 3 + 0/x 4 .

7) АВ = 0,6/x 1 + 0,8/x 2 + 0,1/x 3 + 0/x 4 .

Наочне уявлення логічних операцій над нечіткими множинами. Для нечітких множин можна будувати візуальну виставу. Розглянемо прямокутну систему координат, на осі ординат якої відкладаються значення μ А (х),на осі абсцис у довільному порядку розташовані елементи Е(Ми вже використовували таке уявлення в прикладах нечітких множин). Якщо Еза своєю природою впорядковано, цей порядок бажано зберегти у розташуванні елементів на осі абсцис. Таке уявлення робить наочними прості логічні операції над нечіткими множинами (див. рис. 1.3).

Мал. 1.3. Графічна інтерпретація логічних операцій: α - нечітка безліч А; б- нечітка безліч ̅А, в - А̅А; г- A̅А

На рис. 1.3α заштрихована частина відповідає нечіткому множині Аі, якщо говорити точно, зображує область значень Аі всіх нечітких множин, що містяться в А.На рис. 1.3 б, в, гдані ̅ А, А ̅ A, A U ̅А.

Властивості операцій і

Нехай А, В, С- нечіткі множини, тоді виконуються такі властивості:


На відміну від чітких множин, для нечітких множин загалом

випадку:

A̅A ≠∅, A ∪ ̅A ≠ E

(що, зокрема, проілюстровано вище з прикладу наочного уявлення нечітких множин).

Зауваження . Введені вище операції над нечіткими множинами засновані на використанні операцій max min. Теоретично нечітких множин розробляються питання побудови узагальнених, параметризованих операторів перетину, об'єднання та доповнення, що дозволяють врахувати різноманітні смислові відтінки відповідних їм зв'язок «і», «або», «ні».

Один з підходів до операторів перетину та об'єднання полягає в їх визначенні класі трикутних норм та конорм.

Трикутною нормою(t-Нормою) називається двомісна дійсна функція T: x → , що задовольняє наступним умовам:


Приклади трикутних норм

min( μ A, μ B)

твір μ A· μ B

max(0, μ A+ μ B- 1 ).

Трикутною конормою(t-конормою) називається двомісна дійсна функція S: x → із властивостями:


Прикладиt-конорм

max( μ A, μ B)

μ A+ μ B- μ A· μ B

min(1, μ A+ μ B).

Алгебраїчні операції над нечіткими множинами

Алгебраїчний твір Аі Упозначається A· Уі визначається так:

Алгебраїчна сумацих множин позначається А+ Ві визначається так:

Для операцій (-, +) виконуються властивості:

Не виконуються:


Зауваження.При спільному використанні операцій ( U, ⋂, + , ) виконуються властивості:


На основі операції алгебраїчного твору визначається операція зведення у ступінь αнечіткої множини А,де α - додатне число. Нечітка безліч А αвизначається функцією приналежності μ α A = μ α A ( x). Окремим випадком зведення у ступінь є:

1) CON( А) = А 2- Операція концентрування (ущільнення);

2) DIL( А) = А 0,5- Операція розтягування,

які використовуються під час роботи з лінгвістичними невизначеностями (рис. 1.4).


Мал. 1.4. Ілюстрація до поняття операцій концентрування (ущільнення) та розтягування

Множення на число.Якщо α - позитивне число, таке, що, то нечітка безлічαАмає функцію приналежності:

μ αА(х) = αμA(x).

Випукла комбінація нечітких множин.Нехай A 1 , А 2,..., Аn- нечіткі множини універсальної множини Е, a ω 1 , ω 2 , …, ωn- Невід'ємні числа, сума яких дорівнює 1.

Випуклою комбінацією A 1 , А 2 , ..., Аnназивається нечітка безліч Аз функцією приналежності:

Декартове(пряме) твір нечітких множин.Нехай A 1 , А 2 , ..., Аn- нечіткі підмножини універсальних множин Е 1, Е 2, ..., Еnвідповідно. Декартово, або прямий твір А = А 1 x А 2 x... x Аnє нечітким підмножиною множини Е = Е 1 x Е 2 x... x Еnз функцією приналежності:

Оператор збільшення нечіткостівикористовується для перетворення чітких множин у нечіткі і для збільшення нечіткості нечіткої множини.

Нехай А- нечітка множина, Е- Універсальна безліч і для всіх хϵ Евизначено нечіткі множини До(х).Сукупність усіх До(х)називається ядром оператора збільшення нечіткості Ф. Результатом дії оператора Ф на нечітку множину Ає нечітка безліч виду


де μ А(х)К(х)- Добуток числа на нечітку безліч.

приклад . Нехай

Е =(1,2,3,4); А = 0,8/1+0,6/2+0/3+0/4; До(1)= 1/1 + 0,4/2;

До(2) = 1/2 + 0,4/1 + 0,4/3; До(3) = 1/3 + 0,5/4; До(4)= 1/4.

Тоді

Чітка безліч α-рівня(або рівня α).Безліч α-рівня нечіткої множини Ауніверсальної множини Еназивається чіткепідмножина А αуніверсальної множини Е,що визначається у вигляді

А α ={ x/μ A(x) ≥ α },

де α ≤ 1.

приклад.Нехай А = 0,2/x 1 + 0/x 2 + 0,5/x 3 + 1/x 4 , тоді A 0,3 = { x 3 , x 4 } , A 0,7 = {х 4} .

Досить очевидна властивість: якщо α 1≥ 2, то А α1А α2.



Останні матеріали розділу:

Прародина слов'ян Праслов'яни (предки слов'ян) жили в пору відокремлення від інших індоєвропейців на берегах верхів'я річок Одри
Прародина слов'ян Праслов'яни (предки слов'ян) жили в пору відокремлення від інших індоєвропейців на берегах верхів'я річок Одри

Попередній перегляд:Щоб користуватися попереднім переглядом презентацій, створіть собі обліковий запис Google і увійдіть до нього:...

Презентація збо загартовування організму
Презентація збо загартовування організму

Слайд 1 Слайд 2 Слайд 3 Слайд 4 Слайд 5 Слайд 6 Слайд 7 Слайд 8 Слайд 9 Слайд 10 Слайд 11 Слайд 12 Слайд 13 Презентацію на тему "Гартування...

Позакласний захід для початкової школи
Позакласний захід для початкової школи

Час має свою пам'ять – історію. Час має свою пам'ять – історію. 2 лютого ми згадуємо одну з найбільших сторінок Великої...