Об'єднання нечітких множин приклад. Нечіткі множини

Нечітка логікаі
нейронні мережі

Термін "нечітка логіка"

Термін "нечітка логіка"
У вузькому значенні,
нечітка логіка - це логічне обчислення,
є розширенням багатозначної
логіки.
В широкому сенсі
нечітка логіка рівнозначна теорії нечітких
множин.

Засновник

Вперше термін
нечітка логіка
(fuzzy logic) був
введено
американським
професором
Лотфі Заде у 1965
року у роботі
“Нечіткі
множини” в
журналі
“Інформатика та
управління”.
Народився в Баку, Азербайджан як Лотфі.
Алескерзаде (або Аскер Заде) від російської
матері та батька азербайджанця іранського
походження; з 1932 року жив в Ірані,
навчався Тегеранському університеті; з 1944 у
Сполучені Штати; працює в
Каліфорнійський університет (Берклі).

приклад

У лютому 1991 року була
сконструйовано першу
<интеллектуальная>
пральна машина,
системі управління якої
поєднувалися нечітка логіка.
Автоматично визначаючи
нечіткі вхідні фактори:
об'єм та якість білизни,
рівень забрудненості,
тип порошку і т.д.),
пральна машина
вибирала оптимальний
режим прання з 3800
можливих.

Розпізнавання рукописних символів у кишенькових комп'ютерах
(записних книжках)
(Sony)
Однокнопкове керування пральними машинами
(Matsushita, Hitatchi)
Розпізнавання рукописних текстів, об'єктів, голосів
(CSK, Hitachi, Hosai Univ., Ricoh)
Управління метрополітенами для підвищення зручності
водіння, точності зупинки та економії енергії (Hitachi)
Оптимізація споживання бензину в автомобілях
(NOK, Nippon Denki Tools)
Підвищення чутливості та ефективності управління
ліфтами
(Fujitec, Hitachi, Toshiba)

Приклади застосування нечіткої логіки:

Автоматичне керування воротами греблі на
гідроелектростанціях
Спрощене керування роботами
Наведення телекамер під час трансляції спортивних подій
Ефективне та стабільне керування автомобільними
двигунами
Управління економічною швидкістю автомобілів
(Nissan, Subaru)
Оптимізоване планування автобусних розкладів (Toshiba)
Системи архівації документів
(Mitsubishi Elec.)
Системи прогнозування землетрусів (Japan)
Діагностика раку
(Kawasaki Medical School)

Нечітка безліч

Основи нечіткої логіки були закладені в кінці 60-х років
роботах відомого американського математика
Латфі Заде
Нехай E – універсальна множина, x – елемент E, а R –
певну властивість.
Тоді нечітка підмножина A універсальної множини E
визначається як безліч упорядкованої пари
,
A (A(x)/x)
A(x)
де
характеристична функціяприладдя
(або просто функція приналежності), що приймає
значення в деякій упорядкованій множині M
(Наприклад, M = ).
Функція приладдя вказує ступінь (або рівень)
приналежності елемента x до підмножини A.
18

Приклади запису нечіткої множини

Нехай Е = (x1, x2, x3, x4, x5), M =; A – елемент
множини, для якої
A (x1) 0,2 A (x2) 0 A (x3) 0,4 A (x4) 1 A (x5) 0,7
1)
2)
3)
Тоді A можна подати у вигляді:
А=(0,2/x1;0/x2;0,4/x3;1/x4;0.7/x5),
A=(0,2/x1+0/x2+0,4/x3+1/x4+0,7/x5),
А =
x1
x2 x3
x4 x5
0,2
0
0,4
1
0,7

Приклад нечіткої множини

Основні характеристики нечітких множин

Нехай М = та А - нечітка безлічз елементами з
універсальної множини Е та безліччю
приладдя М.
sup A(x)
Висота:
.
x E
A(x) 1
Якщо sup
, то нечітка множина А нормально.
x E
sup A(x) 1
Якщо x E
, то нечітка множина А
субнормально.
20

Нечітка множина порожня, якщо x E A (x) 0
Непорожня субнормальна множина можна
нормалізувати за формулою: A(x): A(x)
.
sup A(x)
x E
Нечітка множина унімодальна, якщо A (x) 1
тільки в одному х з E.
Носієм нечіткої множини A є звичайне
підмножина з властивістю A (x) 0 , тобто A (x / x E , A (x) 0)
Елементи x E , для яких A (x) 0,5 ,
називаються точками переходу множини A.
-рівневе підмножина А це безліч в
якому
Приклад:
"Кілька" = 0,5/3+0,8/4+1/5+1/6+0,8/7+0,5/8; його
Показники: висота = 1, носій = (3,4,5,6,7,8),
точки переходу – (3,8).

Лінгвістична змінна «Вік»

Нехай перед нами стоїть завдання інтерпретації значень ЛП «вік», таких як «молодий»
вік, "похилий" вік або "перехідний" вік. Визначимо "вік" як ЛП.
Тоді «молодий», «похилий», «перехідний» будуть значеннями цієї лінгвістичної
змінної. Більше повний базовий набір значень ЛП «вік» наступний:
В = (дитячий, дитячий, юний, молодий, зрілий, похилий, старечий).
Для ЛП «вік» базова шкала – це числова шкала від 0 до 120, що позначає
кількість прожитих років, а функція приналежності визначає, наскільки ми впевнені у
тому, що цю кількість років можна віднести до цієї категорії віку.
02:09
12

Характеристики нечітких множин

Методи визначення функції
приладдя
Прямі (опитування експертів)
Непрямі (парні порівняння)
L-R – функції

Методи визначення функції власності

L-R нечіткічисла

L-R нечіткі числа

.
Операції над нечіткими множинами
Логічні операції
1. Увімкнення. Нехай А і В – нечіткі множини на універсальному
множині Е. Тоді А міститься в, якщо x E A (x) B (x)
Позначення: A B
2. Рівність. А та В рівні, якщо x E A (x) B (x) Позначення: А = В
3. Доповнення. Нехай М = , А і В – нечіткі множини, задані на
Е. А та В доповнюють один одного, якщо x E A (x) 1 B (x)
Позначення: B A
4. Перетин - найбільше нечітке підмножина, що містить
одночасно А і (A B): A B (x) min(A (x), B (x))
5. Об'єднання – найменша нечітка підмножина,
що включає як А, так і В з функцією приналежності (A B):
A B (x) max(A (x), B (x))
6. Різниця - операція з функцією приналежності (A B A B):
A B (x) A B (x) min(A (x), 1 B (x))
7. Диз'юнктивна сума - логічна операціяз функцією
приладдя (AB) (AB) (AB) (AB)):
A B (x) max(min(A (x), 1 B (x)); min(1 A (x), B (x)))

Операції над нечіткими множинами

приклад
Нехай A нечіткий інтервал від 5 до 8 та B
нечітке число близько 4

приклад

Перетин нечітка множина між 5
та 8 І (AND) близько 4 (синя лінія).

Об'єднання Нечітка множина між
5 і 8 АБО (OR) близько 4

Доповнення (заперечення) сенс НЕ

Концентрація
Лінгвістичний сенс «дуже»

Розмивання (або розмиття)
Лінгвістичний сенс
"не дуже"

Посилення чи ослаблення
лінгвістичних понять
Посилення чи ослаблення лінгвістичних понять досягається
запровадженням спеціальних квантифікаторів. Наприклад, якщо
поняття «старечий вік» визначається як
то поняття «дуже старечий вік» визначиться як
тобто НМ для «дуже старечий вік» виглядатиме так

Посилення чи ослаблення лінгвістичних понять

приклад

приклад

Трикутні норми та
конорми
Трикутна норма
Трикутна конорма

Трикутні норми та конорми

Алгебраїчні операції
1. Алгебраїчний твір А та В позначається
A B
і визначається так:
x E A B (x) A (x) B (x)
2. Алгебраїчна сумацих множин позначається A
ˆB
і визначається так:
x E A ˆ B (x) A (x) B (x) A (x) B (x)
На основі операції алгебраїчного твору визначається
операція зведення в ступінь α нечіткої множини,
де α -
A
додатне число. Нечітка безліч
визначається
функцією приналежності (x.)
A
A
Окремим випадком зведення у ступінь є такі.
3. Операція концентрування (ущільнення) CON(A) A2
4. Операція розтягування DIL(A) A
0.5
5. Множення на число. Якщо α – позитивне число, таке що
max A (x) 1 , то нечітка множина αА має функцію
x A
приладдя:
A(x) A(x)

Приклад застосування
трикутних норм та конорм

Приклад застосування трикутних норм та конорм

Нечітка і
лінгвістична
змінні. Нечіткі
числа
Нечітка логіка та
нейронні мережі

Нечіткі стосунки.

Визначення нечіткої
зміною

Приклад нечіткого відношення

Приклад: нечітка змінна
"високий зріст"
Х – «високе зростання» (найменування
змінної),
U = ,
– функція власності
елементів з універса X даної
нечіткої змінної.
Пояснення: Нечітка змінна – іменована нечітка множина

Приклад подання 1

Визначення лінгвістичної
змінної

Приклад подання 2

Приклад: ЛП "температура в кімнаті"
β = «температура в кімнаті» – ім'я лінгвістичної змінної;
U = - Універс визначення;
T = ("холодно", "комфортно", "жарко") - базова терм-множина;
G - синтаксичні правила, що породжує нові терми з використанням
квантифікаторів "і", "або", "не", "дуже", "менш-менш";
М - процедура, що ставить кожному новому терму у відповідність
функцію приналежності (тобто задаючи нечітку множину) за правилами:
якщо терми А та В мали функції приналежності μа(x) та μB(x)
відповідно, нові терми матимуть функції приналежності:
Квантифікатор
Функція приладдя:
не t
дуже t
більш-менш t
АіВ
max(μA(x), μB(x))
А чи В
min(μA(x), μB(x))

Модель "Ринок-Продукція"

Приклад: ЛП «дисципліна»
β – дисципліна;
Т – («Складна дисципліна», «Цікава
дисципліна», «Нагоді у майбутній роботі»);
U = [«Програмування», «Бази даних»,
«Нечітка логіка», «Історія»] – безліч
дисциплін, що вивчаються студентами напряму
"Бізнес Інформатика";
G – процедура перебору елементів базової термомножини;
M – процедура експертного опитування.

Операції над нечіткими відносинами

Приклад: товщина деталі
Нехай експерт визначає товщину виробу за допомогою
понять «мала товщина», «середня товщина» та «велика товщина»,
при цьому мінімальна товщина дорівнює 10 мм, а максимальна – 80 мм.
Формалізація такого опису може бути проведена за допомогою
наступною лінгвістичною змінною< β, T, X, G, M>, де
β – товщина виробу;
T – («мала товщина», «середня товщина», «велика товщина»);
U =;
G – процедура утворення нових термів за допомогою зв'язок і, або
модифікаторів типу дуже, не, злегка та ін. Наприклад: «мала або
середня товщина» (рис. 24), «дуже мала товщина» та ін;
М - процедура завдання на X = нечітких підмножин
А1 = "мала товщина", А2 = "середня товщина", А3 = "велика
товщина», а також нечітких множин для термів з G(T) відповідно
з правилами трансляції нечітких зв'язок та модифікаторів і, або, не,
дуже, злегка та ін.

Операції над нечіткими відносинами

Приклад: товщина деталі
Функції приналежності нечітких множин:
"мала товщина" = А1, "середня товщина" = А2, "велика товщина" = А3
Функція приладдя
нечіткої множини «мала або середня товщина» = А1 U А1

Приклад поєднання нечітких відносин

Види ЛП
ЛП
Дисципліна
Швидкість
Гравець
команди
Розмір
Вік
Числові
Нечислові
Банк

Приклад перетину нечітких відносин

Нечіткі числа
Нечіткі числа – нечіткі змінні, визначені числової осі, тобто. нечітке
число визначається як нечітка множина А на множині R c функцією
приладдя
Нечітке число - це нечітке підмножина універсальної множини
дійсних чисел, що має нормальну та опуклу функцію
приналежності, тобто таку, що:
а) існує значення носія, в якому функція приналежності дорівнює одиниці,
а також
b) при відступі від свого максимуму ліворуч або праворуч функція приналежності не
зростає.
Приклад:
"Товщина" (Т = ("мала товщина", "середня товщина", "велика товщина"))
Можливі значення, що залежать від області визначення U: даному випадкузначення
лінгвістичної змінної «товщина виробу» можуть бути визначені як
"близько 20 мм", "близько 50 мм", "близько 70 мм", тобто у вигляді нечітких чисел.

Приклади композицій

Операції над нечіткими
числами

Приклади композицій

L-R нечіткі числа

Композиція двох нечітких відносин

L-R нечіткі числа

Вибір кандидатів на навчання

L-R нечіткі числа
Толерантні нечіткі числа (L-R)-типу називають трапезоїдними
числами.
Якщо ми оцінюємо параметр якісно, ​​наприклад, кажучи: Це значення
параметра є середнім", необхідно ввести уточнююче
висловлювання типу "Середнє значення - це приблизно від a до b",
яке є предмет експертної оцінки(нечіткої класифікації), та
тоді можна використовувати для моделювання нечітких класифікацій
трапезоїдні числа.
!!! це самий природний спосібневпевненої класифікації.
Унімодальні нечіткі числа (L-R)-типу називають трикутними
числами.
Трикутні числа формалізують висловлювання типу "приблизно
одно α". Зрозуміло, що α+σ≈α, причому в міру спадання σ до нуля ступінь
впевненість у оцінці зростає до одиниці.

Нечіткий висновок
Нечітка логіка та
нейронні мережі

Нечітка і лінгвістична змінні. Нечіткі числа


y Y
X
Фаззифікатор
A X
Блок нечіткого
логічного
висновку
Нечітка база
правил
B Y
Дефаззифікатор

Визначення нечіткою зміною


моделі
Логіко-лінгвістичні методи опису систем засновані на тому, що
поведінка досліджуваної системи описується в природному
(або близькою до природної) мови у термінах лінгвістичних змінних.
L1: Якщо та/або … та/або то та/або… та/або
L2: Якщо та/або … та/або то та/або… та/або
....................
Lk: Якщо та/або … та/або то та/або… та/або
Нечіткі висловлювання типів 1 та 2

Приклад: нечітка змінна «високе зростання»

Логіко-лінгвістичний опис систем, нечіткі
моделі
L1: якщо то
L2: якщо то


....................
Lk: якщо то

Нечіткі висловлювання типу 3
Сукупність імплікацій (L1, L2, ..., Lk) відбиває функціональну
взаємозв'язок вхідних та вихідних змінних і є основою
побудови нечіткого відношення XRY, заданого на творі X x Y
універсальних множин вхідних та вихідних змінних.
Відношення R будується як
L.
i
i

Визначення лінгвістичної змінної


Лінгвістичні змінні
Зростання баскетболіста

Безліч термів - (дуже високий, високий, середній, низький)
Техніка гри баскетболіста

Безліч термів - (відмінна, дуже хороша, хороша, середня, погана)
Впевненість прийняття до команди
Безліч визначення –
Безліч термів - (повна, середня, мала, не беремо)

Система "Набір баскетболістів"
Зростання баскетболіста
Безліч визначення –
Дуже високий
середній
високий
низький

Приклад: ЛП «дисципліна»

Система "Набір баскетболістів"
Техніка гри баскетболіста
Безліч визначення –
відмінна
дуже хороша
гарна
середня
погана

Приклад: товщина деталі

Система "Набір баскетболістів"
Впевненість прийняття до команди
Безліч визначення –
повна
середня
мала
не беремо

Приклад: товщина деталі

Система "Набір баскетболістів"- Правила
Вхідні лінгвістичні змінні
Вихідна ЛП
Техніка гри
Зростання гравця
Впевненість відбору
Відмінно
Дуже високий
Повна
Відмінно
Високий
Повна
Відмінно
Не дуже високий
Середня
Відмінно
Низький
Середня
Дуже добре
Дуже високий
Повна
Дуже добре
Високий
Повна
Дуже добре
Не дуже високий
Середня
Дуже добре
Низький
Середня
добре
Дуже високий
Повна
добре
Високий
Повна
добре
Не дуже високий
Середня
добре
Низький
Мала
Не дуже добре
Дуже високий
Середня
Не дуже добре
Високий
Середня
Не дуже добре
Не дуже високий
Мала
Не дуже добре
Низький
Не беремо
Погано
Дуже високий
Мала
Погано
Високий
Мала
Погано
Не дуже високий
Мала

Види ЛП

Схеми нечіткого висновку
Схема 1: Алгоритм Мамдані (Mamdani). Імплікація
моделюється мінімумом, а агрегація – максимумом.
Схема 2: Алгоритм Цукамото (Tsukamoto). Вихідні
посилки - як у попереднього алгоритму, але
передбачається, що функції приладдя є
монотонними.
Схема 3. Алгоритм Суджено (Sugeno). Алгоритм
передбачає, що праві частини правил виведення
представлені у вигляді лінійних функцій.
Схема 4. Алгоритм Ларсена (Larsen). В алгоритмі Ларсена
нечітка імплікація моделюється з використанням
операції множення.
Схема 5. Спрощений алгоритм нечіткого виведення.
Вихідні правила у разі задаються як:
Якщо X є Аi та Y є Bi , то z = Zi, де Zi – чітке значення.

Нечіткі числа

Алгоритм Мамдані
Нехай деяка система описується такими
нечіткими правилами:
П1: якщо x є A, тоді w є D,
П2: якщо y є B, тоді w є E,
П3: якщо z є C, тоді w є F,
де x, y, z – імена вхідних змінних, w – ім'я
змінної виведення, а A, B, C, D, E, F – задані
функції приналежності (трикутної форми).
Передбачається, що вхідні змінні прийняли
деякі конкретні (чіткі) значення – x0, y0, z0.
15

Операції над нечіткими числами

Алгоритм Мамдані
Етап 1. Для даних значень та виходячи з функцій приналежності A, B,
C, знаходяться ступеня істинності α(x0), α(y0), α(z0) для передумов
кожного із трьох наведених правил.
Етап 2. Відбувається «відсікання» функцій належності висновків
правил (тобто D, E, F) на рівнях α(x0), α(y0), α(z0).
Етап 3. Розглядаються усічені на другому етапі функції
приналежності та провадиться їх об'єднання з використанням
операції max, в результаті чого виходить комбіноване нечітке
підмножина, що описується функцією приналежності μ∑(w) та
відповідне логічного висновкудля вихідної змінної w.
Етап 4 (за потреби). Знаходиться точне значення вихідний
змінної, наприклад, із застосуванням центроїдного методу: чітке
значення вихідний змінної визначається як центр тяжіння для
кривою μ∑(w):
w0
w
(w) dw
(w) dw
16

L-R нечіткі числа

Алгоритм Мамдані
w0
w
(w) dw
(w) dw
17

L-R нечіткі числа

Приведення до чіткості
(скаляризація)

L-R нечіткі числа

Приведення до чіткості
(скаляризація)

Нечіткий висновок

Алгоритм Ларсена

Нечітке (логіко-лінгвістичне) моделювання

Завдання про управління
кондиціонером
Правила:

Завдання про управління
кондиціонером

Логіко-лінгвістичний опис систем, нечіткі моделі

Завдання про управління
кондиціонером

Система "Набір баскетболістів"

Алгоритм Цукамото

Алгоритм Суджено та Такажі

Схеми нечіткого висновку

Алгоритм спрощеного вибору

Алгоритм Мамдані

Алгоритм спрощеного вибору

Алгоритм Мамдані

Дякую за увагу!
Успіхів!

Алгоритм Мамдані

Нейрони та нейронні
мережі
Нечітка логіка та
нейронні мережі

Нейронні мережі…
- розділ штучного інтелекту, в
якому для обробки сигналів
використовуються явища, аналогічні
тим, що відбувається в нейронах живих
істот.
Апроксимація
Прогнозування
Асоціативне управління
Ідентифікація та оцінювання
Класифікація та розпізнавання образів
86

Приведення до чіткості (скаляризація)

Завдання, успішно
розв'язувані нейромережами
розпізнавання зорових,
слухових образів;
асоціативний пошук
інформації та створення
асоціативних моделей; синтез
мови; формування
природної мови;
формування моделей та
різних нелінійних і важко
описуваних математично
систем, прогнозування
розвитку цих систем у
часу:
застосування з виробництва;
прогнозування розвитку
циклонів та інших природних
процесів, прогнозування
змін курсів валют та інших
фінансових процесів;
системи управління та
регулювання з
передбачення; управління
роботами, іншими складними
пристроями
різноманітні кінцеві
автомати: системи масового
обслуговування та комутації,
телекомунікаційні
системи;
прийняття рішень та
діагностика, що виключають
логічний висновок; особливо в
областях, де відсутні
чіткі математичні
моделі: в медицині,
криміналістиці, фінансовій
сфери.
87

Алгоритм Ларсена

Сфери знань
88

Нейрокомп'ютер.
- програмно-технічна система (її
також можна назвати спеціалізованою
ЕОМ), яка реалізує, або, як
кажуть, забезпечує деяку
формальну модель природної
нейронної мережі.
Програмування нейрокомп'ютерів
здійснюється не завданням послідовності
команд, а пред'явленням зразків, прикладів
вирішення завдань із потрібної галузі
89

Завдання про керування кондиціонером

40-е
50-ті
60-ті
передумови
70-ті
Нові знання про мозок
Розвиток мікроелектроніки та
КТ => технічна база
Недосконалість
існуючих ІІС
спад через технічні
складнощів реалізації, розвитку
символьне програмування
5000 фахівців,
> 100 компаній
Публікація Хопфілда:
Модель Хебба ~ клас
фізичних систем
3)
1)
2)
Розенблатом та Віндроу
створений персептрон пристрій для
розпізнавання образів
концепція клітинних
ансамблів Хебба (Канада)
перші спроби розробки ІІС
на основі нервових клітин
Рівень інтересу
Історія нейрокомп'ютера
80-ті
Міжнародні
конференції з
нейромереж (Neural
Information Processing
Systems та ін),
спеціалізовані
журнали (Neural
Networks,
NeuroComputers та ін.)
1996
серійний випуск та експлуатація
заснованих на нейромережевій
технології прикладних систем
90-ті
ХХI століття
90

Деякі відомості про мозок
Найскладніша з відомих системпереробки інформації.
У ньому міститься близько 100 млрд.
нейронів, кожен з яких має в
в середньому 100 тис. зв'язків.
Надійний: функціонує при втраті
(відмирання) нейронів
Обробка величезних обсягів
інформації здійснюється за частки
секунди, незважаючи на те, що час
реакції нейрона кілька
мілісекунд.
Добре вивчено структуру та функції окремих нейронів
Є деякі дані про організацію внутрішніх та зовнішніх
зв'язків між нейронами деяких структурних
утворень мозку
Мало відомо про участь різних структуру процесах
переробки інформації.
91

Біологічний нейрон
92

Нервовий імпульс
- процес поширення
збудження по аксону від тіла
клітини (аксонного пагорба) до
закінчення аксона.
- основна одиниця інформації,
що передається по волокну.
… передається у вигляді стрибків
потенціалу внутрішньоклітинного середовища
по відношенню до зовнішнього середовища,
навколишньої клітини зі швидкістю від
1 до 100 м/с.
Рефрактерність – відсутність збудливості нервової клітини
після попереднього збудження.
Період рефрактерності – мінімальний інтервал часу
між нервовими імпульсами(10-4. 10-3 с)
93

Алгоритм Цукамото

Мембрана
Забезпечує
проведення
нервових
імпульсів по
волокну
Товщина
мембрани
близько 10 нм
Міра збудження клітини = рівень поляризації
її мембрани, що залежить від сумарного
кількості нейромедіатора (хімічної
субстанції), виділеної усім синапсах.
94

Нейроподібний елемент (НПЕ)
або формальний нейрон
Модель фізичний нейрон.
НПЕ складається з виваженого суматора і
нелінійний елемент. Функціонування
визначається формулами:
і
де xi – вхідні сигнали, сукупність xi утворює вектор Х;
wi - вагові коефіцієнти, сукупність wi утворює вектор ваг W;
NET - виважена сума вхідних сигналів, значення NET передається на
нелінійний елемент;
Θ - пороговий рівень даного нейрона;
F - нелінійна функція, що називається функцією активації.
НПЕ має кілька вхідних сигналів x і один вихідний сигнал OUT.
Параметри НПЕ: вектор ваг W, пороговий рівень Θ та вид функції
активації F.
95

Алгоритм Суджено та Такажі

Принцип роботи НПЕ
1. На НПЕ надходить вхідний вектор X, що представляє
собою вихідні сигнали інших НПЕ
Цей вхідний сигнал відповідає сигналам, що надходять у
синапси біологічних нейронів
2. Кожен вхідний сигнал множиться на відповідний
вага w1, w2, ... wn - аналог ефективності сигналу.
Вага є скалярною величиноюпозитивною для
збудливих та негативних для гальмівних зв'язків.
3. Зважені вагами зв'язків вхідні сигнали надходять на
блок підсумовування, що відповідає тілу клітини, де
здійснюється їх алгебраїчне підсумовування та
визначається рівень збудження НПЕ.
4. Вихідний сигнал нейрона y визначається шляхом
пропускання рівня збудження через активацію.
96

Алгоритм спрощеного вибору

Види функцій
активації F

Алгоритм спрощеного вибору

Жорстка сходинка та
Жорстка
сходинка сходинка
полога
Полога сходинка
+ Проста;
+ Реалізація вимагає малих витрат;
-не дозволяє моделювати схеми
з безперервними сигналами;
- Утруднено навчання нейромереж.
+ легко розраховується;
+ Навчання утруднене.
98

Гіперболічний тангенс
Логістична функція
та функція Фермі
(функція Фермі)
Гіперболічний тангенс
* застосовується для мереж з
безперервними сигналами;
+ Легке навчання.
* використовується для
багатошарових персептронів;
+ Широкий діапазон сигналів;
+ Легке навчання.
99

Нейрони та нейронні мережі

Особливі функціїактивації
експонента
SOFTMAX-функція (виходи ймовірності)
Лінійна функція (не потрібна
послідовне з'єднання шарів
Гауссова крива (реакція НПЕ
має бути максимальна для
деякого значення)
100

Нейронні мережі…

Вибір функції активації
визначається…
1. специфікою завдання.
2. зручністю реалізації на ЕОМ, як
електричної схеми чи іншим способом.
3. алгоритм навчання: деякі
алгоритми накладають обмеження на
вид функції активації, їх потрібно
враховувати.
Найчастіше вид нелінійності не має принципового
впливу рішення завдання. Однак вдалий вибір може
скоротити час навчання у кілька разів
101

Завдання, що успішно вирішуються нейромережами

Обмеження моделі нейрона
Обчислення виходу нейрона
передбачаються
миттєвими, які не вносять
затримки.
У моделі відсутні
нервові імпульси.
Немає модуляції рівня
сигналу щільністю
імпульсів, як у нервовій
системі.
Не з'являються ефекти
синхронізації, коли
скупчення нейронів
обробляють інформацію
синхронно, під керуванням
періодичних хвиль
збудження-гальмування.
Немає чітких алгоритмів для
вибору функції активації.
Немає механізмів, що регулюють
роботу мережі в цілому (приклад гормональне регулювання
активності в біологічних
нервових мережах).
Надмірна формалізація
понять: "поріг", "вагові
коефіцієнти".
Не підтримується
різноманіття синапсів.
Гальмівні та збуджуючі
синапси реалізуються в даній
моделі у вигляді вагових
коефіцієнтів
протилежного знака, але це
далеко не всі види.
У моделі не простежується
різницю між градуальними
потенціалами та нервовими
імпульсами.
102

Сфери знань

Нейроподібна мережа
- сукупність нейроподібних елементів,
певним чином з'єднаних друг
з другом та із зовнішнім середовищем.
Вхідний вектор (кодуючий вхідний вплив або образ
зовнішнього середовища) подається на мережу шляхом активації вхідних
нейроподібних елементів.
Безліч вихідних сигналів нейронної мережі y1, y2,..., yn
називається вектором вихідної активності, або патерном
активності нейронної мережі.
103

Нейрокомп'ютер.

Особливості архітектури
нейромережі
топологія міжнейронних зв'язків;
вибір певної підмножиниНПЕ для
введення та виведення інформації;
наявність чи відсутність конкуренції;
напрям і спосіб управління та
синхронізації інформаційних потоківміж
нейронами
зумовлюють конкретний виглядвиконуваного
мережею перетворення інформації
104

Історія нейрокомп'ютера

Штучні нейронні
мережі
105

Деякі відомості про мозок

Найважливіші властивості
біологічних нейромереж
Здатність до повної обробки
інформації: асоціативність
(Мережа може відновлювати
повний образ з його частини),
здатність до класифікації,
узагальнення, абстрагування та
безліч інших.
Надійність. Біологічні НС
мають фантастичну
надійністю: вихід з ладу
навіть 10% нейронів у нервовій
системі не перериває її
роботи. Порівняно з
послідовними ЕОМ,
заснованими на принципах фону
Неймана, де збій одного осередку
пам'яті або одного вузла в
апаратурі призводить до краху
системи.
Паралельність обробки
інформації.
Самоорганізація. В процесі
роботи біологічні НС
самостійно, під
впливом зовнішньої
середовища, навчаються рішенню
різноманітних завдань.
Невідомо жодних
важливих обмежень
на складність завдань,
вирішуваних біологічними
нейронними мережами. Нервова
система сама формує
алгоритми своєї
діяльності, уточнюючи та
ускладнюючи їх протягом життя.
Біологічні НС є
аналоговими системами
106

Біологічний нейрон

Підходи до створення
нейронних мереж
Інформаційний підхід: байдуже, які
механізми лежать в основі роботи штучних
нейронних мереж, важливо лише, щоб при вирішенні
завдань інформаційні процесив СР були
подібні до біологічних.
Біологічний підхід: при моделюванні важливо
повна біоподібність, і необхідно детально
вивчати роботу біологічного нейрона
Великі роботи в біологічних дослідженнях
нейронних мереж належать Ендрю Хакслі, Алану
Ходжкіну, Бернарду Катцу, Джону Екклзу, Стівену
Куффлеру та ін.
108

Нервовий імпульс

Методи дослідження
нейроподібних мереж
Метод
Особливості
аналітичне
дослідження
- складність через велику кількість НПЕ
+ цікаві аналітичні результатиотримані
для багатьох моделей нейроподібних мереж
математичне
(імітаційне
моделювання)
+ дає можливість створити практично будь-які
моделі
- через послідовний характер їх роботи
вдається дослідити моделі обмеженого
розміру
фізичне
моделювання
+ дозволяє швидко отримати достовірні
результати роботи моделі
- технічна складність апаратної реалізації
великої кількості НПЕ з багатьма
адаптивними зв'язками
109

Мембрана

Категорії моделей
нейронних мереж
моделі окремих нейронів;
моделі невеликих групнейронів;
моделі нейронних мереж;
моделі розумової діяльностіі
мозку загалом.
110

Нейроподібний елемент (НПЕ) або формальний нейрон

Види навчання нейронних
мереж
111

Принцип роботи НПЕ

Алгоритми навчання
З учителем
Без учителя
Дано
вектор Х,
очікувані вихідні сигнали
нейрона dj ∈ D
вектор Х
Підбір
значень
фактичні вихідні сигнали
нейрона повинні приймати
значення, якнайбільше
близькі до очікуваних
мережа вчиться давати найкращі
значення виходів. Що
розуміється під "найкращими"
- Визначається алгоритмом
навчання.
Нові
значення
.. за рахунок здатності до
узагальнення мережею, якщо подати
на вхід вектор, який не
зустрічався під час навчання.
завжди
112

Види функцій активації F

Методи навчання МСП
Алгоритм зворотного
поширення помилки
класичний
Градієнтні
Виявлення градієнта
цільової функції
Алгоритм змінної метрики
Евристичні методи
На основі особистого досвіду
автора в галузі навчання
нейронних мереж
Алгоритм якнайшвидшого спуску
Алгоритм сполучення градієнтів
Алгоритм Левенберга-Марквардта
113

Жорстка сходинка та полога сходинка

Модель МакКаллока-Пітса
Вихідний сигнал:
Порогова функція:
Побудова дискретної моделі обґрунтовується проявом рефракції
у біологічних нейронів, що призводить до того, що нейрон може
змінювати свій стан із кінцевою частотою, причому тривалість
періодів бездіяльності залежить від частоти спрацьовування.
114

Гіперболічний тангенс та функція Фермі

Логічні операції

Особливі функції активації

Алгоритм навчання персептрону
Маккалока-Піттса

Вибір функції активації

Класифікація нейронних
мереж
Односпрямовані
Рекурентні
(Зі зворотним зв'язком)
Спосіб об'єднання нейронів
Нейронна мережа
Кількість шарів нейронів
Одношарові
Багатошарові
118

Обмеження моделі нейрона

Простий персептрон
матриця бінарних входів
(сенсорних нейронів або
"сітківка") r1, r2, ... rn, куди
подаються вхідні образи;
набір нейроподібних
елементів x1 , x2, ... xm, с
фіксованими зв'язками до
підмножинам сітківки
("детектори ознак");
"вирішальний елемент" - бінарний НПЕ з модифікованими
зв'язками із "детекторами". Зазвичай число вирішальних елементів
вибирається рівною кількості класів, на яку
необхідно розбити пред'являються персептрон образи.
119

Нейроподібна мережа

Персептрон Розенблатта
Простий
якого
умови:
персептрон, для
справедливі
n=m та xi=ri,
при
цьому
детектори
ознак
можуть
розглядатися як вхідний
шар.
Персептрон Розенблатта мав один шар ваг, що навчаються,
на входи якого подавалися сигнали з d = 512
асоціюючих нейронів з випадковими фіксованими
вагами, що утворюють ознаковий простір для 400 піксельних образів
120

Особливості архітектури нейромережі

Алгоритм навчання
персептрона Розенблатта
процедура збіжності персептрона Розенблатта
1.Вектор ваг wi встановлюється у довільне
стан.
2.На сітківку по черзі подають образи з навчальної
вибірки, які трансформуються у вихідний сигнал y
вирішального елемента.
3.При правильному відгуку нічого не змінюється.
4.При неправильному відгуку y=0 ваги всіх зв'язків від
активних елементів сітківки збільшують, а при
неправильний відгук y=1 – зменшують на величину.
Якщо рішення існує, воно буде досягнуто
кінцева кількість кроків при початковому виборізв'язків.
121

Штучні нейронні мережі

Характеристики персептрону
Тип вхідних сигналів: бінарні чи аналогові (дійсні).
Розмірності входу та виходу обмежені при програмній реалізації
лише можливостями обчислювальної системи, на якій
моделюється нейронна мережа, При апаратній реалізації технологічними можливостями.
Місткість мережі збігається з числом нейронів.
Модифікації. Багатошарові персептрони дають можливість будувати
більш складні розділяючі поверхні і тому мають більше
широке застосування під час вирішення завдань розпізнавання.
Переваги. Програмні або апаратні реалізації моделі дуже
прості. Простий та швидкий алгоритм навчання.
Недоліки. Примітивні розділяючі поверхні (гіперплощини)
дають можливість вирішувати лише самі прості завданнярозпізнавання.
Області застосування. Розпізнавання образів, класифікація.

Найважливіші властивості біологічних нейромереж

Багатошаровий персептрон
мережа прямого поширення
Сенсорний
(вхідний)
шар
Вихідний
(результативний) шар
Приховані (асоціативні) шари
Принцип зв'язку між нейронами - "кожен з кожним".
Кількість нейронів у шарах може бути довільною.
Зазвичай у всіх прихованих шарах однакова кількість нейронів.
Вхідний шар лише розподіляє сигнали.
123

Відмінності між біологічними НР та ЕОМ на архітектурі фон Неймана

Класифікація

Підходи до створення нейронних мереж

Регресія (апроксимація)

Методи дослідження нейроподібних мереж

Алгоритм розв'язання задач з
допомогою МСП
1.
2.
3.
4.
Визначити, який сенс
вкладається в компоненти
вхідний вектор x. Вхідний
вектор повинен містити
формалізована умова
завдання, тобто. всю інформацію,
необхідну для отримання
відповіді.
Вибрати вихідний вектор у
таким чином, щоб його
компоненти містили повний
відповідь поставленого завдання.
Вибрати вид нелінійності в
нейронах (функцію активації).
Встановити діапазон зміни
входів, виходів, ваг і
порогових рівнів, враховуючи
безліч значень обраної
5. Присвоїти початкові значення
ваговим коефіцієнтам та
порогових рівнів та
додатковим параметрам
(наприклад, крутість функції
активації, якщо вона буде
налаштовуватися під час навчання).
6. Провести навчання, тобто.
підібрати параметри мережі так,
щоб завдання вирішувалося
найкращим чином. за
закінчення навчання мережа готова
вирішити завдання того типу, яким
вона навчена.
7. Подати на вхід мережі умови
Завдання у вигляді вектора х.
Розрахувати вихідний вектор у,
який і дасть формалізоване
рішення завдання.
функції активації.
126

Категорії моделей нейронних мереж

Алгоритм зворотного
поширення помилки
Error backpropagation
Основа методу – цільова функція, що формулюється у вигляді
квадратичної суми різниць між фактичними та
очікуваними значеннями вихідних сигналів.
У разі одиничної одинарної
вибірки (x,d) цільова функція
визначається у вигляді:
При велику кількістьнавчальних вибірок j (j = 1,2,.. p) цільова
функція перетворюється на суму за всіма вибірками:
127

Види навчання нейронних мереж

Етапи виконання алгоритму
зворотного розповсюдженняпомилки
1.Аналіз нейронної
мережі у прямому
напрямку
передачі інформації
при генерації
вхідних сигналів,
складових
черговий вектор Х.
2.Створення мережі
зворотного
поширення
помилок
3.Уточнення ваг
4.Описаний у п. 1, 2
і 3 процес слід
повторити для всіх
навчальних вибірок.
.
До 1. розраховуються значення вихідних
сигналів нейронів прихованих шарів та вихідного
шару, а також відповідні похідні
функцій активації кожного шару.
До 2.шляхом зміни напрямів передачі
сигналів, заміна функцій активації їх
похідними та подача на колишній вихід
збудження у вигляді різниці між
фактичним та очікуваним значенням. Для
певної таким чином мережі необхідно
розрахувати значення необхідних зворотних
різниць.
3. за формулами на основі результатів,
отриманих у п. 1 і 2, для оригінальної мережі та
для мережі зворотного розповсюдження помилки
К 4. Дія алгоритму завершується у момент,
коли норма градієнта впаде нижче апріорі
заданого значення точності навчання е.
128

Алгоритми навчання

Перенавчання нейромережі
Функція вчитель,
породжуюча
навчальні
приклади, N<∞
У
Нейросітка з нульовою
помилкою навчання
Проблема: недостатньо
інформації, щоб
вибрати єдине
правильне рішення:
функцію-вчителі.
обрана випадковим чином функція дає
погані передбачення на нових прикладах,
відсутні в навчальній вибірці, хоча
останню мережу відтворила без помилок.
Замість того, щоб узагальнити відомі приклади,
мережа запам'ятала їх
130

Методи навчання МСП

Багатошаровий персептрон
нейронів з фіксованими
великому).
вагами
Поділ даних
на навчальне та
валідаційне
безлічі прикладів
скоротити різноманітність
можливих конфігурацій
навчених нейромереж
при мінімальній втраті
їх апроксимують
здібностей
137

Персептрон Розенблатта

Мережа Хопфілда
вихідні
сигнали
нейронів
є одночасно вхідними
сигналами
мережі,
при
цьому
збудливий вектор особливо не
виділяється.
відсутній зв'язок нейрона з
власним виходом
Вихідний сигнал i-го нейрона:
де bi-порогове значення,
задане зовнішнім джерелом,
N – кількість нейронів.
138

Алгоритм навчання персептрона Розенблатта

Розв'язання задач за допомогою
мереж Хопфілда
1. Побудувати функцію енергії таким чином, щоб точка
глобального мінімуму цієї функції збігалася із рішенням
завдання. При цьому градієнт функції енергії має
допускати обчислення за допомогою СР.
2. Записати формули для розрахунку параметрів мережі (вагових
коефіцієнтів та порогових рівнів) для розрахунку
градієнт функції енергії.
3. Розірвати ланцюжок зворотного зв'язку та пред'явити мережі
Вхідний вектор. Розрахувати значення виходів.
4. Замкнути зворотний зв'язок та надати мережі можливість
самостійно міняти свій стан (релаксація).
Зупинити процес релаксації після того, як вихідний
вектор перестане змінюватись, тобто. після досягнення мінімуму
функції енергії. Отримані виходи мережі дають рішення
завдання.
139

Характеристики персептрону

Властивості сучасних
нейромереж
Навчання. Вибравши одну з моделей СР, створивши мережу та
виконавши алгоритм навчання, ми можемо навчити мережу
розв'язання задачі, яка їй під силу. Нема ніяких
гарантій, що це вдасться зробити при вибраних мережах,
алгоритм і завдання, але якщо все зроблено правильно, то
Навчання буває успішним.
Здатність до узагальнення. Після навчання мережа
стає нечутливою до малих змін
вхідних сигналів (шуму або варіаціям вхідних образів)
та дає правильний результат на виході.
Здатність до абстрагування. Якщо пред'явити мережі
кілька спотворених варіантів вхідного образу, тобто мережа
сама може створити на виході ідеальний образ,
яким вона ніколи не зустрічалася.
142

Багатошаровий персептрон

Відмінність експертних та НС
систем за характером знань
Експертні системи (ЕС)
Джерело Формалізований досвід
знань
експерта, виражений у вигляді
логічних тверджень правил та фактів, безумовно
прийнятих системою
Характер Формально-логічне
знань
"лівопівкульне" знання в
вигляді правил
Розвиток У формі розширення
знань
сукупності правил та фактів
(бази знань)
Нейросетельні системи (НС)
Сукупний досвід експерта-вчителя,
відбирає приклади для навчання +
індивідуальний досвід учня на цих
приклади нейронної мережі
Асоціативне “правопівкульне” знання у
вигляді зв'язків між нейронами мережі
У формі донавчання на додатковій
послідовності прикладів, з уточненням
кордонів категорій та формуванням нових
категорій
Роль
Задає на основі правил повний Відбирає характерні приклади,
експерта обсяг знань експертної
формулюючи спеціально обґрунтування свого
системи
вибору
Роль
Пошук ланцюжка фактів та правил Формування індивідуального досвіду в
искус.сист. для доказу судження
формі категорій, одержуваних на основі
прикладів та категоризація образів

3) будь-якої іншої точки на графіку функції, відмінної від c і x 0,5, наприклад, наближеної межі носія (x 0,01) або ядра (x 0,99) – за результатами обчислюється значення параметра b.

3.Операції над нечіткими множинами

Виділяють дві групи операцій над нечіткими множинами:

1) теоретико-множинніоперації , які є узагальнення операцій класичної теорії множин на випадок нечітких множин;

2) операції, що істотно враховують нечіткість множини-

ства, що не мають сенсу для звичайних множин.

У загальному випадку теоретико-множинні операції над нечіткими множинами визначаються так, щоб, будучи застосованими до чітких множин, вони збігалися зі звичайними, класичними теоретико-множинними операціями.

З операцій першої групи розглянемо операції доповнення

перетину, об'єднання та декартового твору , з операцій другої групи – операціюзведення у ступінь.

3.1. Доповнення

Нехай A – нечітка множина на множині X з функцією приналежності μ A. Додатком A називається нечітка множина A з функцією приналежності

(x) = 1− μ A (x), x X

Операція доповнення зазвичай використовується для представлення логічного модифікатора "НЕ".

Приклад виконання операції нечіткого доповнення наведено на рис. 3.1, з якого видно, що існують елементи області визначення, що належать як самій множині, так і його доповненню, при цьому дані елементи не належать жодній з цих множин повністю, зі ступенем належності, що дорівнює 1. Іншими словами, в нечіткій логіці не діють добре відомі з класичної логіки принцип несуперечності та закон виключеного третього, що таки обумовлено нечіткістю меж між поняттям та його запереченням.

Основні поняття теорії нечітких множин

Мал. 3.1. Приклад виконання операції нечіткого доповнення

3.2. Перетин та об'єднання

Розглянемо один із найбільш поширених підходів до визначення операцій перетину та об'єднання нечітких множин, званий іноді мінімаксним підходом.

Нехай A і B – нечіткі множини на множині X з функціями належності A і B відповідно. Тоді перетин A ∩ B і об'єднання A B цих множин є нечіткими множинами на X з функціями належності відповідно:

з використанням мінімаксного підходу показано на рис. 3.2.

Мал. 3.2. Приклади виконання операцій перетину та об'єднання нечітких множин з використанням мінімаксного підходу

Операція перетину зазвичай використовується уявлення логічного зв'язки «І», а операція об'єднання – уявлення зв'язки «АБО ».

Легко бачити, що якщо в якості операндів A і B взяти звичайні, чіткі множини, то певні таким чином операції перетину та об'єднання зводяться до своїх класичних теоретико-множинних аналогів. Крім того, для цих операцій справедливі такі властивості:

Основні поняття теорії нечітких множин

комутативність:

A ∩ B = B∩ A, A B = B A;

асоціативність:

(A∩ B) ∩ C = A∩ (B∩ C) ,

(A B) C = A (B C);

граничні умови:

A ∩ =,

A = A,

A ∩ X = A,

A X = X;

ідемпотентність:

A ∩ A = A A = A;

дистрибутивність:

A ∩ (B C) = (A ∩ B) (A ∩ C),

A (B C) = (AB) ∩ (AC).

Розглянутий підхід до визначення операцій нечіткого перетину та об'єднання не є єдиним можливим. Досить часто використовується інший підхід, відповідно до якого:

μ A ∩ B (x) = μ A (x) μ B (x), x X,

μ A B (x) = μ A (x) + μ B (x) - μ A (x) μ B (x), x X.

Цей підхід іноді називають імовірнісним, оскільки відповідні вирази за своєю формою збігаються з виразами для визначення ймовірностей перетину та об'єднання випадкових подій. Приклади виконання операцій перетину та об'єднання з використанням ймовірнісного підходу показані на рис. 3.3.

Мал. 3.3. Приклади виконання операцій перетину та об'єднання нечітких множин з використанням ймовірнісного підходу

Для операцій перетину та об'єднання, визначених з використанням ймовірнісного підходу, залишаються справедливими властивості комутативності та асоціативності, а також граничні ус-

Основні поняття теорії нечітких множин

ловія. Властивості ідемпотентності та дистрибутивності не виконують.

ються, але справедливі їх менш жорсткі аналоги:

A ∩ A A, A A A;

A ∩ (B C) (A ∩ B) (A ∩ C),

A (B∩ C) (A B) ∩ (AC).

Введені підходи до визначення операцій нечіткого перетину та об'єднання можна розглядати як окремі випадки узагальненого підходу, заснованого на використанні трикутних норм та конорм.

Нехай на області × (тобто на одиничному квадраті) задана функція двох змінних T (x, y), що приймає значення на відрізку і задовольняє наступним умовам (для всіх можливих значень x і y):

1) комутативність: T(x, y) = T(y, x);

2) монотонність : x1 ≤ x2 , y1 ≤ y2 T(x1 , y1 ) ≤ T(x2 , y2 );

3) асоціативність: T(T(x, y), z) = T(x, T(y, z));

4) гранична умова: T(x, 1) = T(1, x) = x.

Аналогічно, нехай на цій же області задана функція S (x, y), що приймає значення на відрізку і для всіх можливих значень x і y, що задовольняє наступним умовам:

1) комутативність: S(x, y) = S(y, x);

2) монотонність : x1 ≤ x2 , y1 ≤ y2 S(x1 , y1 ) ≤ S(x2 , y2 );

3) асоціативність: S(S(x, y), z) = S(x, S(y, z));

4) гранична умова: S(x, 0) = S(0, x) = x.

Тоді функція T (x, y) називається трикутною нормоюабо

T-нормою, а S(x, y) – трикутною конормою чи S-нормою.

Прикладами T-норм та S-норм є:

T M (x, y) = min (x, y);

S M (x, y) = max (x, y);

T P (x, y) = xy;

S P (x, y) = x + y -xy;

T L (x, y) = max (x + y -1, 0);

S L (x, y) = min (x + y, 1).

Використовуючи T- та S-норми, можна ввести наступне узагальнене визначення операцій перетину та об'єднання нечітких множин:

μ A ∩ B (x) = T (μ A (x), μ B (x)), x X,

μ A B (x) = S (μ A (x), μ B (x)), x X.

де T – деяка T-норма, S – деяка S-норма.

Наведемо деякі з основних операцій, які можна здійснювати над нечіткими множинами.

1. Доповненнянечіткої множини Апозначається символом і визначається так:

(5.15)

Операція доповнення відповідає логічному запереченню. Наприклад, якщо А- назва нечіткої множини, то "не А"розуміється як (див. приклад нижче).

2. Об'єднаннянечітких множин Аі Упозначається А+В(або АЕВ) і визначається :

(5.16)

Об'єднання відповідає логічному зв'язку « або». Наприклад, якщо Аі У- Назви нечітких множин, то запис « А чи В» розуміється як А+В.

u більшез .

Примітка:слід мати на увазі, що логічна зв'язка Ú в даному контексті означає визначення max (тобто ); Ù означає min (тобто.).

3. Перетин Аі Упозначаються АСВі визначається так:

(5.17)

Перетин відповідає логічному зв'язку « u», тобто .

А і В = АÇВ(5.18)

При визначенні ступеня належності елементів uнової нечіткої множини, вибирають менше(див. зауваження вище).

4. Твір Аі Упозначається АВта визначається формулою

(5.19)

якщо (5.20)

Приклад 5.5.Якщо

U=1+2+…+10

A=0.8/3+1/5+0.6/6 (5.21)

B=0.7/3+1/4+0.5/6,

То ØА=1/1+1/2+0.2/3+1/4+0.4/6+1/7+1/8+1/9+1/10

А+В=0.8/3+1/4+1/5+0.6/6

АÇВ=0.7/3+0.5/6 (береться min із двох значень m)(5.22)

АВ=0.56/3+0.3/6

0.4А=0.32/3+0.4/5+0.24/6

5. Декартове твірнечітких множин А 1, …, А nуніверсальних множин U 1 ,…,U nвідповідно позначається А 1 ´…´А nі визначається як нечітка підмножина множини U 1 ´…´U nз функцією власності.

Приклад 5.6.Якщо

U 1 =U 2 =3+5+7

A 1 =0.5/3+1/5+0.6/7

A 2 =1/3+0.6/5, то

A 1 ´A 2 =0.5/3.3+1/5.3+0.6/7.6+0.5/3.5+0.6/5.5+0.6/7.5

Нечіткі стосунки.

Нечітке ставлення R: X®Yє нечіткою множиною декартового твору X'Y. Rнаступним чином описується за допомогою функції приналежності двох змінних:

(5.25)

Нечітким ставленням на безлічі X'Y називається сукупність пар

(5.26)

де - функція приналежності нечіткого відношення R, має той самий сенс, як і функція власності нечіткої множини.

Взагалі n- Арне ставлення є нечітке підмножина декартового твору X 1 ´X 2 ´…´X n, причому

(5.27)

Приклади нечітких відносин:

« Xприблизно дорівнює Y»,

« Xзначно більше Y»,

« Аістотно краще У».

Приклад 5.7.Припустимо, що X = (Юрій, Сергій), Y=(Максим, Михайло).


Тоді бінарне нечітке відношення «подібності» між елементами множин X та Y можна записати у вигляді

подібність = 0.8 / (Юрій, Максим) + 0.6 / (Юрій, Михайло) + 0.2 / (Сергій, Максим) + 0.9 / (Сергій, Михайло).

Крім цього, це ставлення можна представити у вигляді матриці відносин.

(5.28)

В якій (i,j)-й елемент дорівнює значенню функції для i-го значення xта j-го значення y.

Якщо R- Відношення X®Y(або, що те саме, ставлення до X'Y), а S- Відношення Y®Z, то композицією Rі Sє нечітке відношення X®Z, що позначається R° Sта визначається формулою

де ° – знак композиції, знаки Ú і Ù позначають відповідно maxі min, V y- Верхня грань по області значень у.

Тут (5.29) є композицією відносин.

Вираз (5.29) визначає максмінний твір Rі S.

Так, для дійсних чисел аі b:

(5.30)

(5.31)

Якщо X,Y,Z- Кінцеві множини, то матриця відносини R° Sє максмінний твір матриць відносин Rі S. У максмінному добутку матриць замість операції складання та множення використовуються операції Ú і Ù відповідно.

Приклад максмінного твору

(5.32)

Тут кількість рядків має дорівнювати кількості стовпців. Рядок множиться на стовпець і береться максимальне значення з мінімальних значень пар.

Лекція №4. Операції з нечіткими множинами

Визначення операцій, що виконуються з нечіткими множинами, багато в чому аналогічно операціям із звичайними (чіткими) множинами.

Еквівалентність.Дві нечіткі множини Аі Уеквівалентні (це
позначається як ) тоді і лише тоді, коли для всіх має місце .

Мал. 2.4. Операції з нечіткими множинами

Увімкнення. Нечітка безліч Аміститься в нечіткій множині У() тоді і тільки тоді, коли

Об'єднання, або диз'юнкція(disjunction), двох нечітких множин А і відповідає логічної операції " АБОі визначається як найменша нечітка множина, що містить обидва множини А і В. Функція приналежності для цієї множини знаходиться за допомогою операції взяття максимуму(Рис.2.4, б)

Перетин, або кон'юнкція(Conjunction), відповідає логічній операції " Іі визначається як найбільша нечітка множина, що є одночасно підмножиною обох множин.

Функція приналежності множини виражається за допомогою операції знаходження мінімуму(Рис. 2.4, в)

Доповнення(complement) нечіткої множини А, що позначається через (або A), відповідає логічному запереченню " НЕі визначається формулою (рис. 2.4, г)

Легко бачити, що стосовно класичних "чітких" множин, для яких функції приналежності приймають лише 2 значення: 0 або 1, формули визначають відомі операції логічного "АБО", "І", "НЕ".

Наведемо визначення ще двох досить поширених операцій над нечіткими множинами - твори алгебри та алгебраїчної суми нечітких множин.

Алгебраїчний твір АВнечітких множин Аі Увизначається так:

Алгебраїчна сума:

Крім перелічених є й інші операції, які виявляються корисними під час роботи з лінгвістичними змінними.

Операція концентрації(concentration) CON(А) визначається як алгебраїчне твір нечіткої множини Ана самого себе: тобто.

В результаті застосування цієї операції до множини Азменшуються ступеня належності елементів хцій множині, причому якщо , то це зменшення відносно мало, а для елементів з малим ступенем приналежності - відносно велике. У природній мові застосування цієї операції до того чи іншого значення лінгвістичної змінної А відповідає використанню терму, що посилює, "дуже" (наприклад, "дуже високий", "дуже старий" і т.д.).

Операція розтягування(dilation) DIL(A) визначається як

DIL(A)= A 0,5 , де

Дія цієї операції протилежна дії операції концентрації і відповідає невизначеному терму "досить", що виконує функцію ослаблення наступного за ним (основного) терму А: "досить високий", "досить старий" і т.п.

Можна ввести інші аналогічні за змістом операції, що дозволяють модифікувати значення лінгвістичної змінної, збільшуючи, таким чином, їх кількість. Так, терм "більше ніж" можна визначити наступним чином:

складовий терм "дуже-дуже":

Розглянемо застосування зазначених операцій на наступному прикладі. Нехай змінна ххарактеризує "вік людини", X- інтервал. Тоді нечіткі підмножини, що описуються термами "молодий" і "старий", можна уявити за допомогою функції приналежності (рис. 2.5).

Мал. 2.5. Графічне уявлення лінгвістичної змінної "вік людини"

Тоді, відповідно до виразу, знаходимо (рис. 2.5)

Так само, використовуючи (2.10) і (2.14), отримуємо (рис. 2.5)

Наприклад, якщо конкретній людині виповнилося 55 років (тобто. х= 55), то відповідно до цих функцій приналежності маємо:

До цих пір передбачалося, що йдеться про єдину змінну , Що приймає значення на числової числової осі.

Для випадку двох речових змінних (і) можна говорити про нечіткому відношенні R: XY, Що визначає деяку відповідність між елементами множини X і множини У за допомогою двовимірної функції приналежності μ( х,у):

Наведемо ще один приклад.

Припустимо, що ми маємо два набори чисел

і нехай суб'єктивні думки експертів щодо порівняльної величини цих чисел представлені у вигляді нечітких відносин:

R 1 (x, y) = "x більше, ніж у",

R 2 (x, y) = "x приблизно дорівнює у".

Задамо відношення R1 за допомогою табл.2.1, а відношення R2 - за допомогою табл. 2.2.

Тут ( i,j) - й елемент таблиці дорівнює значенню відповідної функції приналежності для i-го значення хі j-го значення у. Тоді операції об'єднання та перетину зазначених відносин можуть бути інтерпретовані як

Функції власності та за допомогою операцій знаходження максимуму та мінімуму, і набувають вигляду табл. 2.3, 2.4.


Логічні операції

Увімкнення.Нехай Аі У- нечіткі множини на універсальній множині е.Кажуть що Аміститься в В,якщо

Позначення: АСт.

Іноді використовують термін домінування,тобто. у випадку, коли АВ,кажуть що Удомінує А.

Рівність.А і В рівні, якщо

Позначення: А = В.

Доповнення.Нехай М = , Аі У– нечіткі множини, задані на Є. Аі Удоповнюють один одного, якщо

Позначення:

Очевидно, що (додаток визначено для М= , але очевидно, що його можна визначити для будь-якого впорядкованого М).

Перетин. АУ- найбільше нечітке підмножина, що міститься одночасно в Аі В:

Об'єднання.AУ- найменше нечітке підмножина, що включає як А,так і В,з функцією приналежності:

Різниця. з функцією приналежності:

Диз'юнктивна сума

АУ = (A - B) ∪ (B - A) = (A̅ B) ∪ ( ̅A ⋂ B )

з функцією приналежності:

приклади. Нехай


Тут:

1) А ⊂ В,тобто А міститься в Bабо Bдомінує А; З незрівнянноні з A, ні з В,тобто. пари ( А, С) та ( А, С) - пари недомінованих нечітких множин.

2) ABC

3) ̅A = 0,6/x 1 + 0,8/x 2 + 1/x 3 + 0/x 4 ; ̅B = 0,3/x 1 + 0,1/x 2 + 0,9/x 3 +0/x 4 .

4) АВ = 0,4/x 1 + 0,2/x 2 + 0/x 3 + 1 /х 4 .

5) AУ= 0,7/ x 1+ 0,9/x 2 + 0,1/x 3 + 1/x 4 .

6) А - В= А̅В = 0,3/x 1 + 0,l/ x 2 + 0/x 3 + 0/x 4 ;

У- А= ̅АУ= 0,6/x 1 + 0,8/x 2 + 0,l/ x 3 + 0/x 4 .

7) АВ = 0,6/x 1 + 0,8/x 2 + 0,1/x 3 + 0/x 4 .

Наочне уявлення логічних операцій над нечіткими множинами. Для нечітких множин можна будувати візуальну виставу. Розглянемо прямокутну систему координат, на осі ординат якої відкладаються значення μ А (х),на осі абсцис у довільному порядку розташовані елементи Е(Ми вже використовували таке уявлення в прикладах нечітких множин). Якщо Еза своєю природою впорядковано, цей порядок бажано зберегти у розташуванні елементів на осі абсцис. Таке уявлення робить наочними прості логічні операції над нечіткими множинами (див. рис. 1.3).

Мал. 1.3. Графічна інтерпретація логічних операцій: α - нечітка безліч А; б- нечітка безліч ̅А, в - А̅А; г- A̅А

На рис. 1.3α заштрихована частина відповідає нечіткому множині Аі, якщо говорити точно, зображує область значень Аі всіх нечітких множин, що містяться в А.На рис. 1.3 б, в, гдані ̅ А, А ̅ A, A U ̅А.

Властивості операцій і

Нехай А, В, С- нечіткі множини, тоді виконуються такі властивості:


На відміну від чітких множин, для нечітких множин загалом

випадку:

A̅A ≠∅, A ∪ ̅A ≠ E

(що, зокрема, проілюстровано вище з прикладу наочного уявлення нечітких множин).

Зауваження . Введені вище операції над нечіткими множинами засновані на використанні операцій max min. Теоретично нечітких множин розробляються питання побудови узагальнених, параметризованих операторів перетину, об'єднання та доповнення, що дозволяють врахувати різноманітні смислові відтінки відповідних їм зв'язок «і», «або», «ні».

Один з підходів до операторів перетину та об'єднання полягає в їх визначенні класі трикутних норм та конорм.

Трикутною нормою(t-Нормою) називається двомісна дійсна функція T: x → , що задовольняє наступним умовам:


Приклади трикутних норм

min( μ A, μ B)

твір μ A· μ B

max(0, μ A+ μ B- 1 ).

Трикутною конормою(t-конормою) називається двомісна дійсна функція S: x → із властивостями:


Прикладиt-конорм

max( μ A, μ B)

μ A+ μ B- μ A· μ B

min(1, μ A+ μ B).

Алгебраїчні операції над нечіткими множинами

Алгебраїчний твір Аі Упозначається A· Уі визначається так:

Алгебраїчна сумацих множин позначається А+ Ві визначається так:

Для операцій (-, +) виконуються властивості:

Не виконуються:


Зауваження.При спільному використанні операцій ( U, ⋂, + , ) виконуються властивості:


На основі операції алгебраїчного твору визначається операція зведення у ступінь αнечіткої множини А,де α - додатне число. Нечітка безліч А αвизначається функцією приналежності μ α A = μ α A ( x). Окремим випадком зведення у ступінь є:

1) CON( А) = А 2- Операція концентрування (ущільнення);

2) DIL( А) = А 0,5- Операція розтягування,

які використовуються під час роботи з лінгвістичними невизначеностями (рис. 1.4).


Мал. 1.4. Ілюстрація до поняття операцій концентрування (ущільнення) та розтягування

Множення на число.Якщо α - позитивне число, таке, що, то нечітка безлічαАмає функцію приналежності:

μ αА(х) = αμA(x).

Випукла комбінація нечітких множин.Нехай A 1 , А 2,..., Аn- нечіткі множини універсальної множини Е, a ω 1 , ω 2 , …, ωn- Невід'ємні числа, сума яких дорівнює 1.

Випуклою комбінацією A 1 , А 2 , ..., Аnназивається нечітка безліч Аз функцією приналежності:

Декартове(пряме) твір нечітких множин.Нехай A 1 , А 2 , ..., Аn- нечіткі підмножини універсальних множин Е 1, Е 2, ..., Еnвідповідно. Декартово, або прямий твір А = А 1 x А 2 x... x Аnє нечітким підмножиною множини Е = Е 1 x Е 2 x... x Еnз функцією приналежності:

Оператор збільшення нечіткостівикористовується для перетворення чітких множин у нечіткі і для збільшення нечіткості нечіткої множини.

Нехай А- нечітка множина, Е- Універсальна безліч і для всіх хϵ Евизначено нечіткі множини До(х).Сукупність усіх До(х)називається ядром оператора збільшення нечіткості Ф. Результатом дії оператора Ф на нечітку множину Ає нечітка безліч виду


де μ А(х)К(х)- Добуток числа на нечітку безліч.

приклад . Нехай

Е =(1,2,3,4); А = 0,8/1+0,6/2+0/3+0/4; До(1)= 1/1 + 0,4/2;

До(2) = 1/2 + 0,4/1 + 0,4/3; До(3) = 1/3 + 0,5/4; До(4)= 1/4.

Тоді

Чітка безліч α-рівня(або рівня α).Безліч α-рівня нечіткої множини Ауніверсальної множини Еназивається чіткепідмножина А αуніверсальної множини Е,що визначається у вигляді

А α ={ x/μ A(x) ≥ α },

де α ≤ 1.

приклад.Нехай А = 0,2/x 1 + 0/x 2 + 0,5/x 3 + 1/x 4 , тоді A 0,3 = { x 3 , x 4 } , A 0,7 = {х 4} .

Досить очевидна властивість: якщо α 1≥ 2, то А α1А α2.



Останні матеріали розділу:

Земна кора та її будова Які типи земної кори виділяються
Земна кора та її будова Які типи земної кори виділяються

Земна кора – верхня частина літосфери. У масштабах усієї земної кулі її можна порівняти з найтоншою плівкою - настільки незначна її потужність. Але...

Місяць та гріш, або історія гелієвої енергетики
Місяць та гріш, або історія гелієвої енергетики

Потрібно зрозуміти, що сьогодні дослідження Сонячної системи, вивчення позаземної речовини, хімічної будови Місяця та планет, пошук позаземних форм...

Читати онлайн книгу «Метод Хосе Сільви
Читати онлайн книгу «Метод Хосе Сільви

Хосе Сільва (Jose Silva, 11 серпня 1914, Ларедо, Штат Техас, США - 7 лютого 1999, Ларедо) - американський парапсихолог, засновник Методу Сільва і...