Використання каскадних нео-фаззі нейронних мереж для прогнозу

Автор:

Анотація: У статті розглянута каскадна нео-фаззі нейронна мережа, зроблені висновки о точності моделі при різній кількості правил та входів. Розглянута робота моделі при прогнозі промислового індексу Доу-Джонса.

Бібліографічний опис статті:

. Використання каскадних нео-фаззі нейронних мереж для прогнозу//Наука онлайн: Міжнародний електронний науковий журнал - 2018. - №7. - https://nauka-online.com/publications/technical-sciences/2018/7/vikoristannya-kaskadnih-neo-fazzi-nejronnih-merezh-dlya-prognozu/

Стаття опублікована у: : Наука Онлайн No7 июль 2018

Технічні науки

УДК 004.8

Пашкевич Данило Альбертович

студент

Навчально-наукового комплексу

«Інститут прикладного системного аналізу»

Національного технічного університету України

«Київський політехнічний інститут імені Ігоря Сікорського»

ВИКОРИСТАННЯ КАСКАДНИХ НЕО-ФАЗЗІ НЕЙРОННИХ МЕРЕЖ ДЛЯ ПРОГНОЗУ

Анотація. У статті розглянута каскадна нео-фаззі нейронна мережа, зроблені висновки о точності моделі при різній кількості правил та входів. Розглянута робота моделі при прогнозі промислового індексу Доу-Джонса.

Ключові слова: нейронні мережі, нечітка логіка, прогноз.

Для прогнозування на фінансових ринках традиційно використовувалися методи регресійного аналізу, метод експоненціального згладжування і метод МГУА. Однак в останні роки все ширше для цих цілей починають використовуватися системи з нечіткою логікою та нечіткі нейронні мережі, наприклад, каскадні нео-фаззі нейронні мережі (CNFNN), їх перевагою є відсутність необхідності навчання бази правил і параметрів функцій приналежності, нечітких множин, а навчаються за вибіркою тільки ваги зв’язків, що дозволяє істотно скоротити обчислювальні витрати і час навчання, а також вирішувати завдання великої розмірності. Це дає можливість застосування каскадних нео-фаззі мереж в задачах аналізу великорозмірних даних.

Структурний елемент такої мережі – нео-фаззі нейрон з декількома входами і єдиним виходом (рис. 1) – реалізується наступним відображенням:

Він реалізується наступним відображенням:

де  – i-й вхід (i = 1, 2, …, n),

– вихід системи,

– функція активації.

Видимо, що блоки, з яких складається нео-фаззі нейрон є нелінійними синапсами, які переводять вхідний сигнал у таку форму:

Рис. 1. Нео-фаззі нейрон [1]

і виконує нечіткий висновок:

ЯКЩО  є  ТО вихід є ,

де  – нечітке число, функція приналежності якого ,

– синоптична вага.

Очевидно, що нелінійний синапс фактично реалізує нечіткий висновок Такагі-Сугено нульового порядку.

Коли векторний сигнал  (k = 1, 2 … – дискретний час) подається на вхід поточного нейрона, вихід цього нейрона визначається обома функціями належності  і налаштованим синаптическими вагами , які були отримані в попередній епосі навчання:

і таким чином нео-фаззі нейрон містить h * n синаптичних ваги, які необхідно визначити.

Усього каскадна нео-фаззі мережа (рис. 2) містить m нео-фаззі нейронів, кожен з яких знаходиться на своєму каскаді. На вхід нейрону і-го порядку надходить всі x та виходи всіх нейронів попередніх каскадів.

  1. Нео-фаззі нейрон першого каскаду:

де  – ваги,

– функція приналежності.

Рис. 2. Архітектура каскадної нео-фаззі нейронної мережі [1]

  1. Нео-фаззі нейрон другого каскаду:
  2. Нео-фаззі нейрон третього каскаду:
  3. Нео-фаззі нейрон m-го каскаду:

Можемо побачити, що ця каскадна нео-фаззі нейронна мережа вміщує у себе лише  вагів. Також варто зазначити, що всі ці параметри, які необхідно настроїти під час навчання нейронної мережи, входять у формулу лінійно. Це означає, що процес навчання такої нейронної мережи не буде надмірно ускладнений.

Процес навчання каскадної нейронної мережі відбувається поступово. Тобто кожний каскад починає навчання тільки тоді, коли попередній нео-фаззі нейрон пройшов навчання і його ваги було зафіксовано. Бачимо, що процес навчання таким чином розбивається на m періодів, у кожний з яких ми настроюємо h*(n+1) вагових коефіцієнтів.

Слід відмітити, що кількість каскадів ми визначаємо під час самого процесу навчання нео-фаззі нейронної мережі. Процес зростання нейронної мережі (збільшення кількості каскадів) триває поки ми не отримаємо необхідну точність рішення або поки величина загального критерію не почне зростати.

Для навчання був використаний рекурентний метод найменших квадратів у такій формі [2]:

де  – велике додатне число,

I – одинична матриця необхідної розмірності,

– вагові коефіцієнти на -м кроці навчання,

– функція належності.

Можна відмітити, що процес навчання за допомогою цього методу є значно більш швидким, ніж класичний градієнтний метод, що лежить у основі метода зворотного розповсюдження.

Після навчання першого каскаду синаптичні ваги нео-фаззі нейрона першого каскаду стають “замороженими”, тоді значення будуть визначені і отримуємо другий каскад мережі, який складається з єдиного нео-фаззі нейрона другого каскаду. На відміну від нейрону першого каскаду, у нього є додатковий вхід, на який подається сигнал виходу першого каскаду. Потім знову використовуємо процедуру для налаштування вектора вагових коефіцієнтів.

Процес зростання нейронної мережі (збільшення кількості каскадів) триває поки ми не отримаємо необхідну точність рішення або поки величина загального критерію не почне зростати.

Для аналізу роботи каскадної нео-фаззі нейронної мережі був використаний наступний часовий ряд – це середнє значення промислового індексу Доу-Джонса протягом дня на протязі 10 років (рис. 3).

Рис. 3. Промисловий індекс Доу-Джонса

Як можна бачити у таблиці 1, при збільшенні кількості правил точність спочатку зростає, але з деякого моменту погіршується.

Таблиця 1

Середня абсолютна похибка для різної кількості правил

Кільк. правил 2 3 4 5 6 7
Похибка 235,782 92,880 137,993 75,715 77,892 51,295

Продовження таблиці 1

Кільк. правил 8 9 10 11 12
Похибка 36,839 17,047 46,947 35,865 144,155

Більш наглядно це демонструє рисунок 4.

Рис. 4. Середня абсолютна похибка для різної кількості правил

У таблиці 2 наведені середні похибки при різної кількості входів (від 1 до 15).

Таблиця 2

Середня абсолютна похибка для різної кількості входів

Кільк. входів 1 2 3 4 5 6 7
Похибка 70,424 45,862 37,72 33,256 31,248 30,725 30,240

Продовження таблиці 2

Кільк. входів 8 9 10 11 12 13
Похибка 29,049 28,786 29,543 33,423 36,360 43,469

Можемо побачити (рис. 5), що при збільшені входів точність зростає, але не так істотно, як при збільшенні правил. І з деякого моменту точність починає падати.

Рис. 5. Середня абсолютна похибка для різних значень входів

Можемо зробити висновок, що при ускладнені моделі деякий час точність зростає, але після певної межі, похибка починає зростати.

Література

  1. Зайченко Ю.П., Гамидов Г. И. Каскадные нейро-нечеткие сети в задачах прогнозирования на рынках ценных бумаг. Киев: Издательский дом «Слово», 2012. – 126.
  2. Bodyanskiy, Ye. Viktorov, I. Pliss The cascade NFNN learning algorithm. Вісник Ужгородського національного університету. Серія « Математика і інформатика». – 2008. – № 17. – C. 48-58.
  3. Jang R. J.-S., Sun C.-T., Mizutani E. Neuro-Fuzzy and Soft Computing: A Computational Approach to Learning and Machine Intelligence. Upper Saddle River: Prentice Hall, 1997. – P. 640.
  4. Зайченко Ю. П. Нечеткие модели и методы в интеллектуальных системах. Киев: Издательский дом «Слово», 2008. – C. 344.
  5. Zaychenko Yu. The fuzzy Group Method of Data Handling and its application for economical processes forecasting. Scientific Inquiry. – – №1. – P. 83-96.

Перегляди: 1037

Коментарі закрито.

To comment on the article - you need to download the candidate degree and / or doctor of Science

Підготуйте

наукову статтю на актуальну тему, відповідно до роздлів журналу

Відправте

наукову статтю на e-mail: editor@inter-nauka.com

Читайте

Вашу статтю на сайті нашого журналу та отримайте сертифікат