42
МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ НАЦІОНАЛЬНИЙ ТЕХНІЧНИЙ УНІВЕРСИТЕТ УКРАЇНИ «КИЇВСЬКИЙ ПОЛІТЕХНІЧНИЙ ІНСТИТУТ ІМЕНІ ІГОРЯ СІКОРСЬКОГО» ЧУМАЧЕНКО ОЛЕНА ІЛЛІВНА УДК 004.032.26(043.3) СТРУКТУРНО-ПАРАМЕТРИЧНИЙ СИНТЕЗ ГІБРИДНИХ НЕЙРОННИХ МЕРЕЖ Спеціальність: 05.13.23 – системи та засоби штучного інтелекту Автореферат дисертації на здобуття наукового ступеня доктора технічних наук Київ – 2019

МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ О.I_0.pdf · Дослідження принципів гібридизації НМ, нечіткої логіки

  • Upload
    others

  • View
    35

  • Download
    0

Embed Size (px)

Citation preview

МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИНАЦІОНАЛЬНИЙ ТЕХНІЧНИЙ УНІВЕРСИТЕТ УКРАЇНИ

«КИЇВСЬКИЙ ПОЛІТЕХНІЧНИЙ ІНСТИТУТ ІМЕНІ ІГОРЯ СІКОРСЬКОГО»

ЧУМАЧЕНКО ОЛЕНА ІЛЛІВНА

УДК 004.032.26(043.3)

СТРУКТУРНО-ПАРАМЕТРИЧНИЙ СИНТЕЗГІБРИДНИХ НЕЙРОННИХ МЕРЕЖ

Спеціальність: 05.13.23 – системи та засоби штучного інтелекту

Авторефератдисертації на здобуття наукового ступеня

доктора технічних наук

Київ – 2019

Дисертацією є рукопис.

Роботу виконано в Національному технічному університеті України «Київськийполітехнічний інститут імені Ігоря Сікорського» Міністерства освіти і науки.

Науковий консультант: доктор технічних наук, професорЗгуровський Михайло Захарович,Національний технічний університет України«Київський політехнічний інститутімені Ігоря Сікорського», ректор

Офіційні опоненти:доктор технічних наук, професорСнитюк Віталій Євгенович,Київський національний університетімені Т. Шевченка, завідувач кафедриінтелектуальних та інформаційних систем;

доктор технічних наук, професорЛитвиненко Володимир Іванович,Херсонський національний технічний університет,завідувач кафедри інформатики і комп’ютерних наук;

доктор технічних наук, професорКорабльов Микола Михайлович,Харківський національний університетрадіоелектроніки, професор кафедри комп’ютернихінтелектуальних технологій та систем.

Захист відбудеться «22» 10.2019 року о 15 год. 00 хв. На засіданні спеціалізованоївченої ради Національного технічного університету України «Київськийполітехнічний інститут імені Ігоря Сікорського» за адресою: 03056, м. Київ, просп.Перемоги, 37, корп. 35, ауд. 001.

З дисертацією можна ознайомитись у науково-технічній бібліотеці ім. Г.І.Денисенка Національного технічного університету України «Київськийполітехнічний інститут імені Ігоря Сікорського» за адресою: 03056, м. Київ, просп.Перемоги, 37.

Автореферат розіслано « 25 » 10. 2019 р.

Учений секретарспеціалізованої вченої ради Капустян В.О.

1

ЗАГАЛЬНА ХАРАКТЕРИСТИКА РОБОТИАктуальність теми. Розробка та впровадження штучних нейронних мереж

(ШНМ) на базі прогресивних технологій є одним з пріоритетних напрямків розвиткугалузей науки та техніки в усіх промислово розвинених країнах.

При вирішенні прикладних задач з метою підвищення точності та зниженняскладності виникають завдання пошуку оптимальної топології мережі та відповідно донеї структурної (визначення кількості скритих шарів та нейронів в них, міжнейроннихзв’язків окремих НМ) і параметричної (налаштування вагових коефіцієнтів)оптимізації.

Основні обмеження відомих методів і технологій, які використовуються наданий час, обумовлені недостатньою ефективністю розв’язання проблеми навчанняШНМ, налаштування і адаптації до проблемної області, обробці неповної танеточної вихідної інформації, інтерпретації даних і накопичення знань експертіводноманітного представлення інформації, яка поступає від різних джерел, тощо.

Тому однією із провідних тенденцій в сучасній інформатиці став розвитокінтегрованих, гібридних систем на основі глибокого навчання. Подібні системискладаються з різних елементів (компонентів), об’єднаних в інтересах досягненняпоставлених цілей. Інтеграція і гібридизація різних методів і технологій дозволяєвирішувати складні задачі, які неможливо вирішити на основі якихось окремихметодів або технологій. Інтегрованість, як фундаментальна властивість складноїсистеми, яка тісно пов’язана з її цілісністю, передбачає не просто об’єднання, але йвзаємну адаптацію і сумісну еволюцію її компонентів, що забезпечує появу новихякостей, які не властиві її компонентам окремо.

Побудова гібридних нейронних мереж (ГНМ), які складаються з різних типівНМ, кожна з яких навчається за певним алгоритмом пошарово, в багатьох випадкахдозволяє значно підвищити ефективність функціонування НМ.

Дослідження принципів гібридизації НМ, нечіткої логіки та генетичнихалгоритмів дозволяє створювати нові типи моделей, які мають більш високу якістьрозпізнавання у разі одночасного зниження обчислювальних витрат на навчання.

Істотний внесок у розвиток гібридних нейронних мереж внесли такі вчені, якДжеффрі Хінтон, Ян Ле Кун, Ян Бенджіо, Є.В. Бодянський, Ю.П. Зайченко, В.В.Круглов та В.В. Борисов.

Не зважаючи на певні досягнення в розробці ГНМ, на даний час не існуєєдиного підходу для їх створення. В основі існуючих методів головним єзапропонований без достатнього обґрунтування вибір базової НМ (нечіткої НМрізної топології) з додаванням до неї інших мереж. Для кожної ГНМ, побудованої затаким принципом, розробляється індивідуальний алгоритм навчання.

Таким чином, головними проблемами синтезу ГНМ, на даний час є: відсутність формальних методів вибору типу НМ, адекватних класу задач, які

необхідно розв’язувати; недостатнє опрацювання питань автоматичного формування топології НМ,

що не дозволяє створювати НМ високої точності та мінімальної складності; недостатня обґрунтованість вибору методів оптимізації в процедурі навчання

НМ, що призводить до значних похибок.

2

З огляду на вище наведене, можна зробити висновок про необхідністьстворення єдиної методології побудови ГНМ з можливістю поступовогонарощування складності їх структури та використання гібридних алгоритмівнавчання, у тому числі глибокого навчання, з метою покращення розв’язанняпоставлених задач.

Зв’язок роботи з науковими програмами, планами, темамиДисертаційна робота виконана на кафедрі технічної кібернетики Національного

технічного університету України «Київський політехнічний інститут ім. ІгоряСікорського» і є складовою частиною науково-дослідних робіт із створеннягібридних нейронних мереж, зокрема: бюджетної НДР «Методологія побудовиінформаційних систем з інтелектуальною підтримкою прийняття рішення» (Д/Б№2474-п, номер державної реєстрації 0111U002510), яка виконувалась в період з2011 по 2012 рр. під науковим керівництвом автора; договору про співдружністьміж Інститутом ендокринології та обміну речовин ім. В. П. Комісаренка НАНУ таНТУУ «Київський політехнічний інститут», який виконувався в період з 2011 по2012 рр. під науковим керівництвом автора.

Мета і задачі дослідження. Мета дисертаційної роботи – подальший розвитоктеорії гібридних нейронних мереж, створення, дослідження та удосконаленняметодів ш алгоритмів складаючих основу нейромережевих та гібридних технологій,які підвищують ефективність процесів обробки інформації в інтелектуальнихсистемах призначених для діагностики, прогнозування, підтримки прийняттярішень.

Для досягнення мети дисертаційної роботи розв’язані наступні задачі: розроблено методологію структурно-параметричного синтезу гібридних

нейронних мереж; розроблено метод структурно-параметричного синтезу модулів гібридних

нейронних мереж; розроблено алгоритм структурно-параметричного синтезу ансамблю

модулів гібридних нейронних мереж; розроблено алгоритм структурно-параметричного синтезу гібридних

нейронних мереж глибокого навчання;- розроблено методи прогнозування на основі використання гібридних

нейронних мереж глибокого навчання.Об’єктом досліджень є гібридні нейронні мережі.Предметом дослідження є процес побудови гібридних нейронних мереж в

результаті створення нових гібридних технологій на основі розв’язаннятеоретичних, методологічних та практичних проблем.

Методи дослідженняМетодологічною основою роботи є системний аналіз та системний підхід до

процесу побудови гібридних нейронних мереж, які використовуються длявирішення широкого спектру задач, пошуку рішень в умовах інформаційноїневизначеності. У роботі використано методи теорії оптимізації, функціональногоаналізу, теорії диференційних рівнянь, теорії прийняття рішень, теорії графів,експертних оцінок, обробки зображень, тощо.

3

Для оцінювання ефективності гібридних нейронних мереж використані теоріяймовірності, математичний апарат перевірки статистичних гіпотез і дисперсійногоаналізу.

Наукова новизна отриманих результатів полягає у наступному.Уперше: розроблено методологію синтезу гібридних нейронних мереж, яка

відрізняється тим, що на першому етапі оптимальним чином обираєтьсябазова нейронна мережа, на другому етапі в результаті розв’язання задачібагатокритеріальної оптимізації вона модифікується, на третьому етапівирішується задача структурно-параметричного синтезу модулів, начетвертому етапі розв’язується задача структурно-параметричного синтезуансамблю, що дозволяє підвищити точність роботи систем за їх мінімальноїскладності;

розроблено метод модифікації базової нейронної мережі (БНМ), якийвідрізняється тим, що з метою підвищення ефективності (збільшення точностіі зниження складності БНМ) розв’язання задачі здійснюється в два етапи: напершому етапі використовується гібридний багатокритеріальний еволюційнийалгоритм для локалізації зони пошуку оптимальної структури і ваговихкоефіцієнтів НМ, а на другому – для більш точного визначення кількостінейронів в прихованих шарах застосовується адаптивний алгоритм об’єднанняі нарощування, уточнення вагових коефіцієнтів здійснюється на підставівикористання методів зворотного розповсюдження помилки і найшвидшогоспуску (стохастичного градієнтного спуску);

розроблено метод розв’язання задачі структурно-параметричного синтезумодуля гібридних нейронних мереж, який відрізняється тим, що до складумодуля входять базова нейронна мережа і двонаправлена асоціативнапам’ять, а його навчання здійснюється в два етапи: на першому – навчаєтьсядвонаправлена асоціативна пам’ять, а на другому – базова нейронна мережа,що дозволяє підвищити точність роботи нейронної мережі;

розроблено алгоритм структурно-параметричного синтезу ансамблю модулівгібридних нейронних мереж, який відрізняється тим, що структуру ансамблювизначено у вигляді паралельного з’єднання модулів нейронних мереж зшаром об’єднання, вибір і навчання яких здійснюється в результатіоптимізації критеріїв точності та різноманітності з використаннямзапропонованого алгоритму спрощення та методу динамічного усереднення,що дозволяє підвищити точність роботи при мінімальній складностіансамблю;

запропоновано модель штучного нейрону sigm_piecewise, яка відрізняєтьсятим, що базується на використанні трьох зважених суматорів та відповідноїфункції активації, яка залежить від трьох змінних, що дозволяє отриматимодель, яка апроксимує певну просту кусково-лінійну функцію, і при цьомудозволяє незалежно налаштовувати параметри гіперплощини, яка задаєпівпростори з різними лінійними функціями і, як наслідок, має покращеніапроксимуючі властивості;

розроблено гібридний алгоритм формування топології нейронної мережіглибокого навчання, який відрізняється тим, що параметри основної мережі

4

визначаються в результаті почергового виконання кожної ітерації пошукупослідовно кожним з базових алгоритмів (рою частинок і генетичного),порівнянням знайдених результатів і використанням найкращого іззнайдених розв’язків кожним алгоритмом, що дозволяє підвищити точність ішвидкість роботи мережі при мінімальній складності.

Удосконалено методологію обробки відеозображень на базі згортковихнейронних мереж і класифікаторів глибокого навчання для виявленнянеформалізованих дескрипторів, яка відрізняється тим, що в результаті визначеннясуттєвих параметрів розв’язано задачу структурно-параметричного синтезу ЗНМ наоснові використання генетичного алгоритму; навчальна вибірка формується врезультаті використання системного підходу, що включає: видалення шумів назображенні, сегментацію зображення, виділення границь на картинці, формалізаціюдескриптора об’єкта, класифікацію дескриптора, що дає можливість підвищититочність розпізнавання.

Набули подальшого розвитку: гібридний метод розв’язання задач прогнозування, який вирізняється тим, що

в ньому реалізовано глибоке навчання на основі використання одношаровоїмережі з нейронами типу sigm_piecewise, побудованої із застосуваннямметоду МГУА, з подальшим навчанням всієї мережі в цілому методомзворотного поширення помилки з метою знаходження глобальногоекстремуму, що підвищує точність прогнозування;

метод прогнозування з регуляризацією, який відрізняється тим, що можевикористовуватись у випадку неоднорідності даних, і заснований навикористанні алгоритму м’якої кластеризації, в якому в якості моделіповерхні, що розділяє кластери, використовуються нейрони sigm_piecewise ілокальних ШНМ, по одній на кожен кластер, навчання яких здійснюєтьсятільки на прикладах з одного кластера, що підвищує точність прогнозування.

Практичне значення отриманих результатів полягає у тому, що розробленіметоди й алгоритми доцільно використовувати: у медичних інтелектуальнихдіагностичних системах для вирішення завдань діагностування злоякісних пухлинщитовидної залози, захворювань печінки, що дозволить значно підвищити відсотоквстановлення правильних медичних діагнозів і тим самим підвищити відсотокодужання хворих, у технічних інтелектуальних діагностичних системах длявирішення завдань діагностики несправностей радіоелектронного обладнання, щодозволить скоротити час і підвищити якість ремонту, в інформаційних пожежнихсистемах для дистанційного визначення категорії пожежі, вибору сил і засобів для їїгасіння, визначення оптимальних шляхів евакуації персоналу та відвідувачів, щодозволить скоротити кількість людських жертв, час гасіння пожеж і знизитиматеріальні збитки, у системах керування дорожнім рухом, що дозволить збільшитисередню швидкість пересування транспорту дорогами міста й уникнути виникненнятранспортних заторів, у інтелектуальних системах прогнозування для використанняу системах управління виробничими процесами з метою визначення плановихпоказників, що дозволить скоротити виробничі витрати.

Розроблені методи й алгоритми реалізовувались: у медичній діагностичнійсистемі в НДІ «Ендокринології й обміну речовин» ім. В.П. Комисаренко з метоюдіагностування захворювань щитовидної залози, що дозволило значно підвищити

5

кількість оглядів пацієнтів і скоротити час проведення огляду для одержаннядіагнозу, у інтелектуальній системі діагностики в клініці «Амеда» з метоюдіагностування захворювань печінки, що дозволило знизити кількість пацієнтів, якіпотрапляють на біопсію; у компанії «КП Київдорсервіс» (м. Київ) для створенняпрограмного комплексу автоматизованої системи управління дорожнім рухом; укомпанії «Науково-технічний центр «Охоронні системи» для створенняпрограмного комплексу інформаційної системи пожежного спостереженняМіністерства з надзвичайних ситуацій України; у КП «Київпастранс» для створенняінтелектуальної системи діагностики; у системах управління виробничимипроцесами для вирішення завдань прогнозування (в інтелектуальній системіпрогнозування в ДП «ВО Київприлад» для прогнозування попиту лінійки системрелейного захисту МРЗС).

Теоретичні й науково-методологічні положення, які розроблені в дисертації,впроваджені в НТУУ «Київський політехнічний інститут імені Ігоря Сікорського» увигляді: курсу лекцій дисциплін «Теорія систем і системний аналіз», «Комп’ютернемоделювання систем», «Еволюційне моделювання», «Автоматизовані системиприйняття рішень» для студентів 3-го, 4-го та 5-го курсів факультету Інформатикита обчислювальної техніки, при керівництві бакалаврськими, магістерськимироботами, науковому керівництві аспірантами, науково дослідної роботи за темою«Розробка методів, алгоритмів структурно-параметричного синтезу гібриднихнейронних мереж та створення на їх основі інтелектуальних систем розв’язанняприкладних задач».

Обґрунтованість і достовірність наукових положень, висновків і рекомендацій.Достовірність наукових положень, теоретичних висновків і практичних результатів,отриманих в дисертації, підтверджена результатами практичної перевірки методів,алгоритмів і програмного забезпечення з використанням стандартних і спеціальнорозроблених тестів на основі існуючих методик, коректним обґрунтуванням іаналізом моделей із застосуванням методів математичної статистики,використанням результатів роботи іншими авторами, а також результатамипрактичного використання розроблених в дисертації математичних, алгоритмічних іпрограмних методів та засобів.

Особистий внесок. Всі результати, які відносяться до захисту, авторомотримані особисто. Низку робіт надруковано у співавторстві.

В монографії [6] здобувачем написано розділ 7 «Розв’язання задачіпрогнозування на основі використання інтелектуального підходу». В монографії [7]здобувачем написано розділ 3 «Використання технологій штучних нейронних мережу задачі управління» та розділ 4 «Синтез системи координації роботи мережіперехресть». В [8] – [10], [14], [16], [17], [19], [23] – [25], [27], [29] – [32], [34] – [37],[39], [40], [42] – [45] здобувач розробив алгоритми структурно-параметричногосинтезу нейронних мереж для розв’язання поставлених задач. В [11] здобувачемзапропоновано інтелектуальний підхід до побудови тематичного робота-краулерааналізатора. В [12] здобувачем виконана постановка задачі і розроблений методмоделювання аварійних ситуацій для тестування інтелектуальних систем. В [13],[15], [18], [41] здобувач розробив алгоритми навчання нейронних мереж в системахобробки зображення. В [20] – [22], [26], [28], [33], [38], [80] здобувач запропонувавпідходи до розв’язання задачі структурно-параметричного синтезу елементів

6

інтелектуальних систем обробки інформації. В [75], [77], [78], [81] – [84] здобувачзапропонував підходи до структурно-параметричного синтезу гібридних нейроннихмереж.

Апробація результатів дисертації. Основні результати дослідженьдоповідалися і обговорювались на Х-й, ХІ-й та ХІІІ-й Міжнародній науково-технічній конференції «Авіа-2011, 2013, 2017» (2011, 2013, 2017), the fifth worldcongress «Aviation in the ΧΧΙ-st Century» (Київ, 25-27 вересня, 2012), ISDMC 2012Conference Proceedings, (May 27-31, 2012, Yevpatoria, Ukraine), The 2-nd InternationalConference Method and system of Navigation and Motion Control (Київ, 9-12 жовтня,2012), The 2-nd, 4-th International Conferences, Actual Problems of Unmanned AirVehicles Development Proceedings (Київ, 2013, 2017), 4th International Conference onInductive Modelling Kyiv, September 15-21, 2013, 6th World Congress “Aviation in theΧΧΙ-st Century,” Safety in Aviation and Space Technologies. Kyiv, Ukraine, September23-25, 2014, 2-nd, 3-nd International Conference “Computer Algebra & InformationTechnologies”. – Odessa, TES, Ukraine. (Одеса, 2016, 2018), VIII Міжнароднійнауково-технічній конференції «Інформаційно-комп’ютерні технології – 2016(Житомир, 22–23 квітня 2016 р.), Міжнародній науково-практичній конференції«Інформаційні технології та комп’ютерне моделювання» (Івано-Франківськ –Яремче, 2016, 2017, 2018), на 4-й Міжнародній науково-практичній конференції«Обчислювальний інтелект» (Київ, 16-18 травня, 2017; XXIV International Conferenceon Automated Control “Automation 2017”. Kyiv, Ukraine, of Proceedings (September13–15, 2017). – Kyiv. – 2017, XVIII International Scientific Conference CorporateGovernance – Theory and practice, Krakow, Poland, 2018, IST-2018, Proceedings of the7-th International Scientific and Technical Conference, September 10-15, 2018, Kobleve-Kharkiv, Ukrain, 2018.

Публікації. За результатами досліджень опубліковано 84 наукові праці, у томучислі 2 монографії, 50 статей у наукових фахових виданнях (з них 3 статті увиданнях іноземних держав, 22 у виданнях України, які включені до міжнароднихнаукометричних баз), 32 тези доповідей в збірниках матеріалів конференцій.

Структура та обсяг дисертації. Робота складається із анотації, вступу, 7-мирозділів, висновків, списків використаних джерел та додатків. Загальний обсягдисертації становить 657 сторінок, з яких основну частину викладено на 379сторінках друкованого тексту, включаючи 148 рисунок, 37-ми таблиць, спискивикористаних джерел з 210 джерел по розділам, 7-ми додатків на 278 сторінках,списки використаних джерел з 70 джерел по додаткам.

ОСНОВНИЙ ЗМІСТ РОБОТИУ вступі представлено обґрунтування необхідністі гібрідних нейронних мереж,

які складаються з різних типів НМ, кожна з яких навчається за певним алгоритмомпошарово в багатьох випадках дозволяє значно підвищити ефективністьфункціонування НМ. Однак, методологія побудови топологій гібридних нейроннихмереж та гібридних технологій, їх структурно-параметричного синтезу звикористанням глибокого навчання на даний час відсутня.

У першому розділі розглянуто структуру та класифікацію штучних нейроннихмереж.

7

Основними задачами, розв’язуваними гібридними нейронними мережами є:апроксимація, класифікація, прогнозування, прийняття рішень, керування. Дляподальшої роботи ШНМ необхідно привести всі типи вхідних даних (нечіткі,бінарні та лінгвістичні) до єдиного типу, тобто до чітких даних. У роботізапропоновано блок конвертації, який перетворює нечіткі, бінарні та лінгвістичнізмінні в чіткі змінні.

Показано, що головними проблемами синтезу ГНМ, на даний час є: відсутність формальних методів вибору типу НМ, адекватних класу задач, які

необхідно розв’язувати; недостатнє опрацювання питань автоматичного формування топології НМ,

що не дозволяє створювати НМ високої точності та мінімальної складності; недостатня обґрунтованість вибору методів оптимізації в процедурі навчання

НМ, що призводить до значних похибок.На основі виявлених проблем обгрунтовано необхідність постановки певної

множини задач, які було розв’язано у роботі. Основні результати дисертаційної роботипредставлено на рис. 1.

Рис. 1. Основні результати дисертаційної роботи

8

У другому розділі поставлено задачу синтезу гібридної нейронної мережінаступним чином. Задано кінцевий набір , 1, ...,J j P j jR ,Y пар типу«атрибут-значення», де jR Yj – вхідний і вихідний вектор нейронної мережі (НМ)відповідно.

Необхідно синтезувати таку оптимальну НМ, яка забезпечувала б ефективнерозв’язання прикладної задачі, що ставиться (класифікації, апроксимації,прогнозування) та описується вибіркою J. Векторний критерій оптимальностівизначається як

1 2( ), ( ) ,I x I xI

де 1 узаг( ) ( )I x E x – похибка узагальнення, що визначає величину помилкивирішення поставленого завдання; 2 ( ) ( )I x S x – складність НМ (число, якедорівнює сумарній кількості міжнейронних зв’язків окремих НМ, які складаютьгібридну нейронну мережу залежать від топології, структури та параметрів мережі,які визначаються вектором Х); x = (x1і, x2, x3, x4 )Т, де x1і – кількість нейронів у і-муприхованому шарі; 21, ,i x x2 – кількість прихованих шарів; x3 – кількістьміжнейронних зв’язків; x4 – набір значень вагових коефіцієнтів wij; i – номерприхованого шару; j – номер нейрона.

Синтез гібридних нейронних мереж, які використовуються для розв’язанняконкретної прикладної задачі на основі заданої навчальної вибірки, представляєсобою достатньо складну проблему, яка полягає у попередньому визначенніпочаткової топології НМ (далі ця мережа буде розглядатися як базова) для даногокласу прикладних задач (наприклад, класифікації, апроксимації, прийняття рішень,прогнозування за навчальними вибірками, представленими на тестових сайтах),подальшої модифікації базової НМ за навчальною вибіркою, яка відповідає данійприкладній задачі та утворення гібридної структури за рахунок створення модуля,до складу якого входить базова НМ або ансамблю модулів, що дає нові можливостідля підвищення ефективності розв’язання поставленої задачі. Задача модифікаціїбазової НМ зводиться до розв’язання задачі умовної багатокритеріальної оптимізаціїна основі розробленого гібридного генетичного алгоритму. Обґрунтованодоцільність створення гібридних мереж модульної структури на основівикористання НМ базової та Коско. Запропоновано підхід подальшого ускладненнятопології гібридних НМ за рахунок створення ансамблю модулів.

На основі вище наведеного методологію синтезу гібридних нейронних мережможна представити у вигляді поступового розв’язання наступних задач.

1. Оптимальний вибір топології базової нейронної мережі.2. Субоптимальна модифікація базової нейронної мережі (БНМ) на основі

розв’язання поставленої задачі багатокритеріальної оптимізації за рахунок зміникількості нейронів у прихованих шарах, перехресних зв’язків, визначення значеньвагових коефіцієнтів.

3. Структурно-параметричний синтез модуля, в склад якого входять БНМ,двонаправлена асоціативна пам’ять (мережа Коско).

4. Структурно-параметричний синтез ансамблю, що складається з модулів НМ.

9

Задача оптимального вибору топології БНМ розв’язується за допомогоювикористання методу перебору. У роботі наведено численні приклади оптимальноговибору БНМ.

В якості БНМ обирається та, яка має найменшу Еузаг.У роботі запропоновано новий підхід до вибору БНМ, який базується на

розробці нової топології одношарових НМ. Пропонується наступна функція-модельнейрона:

T T

T T

sigm_piecewise( ; , , ) ; 01 1kh x kh x

w x w xx w w h ke e

,

для усіх векторів x , таких, що T 0h x , де вектор h

задає гіперплощину, що

розділяє простір nR на 2 півпростори; вектор w задає ваги кусочно-лінійної функції

piecewise_linear на півпросторі, де T 0;h x

вектор w задає ваги кусочно-лінійної

функції piecewise_linear на півпросторі, де T 0.h x

Структурно нейрон з моделлю sigm_piecewise можна представити так, якпоказано на рис. 2.

Рис. 2. Структура нейрона з моделлю sigm_piecewise

У випадку нейрону з математичною моделлю sigm_piecewise структура упорівнянні із звичайним нейроном дещо складніша: маємо три блоки суматорів –

( ; ), ( ; ), ( ; )hS x w S x w S x h

та, відповідно, функцію активації TF( , , ; )hS S S k , щозалежить від трьох змінних.

Оскільки математична модель нейрону Sigmoid Piecewise є диференційованоюфункцією від своїх параметрів, їх налаштування для мінімізації певної функції, щозалежить від виходу нейрону, можна виконувати використовуючи певнумодифікацію алгоритму градієнтного спуску.

На відміну від ReLU-нейрона де існує проблема «вмираючого ReLU-нейрона»(якщо в результаті деякої модифікації вектору параметрів w ReLU-нейрона для усіхприкладів із навчальної вибірки tx X виконується умова T: 0tx X w x

, то надалі

hn

w-n

1

TF

x1

xn

.

.

.

w+1

h1

w+n

w-1

1

1

1

10

в процесі навчання градієнт функції-моделі цього нейрона по вектору параметрів w

завжди дорівнюватиме 0

, тобто, нейрон «вмирає» – він не навчається та завждивидає 0), у нейрона з функцією активації sigm_piecewise( ; , , )x w w h

градієнт цієїфункції по вектору параметрів h

є ненульовим вектором практично завжди, і серед

двох градієнтів по вектору параметрів w та вектору параметрів w

хоча б один будененульовим для деякого вектору x (у залежності від значення Th x

).Відповідно до запропонованої методології синтезу гібридних НМ наступною

задачею є задача субоптимальної модифікації БНМ. Дана задача відноситься докласу задач умовної багатокритеріальної оптимізації.

У загальному вигляді багатокритеріальна задача оптимізації включає набір Nпараметрів (змінних), множину цільових функцій K і множину обмежень М.

Багатокритеріальні задачі виявляються тим особливим класом задач, де звичніевристики часто призводять до суперечностей, оскільки в них навіть немає якогосьуніверсального поняття «оптимуму» як в задачах однокритеріальної оптимізації, щоутруднює порівняння одного методу багатокритеріальної оптимізації з іншим. А всетому, що розв’язанням такого роду задачі є не єдиний оптимальний розв’язок, абезліч компромісних розв’язків, більше відомих як Парето-оптимальні (ефективні)розв’язки. Кожний з таких розв’язків оптимальний в тому сенсі, що не можнадомогтися поліпшення по одному з компонентів вектора цільових функцій, непогіршивши при цьому значення, принаймні, одного з решти його компонентів.Тому першочерговою метою задач багатокритеріальної оптимізації, на відміну відоднокритеріальної оптимізації, є знаходження різних Парето-оптимальнихрозв’язків, що відображають компромісне вирішення конфліктних ситуацій, щохарактеризуються набором критеріїв.

У класичному генетичного алгоритму генетичні оператори, такі яксхрещування і мутації, виконуються з постійною ймовірністю. Різні значенняймовірностей схрещування і мутації можуть, однак, краще чи гірше «дослідити»різні напрямки пошуку в просторі станів, тим самим впливаючи на продуктивністьзастосовуваного генетичного алгоритму. Насправді, загальна продуктивністьгенетичного алгоритму залежить від підтримки прийнятного рівня продуктивностіпротягом процесу еволюції. Таким чином, оптимальним є використання генетичногоалгоритму, який пристосовується до продуктивності пошуку на кожній ітерації та«адаптує» свої ймовірності схрещування та мутації.

Суть запропонованого підходу полягає в наступному: динамічно регулюватипараметри генетичного алгоритму (ймовірності схрещування та мутації) відповіднодо міри ефективності кожного оператора на даному етапі пошуку. Для того, щобоцінити ефективність генетичного оператора, аналізується його здатністьпродукувати потомків з кращою пристосованістю.

Отримана в результаті роботи запропонованого алгоритму апроксимаціямножини Парето є репрезентативною – точки рівномірно розподілені, згущеннявідсутні, домінованих точок немає.

Основна проблема при реалізації модифікованого гібридного алгоритму цекодування потенціальних рішень. Один із способів зв’язаний з кодуванням в

11

хромосомі заздалегідь вибраної послідовності правил перетворення мережі:додавання шару, додавання зв’язків різних типів, додавання нейронів з послідуючимобчисленням вектора вагових коефіцієнтів за допомогою обраного алгоритмунавчання та перевіркою похибки узагальненості.

Запонований спосіб кодування зводиться до завдання в хромосомі структуринейронної матриці зв’язків між нейронами, тобто кодування в хромосомі всіхможливих шляхів в нейронній мережі: при цьому кожен ген хромосоми представляєсобою деякий шлях в ациклічному графі НМ.

У роботі доведено, що еволюційні алгоритми недостатньо добре адаптовані длярозв’язання задач з обмеженнями і потребують деякої модифікації, що враховуєспецифіку умовної задачі оптимізації.

Для усунення виявлених недоліків генетичних алгоритмів пропонуєтьсяпроводити «лікування» (уточнення) недомінованих точок, отриманих після зупинкигенетичного алгоритму. Завдяки тому, що рішення в генетичних алгоритмахпредставляються у вигляді вектору з нулів і одиниць, для «лікування» недомінованихточок дуже зручним є використання алгоритму паретовського локального пошуку впросторі булевих змінних. Для вирішення умовних завдань багатокритеріальноїоптимізації пропонується використовувати гібридний генетичний алгоритм (ГГА).

У роботі показано, що ГГА є з одного боку, достатньо витратним за часом,вимагає задання певних параметрів користувачем, визначення множинисубоптимальних керуючих параметрів, так щоб еволюційний процес мігзбалансовувати пошук і використання у разі знаходження розв’язків хорошої якості(наприклад, якщо швидкості кроссовера та мутації вибрані занадто високими, тозначну частину простору пошуку буде досліджено, але виникає висока вірогідністьвтрати хороших розв’язків, нездатності використовувати існуючі розв’язки), виявляєнездатність під час навчання нейронних мереж з високою вірогідністю знаходититочне значення екстремуму, а з іншого боку, дає можливість локалізувати областьіснування глобального екстремуму.

Задача субоптимальної модифікації БНМ розпадається на дві підзадачі: пошуксубоптимальної структури (кількість нейронів у прихованих шарах і перехреснихзв’язків між нейронами) та налаштування вагових коефіцієнтів (підзадачапараметричної оптимізації). Для розв’язання обох підзадач використовуєтьсядвоетапний алгоритм оптимізації, на першому етапі якого застосовується гібриднийбагатокритеріальний еволюційний алгоритм, за допомогою якого локалізується зонапошуку субоптимальної структури і вагових коефіцієнтів НМ. На другому етапівизначення субоптимальних значень вагових коефіцієнтів НМ виконується напідставі використання методів зворотного поширення помилки і найшвидшогоспуску (стохастичного градієнтного спуску), а визначення субоптимальних значенькількості нейронів у прихованих шарах буде здійснюватись за допомогоюадаптивного алгоритму об’єднання та нарощування.

Для перевірки алгоритму було використано бібліотеки keras, tensorfow.Тестовою задачею є розпізнавання зображень цифр. Вибірки взято з датасету mnist.В ньому вже визначено навчальну вибірку (60000 зображень) та тестову вибірку(10000 зображень).

12

Початкова модель приймає на вхід зображення - матрицю пікселей 28х28, щотрансформується допоміжним шаром у вектор з 784 чисел. Нейронна мережа являєсобою персептрон з 3 прихованими шарами по 50 нейронів в кожному та вихіднимшаром з 10 виходами. Фінальна модель має 3 приховані шари з 26, 29 та 26нейронами в кожному. Кількість нейронів було зменшено на 48%, 42% та 48%відповідно відносно початкової моделі. Загальну кількість прихованих нейронівбуло зменшено на 46%.

Якщо у якості БНМ вибрано одношарову мережу з нейронами sigm_piecewise ,то для її модифікації запропоновано метод, ідея якого полягає в поступовомузбільшенні кількості нейронів у прихованому шарі, при додаванні нового нейронунавчаються тільки його вагові коефіцієнти та параметр, що відповідає за вагу цьогонейрону у нейроні-суматорі вихідного шару – усі інші параметри фіксуються.

Для використання цього методу повинна виконуватись умова, що для будь-якоїнавчальної вибірки (T) (T) (T), :X y X і для будь-якого заданого значенняпомилки 0 , якого потрібно досягнути, існує така кількість нейронів уприхованому шарі m і такі вектори параметрів 1,..., , ; m

mw w v v R , що помилка

мережі описаного типу з такими параметрами буде менше або рівна за :(T) (T) (T)

1

(T) (T)

1

, : , 0 : , , ..., ,

: , , Net( ) ( ; ) .

m

m

i ii

X y X R m N w w

v E X y x v f x w

Якщо ця умова не виконується, то можлива ситуація, коли додавання танавчання будь-якої кількості нових нейронів не буде зменшувати помилку мережі нанавчальній вибірці. Маючи навчальну та валідаційну вибірки вигляду

(T) (T) (T), :X y X та ( ) ( ) ( ), :V V VX y X відповідно, переднавчанняодношарової мережі описаного типу згідно із запропонованим метод складається ізнаступних кроків.

1. На першій ітерації навчається мережа описаного типу з одним нейроном уприхованому шарі.

2. Після і ітерацій маємо мережу з і нейронами у прихованому шарі.3. На ітерації і + 1 до прихованого шару мережі додається ще один нейрон,

після чого повторно виконується навчання мережі, але усі параметри мережі, крімпараметрів цього нейрону та його ваги у нейроні-суматорі вихідного шару,фіксуються (рис. 3).

1v

iv

1iv

1x

nx

.

.

.

Рис. 3. Мережа з і нейронами у прихованому шарі

13

4. На кожній ітерації і розраховуються: поточне значення помилки мережі на валідаційній вибірці – позначимо його

як ( )( )VE i ; мінімальне значення серед усіх помилок на попередніх ітераціях –

позначимо його як ( ) ( )

min 1,..., 1( ) min ( )

V V

j iE i E j

.

5. Додавання нових нейронів виконується поки виконується умова, що протягом I останніх ітерацій мінімальне значення помилки мережі на валідаційній вибірці було «достатнім чином» покращено, тобто:

( ) ( )

min min( ) ( ), (0,1], , ,V V

E i a E i I a I N i I

де a – константа, що задає потрібний рівень покращення мінімального значення помилки за I ітерацій – зазвичай його обирають із множини чисел {0,9;0,99;0,999;...} – тобто якщо 0,9a за I ітерацій мінімальна помилка мережі на валідаційній вибірці повинна зменшитися не менше ніж на 10%, а для 0,99a – не менше, ніж на 1%, тощо.

6. Після зупинки мережа повертається до ітерації, на якій було досягнуто мінімум помилки на валідаційній вибірці.

У випадку якщо модифікація топології ШНМ, яка вибрана для розв’язання поставленої задачі не дає відчутних результатів, необхідний синтез нової топології. В даній роботі для розв’язання задачі синтезу нової топології пропонується модульний принцип організації ГНМ.

У відповідності до запропонованої у роботі методології побудови ГНМ структуру модуля представлено у вигляді послідовного з’єднання базової НМ і двонаправленої асоціативної пам’яті (мережа Коско).

Двонаправлена асоціативна пам’ять виконує роль фільтра, який підлаштовує результати роботи НМ, порівнюючи їх з існуючими образами.

Вибрана структура модуля ГНМ дозволяє проводити навчання кожної мережі, яка входить до складу модуля окремо, що значно підвищує ефективність процесу параметричного синтезу.

Метод навчання модуля НМ має вигляд. 1. Навчання двонаправленої асоціативної пам’яті за еталонною вихідною

вибіркою Y. 2. На підставі навченої двонаправленої асоціативної пам’яті за еталонною

вихідною вибіркою Y виконується розрахунок – еталонної вхідної вибірки X (еталонна вихідна вибірка БНМ).

3. Навчання базової НМ за еталонною вхідною X і вихідною X вибірками відповідно.

Подальшим розвитком архітектури ГНМ є побудова ансамблю. Ансамблем нейронних мереж називається група топологій, об’єднаних в єдину структуру, які можуть відрізнятись архітектурою, алгоритмом навчання, критеріями навчання і типами утворюючих нейронів.

У даній роботі замість окремих НМ використовуються модулі НМ.

14

На підставі проведеного аналізу, в даній роботі пропонується синтезуватигібридну топологію у вигляді паралельного ансамблю модулів НМ з шаромоб’єднання. В якості процедури побудови ансамблю обгрунтовано використаннябеггінгу, який має переваги перед іншими. З метою побудови ансамблю розробленоалгоритм визначення індивідуального вкладу кожного модуля на основівикористання критеріїв точності та різноманітності. Забезпечення різноманітностідосягається за рахунок навчання елементів ансамблю на різних наборах даних, якіможуть бути отримані за рахунок використання методу бутстрепа.

Одна із проблем ансамблевих підходів полягає в тому, що їх використанняпризводить до створення невиправдано великих ансамблів, що вимагає значногообсягу пам’яті для зберігання навчених модулів і зменшення часу відгуку дляпрогнозування. Для оптимізації розміру ансамблю було розроблено алгоритмспрощення за допомогою метода доповнюючої величини, який враховує такожвзаємодію класифікаторів між собою. Вагові коефіцієнти об’єднання модулів уансамбль було визначено на основі використання метода динамічного усереднення.

У третьому розділі розроблено нові методи побудови НМ глибокого навчання.Нова парадигма навчання реалізує ідею навчання в два етапи. На першому етапі,наприклад, для НМ глибокої довіри, з великого масиву нерозмічених даних задопомогою автоасоціаторів (шляхом їх пошарового навчання без «вчителя»)витягується інформація про внутрішню структуру вхідних даних. Потім,використовуючи цю інформацію в багатошаровій НМ, її навчають з «учителем»(розміченими даними) відомими методами. При цьому кількість нерозмічених данихбажано мати якомога більшу. Розмічених даних може бути набагато менше. Длянашого випадку це не дуже актуально.

У загальному випадку структурні схеми НМ глибокого навчання включають усебе обмежені машини Больцмана (ОМБ) або автоенкодери.

Для визначення структури НМ глибокого навчання у роботі розробленокомбінований алгоритм оснований на використанні еволюційного алгоритмуоптимізації: рою частинок та генетичного алгоритму.

Алгоритм рою частинок забезпечує високу точність рішення (за рахунокпам’яті частинок) і швидке отримання прийнятного рішення. У той же часгенетичний алгоритм краще пристосований для розв’язання дискретних проблем імає кращі механізми боротьби з локальними мінімумами (за рахунок мутацій івдалих кроссоверів).

Даний алгоритм дозволяє поєднати в собі переваги обох алгоритмів і тим самимдосягти швидкого і точного рішення поставленої задачі.

Алгоритм базується на ідеї послідовного виконання однієї ітерації пошукукожним з базових алгоритмів (рою частинок і генетичного алгоритму), порівняннязнайдених кожним з алгоритмів результатів і додавання кращого із знайденихрішень в кожен алгоритм. Описаний підхід повторюється до зупинки одного залгоритмів. В якості остаточного рішення приймається найкраще з рішень,знайдених обома методами на момент зупинки.

15

Результати моделювання з використанням алгоритмів рою частинок,генетичного і комбінованого алгоритмів наведено у табл. 1.

Застосування багатошарового персептрона з традиційною структурою привирішенні реальних задач розпізнавання і класифікації зображень викликає певнітруднощі.

Таблиця 1Результати моделювання с використанням алгоритмів рою частинок,

генетичного і комбінованого алгоритмів

Алгоритм Параметриалгоритму

ОтриманаконфігураціяШНМ

ПохибкароботиШНМ

Кількістьітераційпошукуконфігурації

Метод роючастинок 1< N < 20,

P = 10,100<L<5000,

Е < 1250

20–18–1 0,381 353

Генетичнийалгоритм 18–13–1 0,463 387

Комбінованийалгоритм 19–17–1 0,325 329

N – кількість нейронів в шарі; Р – розмір популяції; L – кількість ітерацій;Е – середня квадратична похибка на всьому масиві даних.

Від цих недоліків вільні так звані згорткові нейронні мережі (ЗНМ), якібудуються на основі операції згортки, що дозволяє навчати ЗНМ на окремихчастинах зображення, ітераційно збільшуючи локальну область навчання окремогоядра згортки. Недоліками згорткових нейронних мереж є: висока складністьархітектури; повнозв’язність; фіксована площа вікна шару згортки.

У роботі розглянуто комбіновану мережу, яка складається з згортковоїнейронної мережі, класифікатора та розгорткової нейронної мережі наведено нарис. 4. Така архітектура дозволяє не тільки розпізнавати елементи зображення, а йпомічати на ньому розпізнанні елементи. Розгорткова нейронна мережа єдзеркальним відображенням згорткової нейронної мережі.

Рис. 4. Комбінована згорткова нейронна мережа

З метою підвищення ефективності роботи на основі аналізу результатівперевірки ЗНМ на перевірочній вибірці було визначено значущі параметри:

16

кількість шарів згортки кількість шарів агрегації, взаємне розміщення шарів згорткита агрегуючих шарів, для кожного шара згортки: розмір ядра згортки, кількість картознак, величина зміщення, параметр крайового ефекту, для кожного шара агрегації:розмір ядра агрегації, функція ядра агрегації, для кожного повнозв’язного шару:кількість повнозв’язних шарів, розмір кожного шару, тип класифікатора:повнозв’язний шар або щось інше, наявність операції вилучення для кожного шару:відсоток вилучення та вид випадкової функції. Для оптимізації структури тапараметрів ЗНМ використано генетичний алгоритм.

Проблемою навчання глибоких НМ оброблення зображень, щовикористовуються в системі медичної діагностики, є складність отриманнянавчальної вибірки. Навчальна вибірка виходить на підставі наявної невеликоїкількості прикладів шляхом повороту їх на невеликі кути в різних площинах зподальшою обробкою зображень іншим способом.

Задача розпізнавання зображень в такому формулюванні представляє собоюдосить складну комплексну задачу з низкою обмежень. У роботі пропонуєтьсясистемний підхід до обробки зображень, заснований на структурній декомпозиції.

Результати роботи алгоритму класифікації образів на зашумленому зображеннідля створення навчальної вибірки і згорткової НМ, наведено на рис. 5.

Рис. 5. Результати роботи алгоритму класифікації образів на зашумленому зображенні

У четвертому розділі розглянуто розв’язання задачі прогнозування на основіінтелектуальних методів.

Після аналізу різних існуючих на даний момент методів побудовипрогнозуючої моделі, найбільш «гнучкими» методами можна однозначно назватиШНМ і метод групового обліку аргументів (МГУА). Однак, при використанні ШНМпостає питання вибору оптимальної архітектури мережі, а при використанні МГУА– оптимальних опорних функцій.

Побудову моделі згідно багаторядного алгоритму МГУА можна розглядати якпроцес структурного та параметричного синтезу глибокої мережі з поліноміальниминейронами. Інтуітивно можна очікувати, що наслідком цього «жадібного» характерубагаторядного алгоритму МГУА буде неоптимальність параметрів отриманої в

17

результаті поліноміальної мережі – оскільки в ході виконання алгоритму ніколи нездійснюється одночасна адаптація усіх параметрів мережі.

Параметри часткових моделей, отримані на кожному рівні багаторівневогоМГУА не є оптимальними для усієї «багатошарової» моделі, що отримується в кінціалгоритму, з точки зори мінімуму середньоквадратичної похибки моделі нанавчальній вибірці. Власне, це доволі очевидно – оскільки параметри кожного рівня-шару розраховуються окремо, при фіксованих значеннях параметрів в інших рівнях– тобто ми ніколи не оптимізуємо усі параметри одночасно, а саме це і треба робитидля знаходження глобального мінімуму деякої функції.

Перевагою використання багаторядного алгоритму МГУА для стадіїпередналаштування є автоматичний синтез структури поліноміальної мережі, щовідкидає потребу у визначенні кількості нейронів у прихованих шарах, знаходженнінеінформативних змінних, зайвих «зв’язків» між нейронами та ін. На виході цьогоетапу отримуємо поліноміальну нейронну мережу наступного вигляду (рис. 6).

Рис. 6. Поліноміальна нейронна мережа

Наступним є етап «донавчання», на якому ваги отриманої мережі навчаються звикористанням алгоритму еластичного зворотного поширення похибки:

1) для кожної пари <вхідний вектор, вихідне значення> з навчальної вибіркивиконується два так званих проходів:

– «прямий прохід» – вектор вхідних значень подається на перший шар мережі, іобчислюються виходи кожного поліноміального «нейрона» аж до самогоостаннього, «вихідного» нейрона;

– «зворотний прохід» – обчислюються похідні функції похибки за кожноювагою;

2) всі обчислені похідні підсумовуються за всіма прикладами;3) кожна вага оновлюється;4) після оновлення всіх ваг обчислюється похибка мережі на перевірочній

вибірці – якщо помилка менше, ніж на попередній ітерації – навчанняпродовжується, в протилежному випадку навчання припиняється, і здійснюється«відкат» ваг до значень на попередній ітерації.

18

Оскільки в результаті маємо звичайну поліноміальну нейронну мережу, топрогнозування на нових даних виконується як звичайно: вхідний вектор x подаєтьсяна перший шар мережі, після чого пошарово обчислюються виходи всіх нейронів,аж до останнього шару з одним нейроном, вихід якого і буде прогнозом.

У роботі розглянуто застосування методу структурного синтезу одношаровихНМ з нейронами sigm_piecewise для розв’язання задачі прогнозування.

У певних практичних випадках задачі прогнозування кількість вхідних зміннихможе бути достатьно великою і досягати тисяч чи навіть десятків тисяч змінних.Зазвичай це задачі в яких окрім основого часового ряду, що прогнозується, присутніекзогенні (зовнішні) часові ряди, що потенційно впливають на основний. Під часрозв’язання задач з такою великою кількістю вхідних змінних мають місце наступніпроблеми:

через збільшення кількості параметрів, які потрібно налаштувати, процеснавчання може тривати доволі довго – це робить практично неможливимзастосування підходу перебору кількості нейронів у прихованому шарі длязнаходження оптимальної структури мережі, оскільки процес повного переборуможе потребувати надто багато часу;

наперед невідомо, які вхідні змінні дійсно несуть інформацію, корисну дляпрогнозування цільової змінної, а які можна ігнорувати – і кількість «зайвих»змінних може бути дуже великою;

в певних задачах потрібно отримати модель з обмеженою кількістюпараметрів, оскільки є деякий ліміт або на «розмір» моделі у пам’яті прогнозуючогопристрою, або на час, який витрачається на отримання прогнозу при навченіймоделі – очевидно, що при збільшенні кількості параметрів моделі збільшується яккількість одиниць пам’яті, потрібних для відтворення цієї моделі, так і час,потрібний для отримання прогнозу при використанні цієї моделі.

Для вирішення усіх цих проблем пропонується застосовувати алгоритм МГУА,що дозволить:

значно швидше, ніж при використанні повного перебору, знаходити впевному сенсі субоптимальну структуру мережі при заданих обмеженнях накількість параметрів мережі;

автоматично відсіювати «неінформативні» змінні.Алгоритм для автоматичного синтезу оптимальної структури мережі з

нейронами типу sigm_piecewise, що базується на алгоритмі МГУА, складається знаступних кроків:

1) Вхідна вибірка вигляду , :X y X R , де множина Х є скінченноюпідмножиною простору , 2nR n певним чином розділяється на дві вибірки:навчальну (T) (T) (T) (T), : ,X y X R X X та валідаційну – ( ) ( ) ( ), : ,V V VX y X R

( ) ( ) (T) (T) ( ), , .V V VX X X X X X X Зазвичай у навчальну вибірку відбирають приблизно 70% прикладів, і

найпростіший варіант, що непогано працює на практиці – відбирати випадковимчином.

2) Незалежно один від одного навчаються nkC нейронів типу sigm_piecewise, де

19

кожен нейрон має два входи – , ; , 1,..., ,i ix x i j n i j – тобто перебираються усі можливі пари входів, і для кожної пари навчається окремий нейрон. Для навчання використовується навчальна вибірка, тобто критерій, згідно з яким налаштовуються параметри кожного нейрону має вигляд:

(T)

2(T) T, ( , , ) ( ) sigm_piecewise([ , ] ; , , ) .i j i j

x X

E w w h y x x x w w h

3) Для кожного нейрону розраховується значення «зовнішнього» критерію. Найбільш розповсюджений критерій – середньоквадратична помилка моделі на валідаційній вибірці:

( )

2( ) T, ( , , ) ( ) sigm_piecewise([ , ] ; , , ) .

V

Vi j i j

x X

С w w h y x x x w w h

4) , (0,1)nkС нейронів з найгіршим значенням зовнішнього критерію

відкидаються. Значення параметру обирається в залежності від обмеження на кількість параметрів мережі, або згідно з деякою еврістикою, якщо таке обмеження відсутнє.

Одночасно виконується, як налаштування параметрів вихідного лінійного нейрону, так і доналаштування параметрів нейронів у прихованому шарі згідно з алгоритмом зворотнього поширення помилки.

Порівняємо ефективність використання наступних мереж для прогнозування щомісячного споживання електроенергії в південно-східній частині Бразилії: одношарового персептрону з нейронами типу sigm_piecewise у прихованому шарі, одношарового персептрону з нейронами типу tansig (функція активації

tansig( )x x

x xe exe e

) у прихованому шарі та поліноміальної нейронної мережі з

використанням алгоритму МГУА для її побудови та навчання. Методика порівняння є наступною:

1. Вхідний часовий ряд перетворюється на вибірку вигляду , :X y X шляхом використання методу вкладення часових рядів з розмірністю вкладення 6 та горизонтом прогнозування 3 – тобто для прогнозу значення 3ig використовувалися значення 5 4 3 2 1, , , , ,i i i i i ig g g g g g .

2. Після цього вибірка трансформувалася наступним чином: 2.1. : ( ) : ( ) , n

nx X y x y x x x R – тобто замість прогнозу самого значення

часового ряду 3ig прогнозується відхилення цього значення від останнього відомого – 3i ig g .

2.2. T1 1: : [ ,..., ]n n nx X x x x x x

– тобто для прогнозу відхилення від останнього відомого значення часового ряду ig використовуються відхилення

5 4 3 2 1, , , ,i i i i i i i i i ig g g g g g g g g g 3. 70% прикладів випадковим чином відбиралися у навчальну вибірку

( ) ( ) ( ), :Train Train TrainX y X . 4. У якості критерію навчання використовується середньоквадратична

20

помилка MSE на навчальній вибірці. У якості критерію для порівняння отриманихза допомогою різних методів прогнозуючих моделей – MAPE моделі на тестовійвибірці.

MAPE «наївної» моделі, яка «вважає», що 3i ig g , дорівнюєMAPE 10,23%naive . Шляхом перебору різної кількості нейронів у прихованомушарі було обрано мережу з 15 нейронами типу sigm_piecewise. Після навчанняпомилка цієї мережі на тестовій вибірці склала sigm_piecewiseMAPE 3,12% .

Після використання алгоритму МГУА було отримано поліноміальну мережу:перший шар – шість нейронів, другий шар – п’ять нейронів третій шар – чотиринейрони, четвертий – три, п’ятий – два, шостий – один – тобто саме ця архітектурабула оптимальною з точки зору зовнішнього критерію. Помилка такоїполіноміальної мережі склала MAPE 5,33%GMDH .

Шляхом перебору різної кількості нейронів у прихованому шарі було обраномережу з 36 нейронами типу tansig. Після навчання помилка цієї мережі склалаMAPE 4.21%tansig .

Отже, серед усіх типів мереж, що перевірялися, мережа з нейронами типуsigm_piecewise мала найменшу помилку на тестовій вибірці, причому її помилкаприблизно на 25% менша за помилку мережі з нейронами типу tansig та приблизнона 40% менша за помилку поліноміальної мережі, що будувалася та навчалася заалгоритмом МГУА.

Для покращення якості прогнозу можна використовувати комплексуванняоцінок, отриманих за допомогою різних моделей. Під комплексуванням розумієтьсязважена сума оцінок, отриманих за допомогою генерованого набору моделей. Ваговікоефіцієнти визначаються за допомогою зовнішнього критерію оптимальностімоделей – дисперсії на екзаменаційній вибірці. Множина моделей виходитьперебором варіантів розбиття вихідної вибірки на підвибірки і перебором різнихметодів прогнозування. Таким чином, маючи 1k різних варіантів розбиття напідвибірки і 2k методів прогнозування, отримуємо 1 2k k різних моделей. Дляотримання кінцевого прогнозу, маючи вектор вхідних даних x необхідно виконатинаступне.

1. Подати цей вектор на вхід кожної моделі, таким чином отримавши вектороцінок

1 21ˆ ˆ ˆ, , k ky y y .2. Отримати кінцевий прогноз ˆ fy як зважену суму елементів вектора оцінок y .Ці кроки вимагають визначення вагових коефіцієнтів 1 2, 1i i k k .Коефіцієнти i визначаються використовуючи зовнішній критерій – дисперсію

прогнозу i-ї моделі на екзаменаційній вибірці: 1i

i

, де i – середньоквадратичне

відхилення прогнозів i-ї моделі на екзаменаційній вибірці від реальних значеньпрогнозованого процесу. Після обчислення всіх i їх слід нормалізувати за

формулою .n ii

ii

21

Запропонований метод побудови прогнозуючої моделі був перевірений надекількох наборах даних, наявних у відкритому доступі в мережі Інтернет, і булиотримані наступні результати (табл. 2).

Більшість існуючих постановок задачі прогнозування припускають, щохарактер прогнозованого процесу на спостережуваному періоді не змінюється, і,таким чином, задачу можна вирішити шляхом знаходження потрібної моделі і оцінкиїї параметрів, використовуючи всі наявні дані. Однак найчастіше поведінкапрогнозованого процесу може кілька разів суттєво змінюватися протягомспостережуваного періоду, що робить таку постановку задачі некоректною – однаєдина модель не зможе описати кілька різних станів процесу.

Таблиця 2

Нормалізована середньоквадратична похибка методів

Назва вибірки ШНМ МГУАЗапропонованийметод МГУА +

ШНМ

Виробництво електроенергії вАвстралії 0.017662 0.019721 0.012685Тест CATS 0.002894 0.002696 0.002901Курс долара до євро 0.063802 0.05511 0.062086Курс долара до фунту 0.055874 0.050277 0.058154CPI індекс 5.50E-05 0.007696 2.22E-05Споживання електроенергії вІспанії 0.019363 0.024104 0.017655Середні відсоткові ставки в Іспанії 0.055512 0.048002 0.053009Stock exchange index в Іспанії 0.002652 0.005721 0.002495Кількість плям на сонці 0.5811 0.45099 0.17865Виробництво літаків в США 0.20121 0.15927 0.13734Зимовий індекс NAO 1.0566 0.98757 1.0009Сумарна похибка 2.0567 1.8112 1.5259

Існує декілька типових підходів до розв’язання цієї проблеми:1. Кластеризація і побудова моделі для кожного кластера / сегмента.При правильно обраному підмножині прикладів для навчання і достатній

кількості прикладів в цьому підмножині здатні знаходити локальні тренди.2. Побудова локальних моделей, що враховують глобальні тренди.Зменшується вплив недоліків локальних моделей: проблема перенавчання при

малій кількості прикладів в кластері і проблема втрати глобальної інформації.3. Підходи на основі ARCH моделі.Основний недолік полягає в тому, що ці моделі добре працюють тільки за

умови виконання всіх припущень їх використання.

22

Під неоднорідністю вибірки розуміється ситуація, коли ймовірнісніхарактеристики процесу, вибірка якого спостерігається, «істотно» змінюється наспостережуваному періоді, або коли приклади з вибірки належать до декількох«кластерів», що суттєво відрізняються за характеристиками. У цьому випадку дляпошуку різних станів процесу потрібно групувати приклади з навчальної вибірки запринципом схожого ймовірнісного розподілу. Саме для цього необхідновикористовувати різні алгоритми кластеризації.

У роботі розроблено метод прогнозування з регуляризації, заснований навикористанні алгоритму м’якої кластеризації. Зважаючи на переваги мереж з однимприхованим шаром нейронів типу sigm_piecewise пропонується застосовувати самеці мережі у якості моделей поверхонь, розділяючих кластери.

Опишемо етапи отриманого методу прогнозування з регуляризацією.1. Навчається нейронна мережа прямого поширення з використанням усієї

наявної безлічі прикладів ( , ) : 1i iS x y i n . В якості функції похибки мережівикористовується стандартна середньоквадратична похибка:

21

net( )n

i ii

E x y .

Ваги g

даної мережі являють собою інформацію про глобальний характерпрогнозованого процесу.

2. Виконується кластеризация векторів прикладів з матриці X на K кластерів,використовуючи алгоритм м’якою кластеризації на основі розділяючихгіперповерхонь, де в якості моделі розділяючої гіперповерхні використовуєтьсямережа, отримана на попередньому етапі, додавши фінальний нейрон з логістичнюїсигмоидою як активациона функція. В результаті, для кожного вектора прикладу

3. Знаходяться локальні мережі для кожного кластера відповідно до загальногопідходу – тобто ваги мережі для кластера иніціализуются вагами «глобальної»мережі, навченої на другому кроці, і для її навчання використовується наступнафункції похибки:

2 2(net ( ) ) ( ) ,i j l j

gj j i l l

x CE x y

де – параметр регуляризації.Таким чином, при навчанні, ваги мережі будуть намагатися зменшити помилку

мережі на прикладах із свого кластера, так і не віддалятися занадто сильно відпочаткових ваг g

– тобто буде втрачена інформація про глобальний характер

процесу.4. Для вхідного вектора sx знаходиться відповідний йому кластер (шляхом

знаходження найближчого центру кластера), і для прогнозу використовуєтьсямережа, навчена на прикладах цього кластера.

Запропоновані методи та підходи було перевірено як на штучно згенерованихданих, так і на реальних вибірках.

У п’ятому розділі розглянуто задачу побудови автоматизованої системикерування дорожнім рухом, яка розв’язується у роботі з використанням штучнихнейронних мереж.

23

Для нейронної мережі вхідна інформація надходить на входи безпосередньо увигляді даних про кількість машин, що стоять перед перехрестям або рухаються зсусіднього перехрестя. У зв’язку з цим пропонується наступна схема управління.

Система координації роботи нейронних мереж (СКР НМ) являє собоюобчислювальний комплекс великої потужності. У завдання СКР НМ входить збірінформації про кількість машин на самих перехрестях в кожному напрямку,інформації про потік транспорту між перехрестями, тривалості сигналу світлофора,інформації про стан кожної нейронної мережі та на основі інформації, що збирається,здійснює коригування параметрів кожної нейронної мережі. Блок НМ являє собоюобчислювальний комплекс, який реалізує нейронну мережу. На основі інформаціїпро потік транспорту на перехресті і даних СКР НМ відбувається постійне навчанняНМ. Для збору інформації про стан потоку транспорту пропонуєтьсявикористовувати датчики, які реєструють кількість машин.

Використання такої схеми взаємодії дозволяє врахувати зміни в потоцітранспорту, що приходить на кожне перехрестя.

Для реалізації завдання керування дорожнім рухом розроблена адаптивнасистема координації. Архітектура системи базується на декомпозиції завданьоцінювання та керування на два ієрархічних рівня, що дозволяє розділити системуна логічні підсистеми з різними обов’язками:

– локальне керування перехрестями;– координація роботи мережі перехресть.Рівень координації роботи мережі перехресть являє собою центр обчислень,

який отримує інформацію про завантаженість потоків руху, а також поточні значенняпараметрів керування від кожного перехрестя. На даному рівні виконуєтьсязнаходження найбільш завантажених напрямків і перехресть – базових. Визначаєтьсябазова довжина світлофорного циклу.

За допомогою нейронної мережі (окремої для кожного перехрестя) виконуєтьсяпрогнозування завантаженості на наступний цикл.

Для кожного напрямку руху на перехрестях району координації на верхньомурівні на основі використанні нейронної мережі, яка отримує на вхід дані проінтенсивність руху, відбувається знаходження керуючого впливу що передається налокальний рівень для керування обраним перехрестям.

В ході моделювання було встановлено, що запропонована система адаптивногокерування дозволяє знизити затримки транспортних засобів на 15–25% залежно відінтенсивності і характеристик транспортних потоків, що дозволяє підтвердитивідповідність даного походу до поставленого завдання підвищення ефективностікерування дорожнім рухом.

У шостому розділі розглянуто питання побудови інтелектуальнихдіагностичних систем в медицині. У цьому випадку нейронна мережа повиннаобробляти дані, які належать до різних класів.

Застосування різноманітних методів діагностики необхідне для виявленняпухлинного процесу, визначення його стадії і вибору тактики лікування хворих, щостраждають онкологічними захворюваннями. У багатьох випадках длядиференціальної діагностики необхідно провести кілька досліджень,використовуючи різні методи. При плануванні дослідження, насамперед, необхідно

24

враховувати індивідуальні особливості пацієнта й особливості перебігузахворювання, а також знати принципи, можливості й обмеження кожного з методів,щоб забезпечити максимально ефективну діагностику і лікування.

Структурну схему інтелектуальної діагностичної системи (ІДС) представленона рис. 7.

Інформація від пацієнта надходить в систему через інтерфейс.Відеозображення у цифровій формі поступають у блоки фільтрації та усуненнягеометричних спотворень для ліквідації впливу шумів. Після цього відеозображеннянадходить у блок виділення аномальної області, який реалізовано на базі згортковоїнейронної мережі. Оцінювання ознак, що визначають вид патології щитовидноїзалози за результатами УЗД виконується у блоці оцінювання аномальної області.

Рис. 7. Структурна схема інтелектуальної діагностики

Потім проводиться порівняння параметрів ознак, отриманих із аналізузображень, з нормальним станом органу, який досліджується і з патологічнимизмінами, що знаходяться у базі даних. У ній зберігаються дані обстеження і типові,заздалегідь сформовані за допомогою блоку статистичної обробки, ознакизахворювань. Даний блок взаємодіє з блоком підтримки прийняття рішення істворення медичних документів. На підставі даних, отриманих з блоку інформаціїпро сукупність патогенетичних факторів (СПФ), блок багатофакторного аналізудозволяє скласти для них рівняння регресії. Далі, за допомогою вирішальних правилз однойменного блоку формується рекомендоване рішення.

У відповідності до структурної схеми інтелектуальної діагностичної системипісля виділення аномальних областей необхідно оцінити їх параметри, а саме: типобідка новоутворення, включення, структуру новоутворення, розмір та ехогенністьновоутворення. Тип обідка, структура новоутворення та наявність включень

25

визначаються за рахунок побудови автокореляційних функцій фрагментів аномальноїобласті з подальшим порівнянням з еталонними кореляційними функціями, яківідповідають можливим видам цих параметрів, наприклад, для включень це таківаріанти: немає, точечні включення, лінійні включення, «хвіст комети». Ехогенністьновоутворення визначається на основі використання бібліотеки PIL (Piton ImageLibrary).

Додатковими факторами, які використовуються в якості входів підсистемипідтримки прийняття рішень, є: раково-ембріональний антиген РЕА; рівень гормонутиреокальцитоніну; рівень ТТГ; рівень Т4; рівень Т3, результати аналізів загальногопризначення. Нечіткими вхідними даними, які необхідно враховувати придіагностуванні є: тверда консистенція вузла; захриплість і осиплість голосу;опромінення шиї і голови в анамнезі.

Підсистему підтримки прийняття рішень, яку реалізовано на основі нечіткогологічного висновку Ларсена (дозволяє максимально скоротити кількістьвикористань нелінійних функцій min і max), базується на основі виконання 6 етапів:формування бази правил логічного висновку, фазифікації вхідних змінних,агрегування підумови, активація підвисновків, акумулювання висновків,дефазифікації.

Розроблена інтелектуальна діагностична система дозволяє визначити види ракущитовидної залози, а саме: доброякісні (фолікулярна аденома, тощо) та злоякісні(фолікулярна карцинома, папілярна карцинома, медулярна карцинома, тощо).

У сьомому розділі розглянуто побудову інформаційних систем пожежногоспостереження. На основі координат спрацьованих датчиків виявлення пожежі,визначення її категорії, наявних типів спеціальних засобів з метою найскорішогогасіння пожежі за допомогою ШНМ розроблено алгоритм визначення сил та засобівнеобхідних для її гасіння.

Запропоновано алгоритм розрахунку субоптимальних шляхів евакуації,оснований на формалізованому представленні всіх можливих шляхів евакуації увигляді графів та використанні гібридної нейронної мережі, за допомогою якоївизначається субоптимальний шлях за критерієм мінімального часу виходу.

У додатках 1, 2, 3, 4, 5, 6, 7 наведено матеріали, які доповнюють положеннявикладені у основній частині дисертації. У додатку 8 наведено акти впровадженнярезультатів дисертаційної роботи.

ВИСНОВКИ1. Розроблено нову методологію синтезу гібридних нейронних мереж, в якій

на першому етапі оптимальним чином вибирається базова нейронна мережа (БНМ);на другому етапі, в результаті розв’язання задачі багатокритеріальної оптимізації,вона модифікується за рахунок зміни кількості прихованих шарів, нейронів в них,перехресних зв’язків; на третьому етапі вирішується завдання структурно-параметричного синтезу модуля, до складу якого входить модифікована базованейронна мережа; на четвертому етапі вирішується завдання структурно-параметричного синтезу ансамблю, який складається з модулів, що дозволяєпідвищити точність роботи систем за їх мінімальної складності.

26

2. Розроблено новий метод модифікації базової нейронної мережі (БНМ), вякому для підвищення ефективності (збільшення точності і зниження складностіБНМ) розв’язання задачі здійснюється в два етапи: на першому етапівикористовується гібридний багатокритеріальний еволюційний алгоритм длялокалізації зони пошуку оптимальної структури і вагових коефіцієнтів НМ, а надругому – для більш точного визначення кількості нейронів в прихованих шарахзастосовується адаптивний алгоритм об’єднання і нарощування, уточнення ваговихкоефіцієнтів здійснюється на підставі використання методів зворотного поширенняпомилки і найшвидшого спуску (стохастичного градієнтного спуску).

3. Розроблено новий метод розв’язання задачі структурно-параметричногосинтезу модуля нейронних мереж, до складу якого входять базова нейронна мережаі двонаправлена асоціативна пам’ять, а його навчання здійснюється в два етапи: напершому – навчається двонаправлена асоціативна пам’ять, а на другому – базованейронна мережа, що дозволяє підвищити точність роботи гібридної нейронноїмережі.

4. Розроблено новий алгоритм структурно-параметричного синтезу ансамблюмодулів гібридних нейронних мереж, оптимальну структуру якого визначено увигляді паралельного з’єднання модулів нейронних мереж з шаром об’єднання,вибір і навчання яких здійснюється в результаті оптимізації критеріїв точності тарізноманітності з використанням запропонованого алгоритму спрощення та методудинамічного усереднення, що дозволяє підвищити точність роботи при мінімальнійскладності ансамблю.

5. Вперше запропоновано нову модель штучного нейрону, що базується навикористанні трьох зважених суматорів, та відповідної функції активації, яказалежить від трьох змінних, що дозволяє отримати модель, яка апроксимує певнупросту кусково-лінійну функцію, і при цьому дозволяє незалежно налаштовуватипараметри гіперплощини, яка задає півпростори з різними лінійними функціями – і,як наслідок, має покращені апроксимуючі властивості.

6. Розроблено новий гібридний алгоритм формування топології нейронноїмережі глибокого навчання для якого параметри основної мережі, а отже і кількістьобмежених машин Больцмана (автоенкодерів) для попереднього навчаннявизначаються в результаті почергового виконання кожної ітерації пошуку послідовнокожним із базових алгоритмів (рою частинок і генетичного), порівнянням знайденихкожним алгоритмом результатів і заданням найкращого зі знайдених розв’язків вкожен алгоритм, що дозволяє підвищити точність і швидкість роботи мережі замінімальної складності.

7. Удосконалено методологію обробки відеозображень на базі згортковихнейронних мереж (ЗНМ) і класифікаторів глибокого навчання для виявленнянеформалізованих дескрипторів, де в результаті визначення суттєвих параметріврозв’язано задачу структурно-параметричного синтезу ЗНМ на основі використаннягенетичного алгоритму; навчальна вибірка формується в результаті використаннясистемного підходу, що включає: видалення шумів на зображенні, сегментацію

27

зображення, виділення границь на картинці, формалізацію дескриптора об’єкта,класифікацію дескриптора, що дає можливість підвищити точність розпізнавання.

8. Розроблено гібридний метод вирішення завдань прогнозування, в якомуреалізується підхід глибокого навчання, заснований на використанні мережі знейронами типу sigm_piecewise, побудованої із застосуванням методу МГУА, зподальшим навчанням всієї мережі в цілому методом зворотного поширенняпомилки з метою знаходження глобального екстремуму, що підвищує точністьпрогнозування.

9. Розроблено метод прогнозування з регуляризацією, який можевикористовуватися в разі неоднорідності даних і заснований на використанніалгоритму м’якої кластеризації, у якому в якості моделі поверхні, яка розділяєкластери, використовуються нейрони sigm_piecewise, і локальні ШНМ, по одній накожен кластер, навчання яких здійснюється тільки на прикладах з одного кластера,що підвищує точність прогнозування.

10. Обґрунтовано необхідність створення дворівневої інтелектуальної системидіагностики злоякісних пухлин, на нижньому рівні якої здійснюється обробленнярезультатів первинних досліджень, зокрема, оброблення зображень УЗД, КТ, МРТ зметою виділення підозрілих областей, визначення їх геометричних размірів,прийняття попереднього рішення на підставі форми області та її ехогенності щодоналежності до злоякісної, а на верхньому – розв’язується задача прийняття рішенняна підставі результатів роботи систем нижнього рівня.

11. Визначено структуру інтелектуальної системи підтримки прийняттярішення для визначення сил і засобів, необхідних для гасіння пожежі, яка вирішуєнаступні завдання: визначає площу пожежі, категорію пожежі, необхідну кількістьособового складу, кількість рукавів, обсяг води, обсяг пінної суміші, кількістьпіногенераторів, прогнозує межі поширення пожежі.

12. Розроблено інформаційну систему евакуації відвідувачів і співробітниківвеликих торгівельних центрів у разі виникнення пожежі, яка заснована навикористанні гібридних нейронних мереж і теорії графів, що дозволяє знайтисубоптимальні шляхи евакуації за мінімальний час.

Слід відзначити наступне практичне значення результатів дослідження: новаметодологія синтезу гібридних нейронних мереж, яка включає нові методимодифікації базової нейронної мережі, структурно-параметричного синтезу модуляГНМ, новий алгоритм структурно-параметричного синтезу ансамблю ГНМ єтеоретичним підґрунтям для формування напрямків розвитку нових топологій ГНМпри розв’язанні задач діагностики, насамперед медичної – при виявленні злоякіснихпухлин та захворюваннях печінки; запропонована нова модель штучного нейронуможе використовуватися при побудові одношарових НМ, які входять до складуГНМ, для створення інтелектуальних систем підтримки прийняття рішень в задачахмедичної діагностики, гасіння пожеж, керування дорожнім рухом; методологіяструктурно-параметричного синтезу згорткових нейронних мереж можевикористовуватись для оброблення зображень УЗД, КТ, МРТ з метою виділення

28

підозрілих областей, визначення їх геометричних розмірів; гібридний методвирішення завдань прогнозування, в якому реалізується підхід глибокого навчання,заснований на використанні мережі з нейронами типу sigm_piecewise доцільновикористовувати для визначення динаміки росту злоякісних пухлин в системахдіагностики, прогнозу поширення пожежі в інформаційних системах евакуації.

СПИСОК ОПУБЛІКОВАНИХ ПРАЦЬ ЗА ТЕМОЮ ДИСЕРТАЦІЇ1. Синеглазов В. М. Интеллектуальные методы прогнозирования / В. М.

Синеглазов, Е. И. Чумаченко, В. С. Горбатюк // К.: «Освіта України», – 2013. –236 c.

2. Синєглазов В. М. Інтелектуальне управління дорожнім рухом / В. М.Синєглазов, О. І. Чумаченко // К.: «Освіта України», 2013. – 192 c.

3. Синеглазов В. М. Автоматизированная система организации подписки ирассылки печатных материалов / В. М. Синеглазов, Е. И. Чумаченко, С. А. Рудь,А. В. Краковский // Електроніка та системи управління: – К.: НАУ, 2005. –№4(6). – С. 121–125.

4. Чумаченко Е. И. Выбор критерия оптимальности в задачах управлениядорожным движением / Е. И. Чумаченко, Р.Ф.Тищенко // Адаптивні системиавтоматичного управління. – К.: НАУ 2008. – №12(32). – С. 130–140.

5. Чумаченко О. І. Комплекс систем «Дозвільні документи України» зпідсистемою прийняття рішень / О. І. Чумаченко, Т.Д. Порохненко // Адаптивнісистеми автоматичного управління: 2008. – №13(33). – С. 8–20.

6. Чумаченко О. І. Використання сучасних веб-технологій для побудовитематичного робота – краулера аналізатора/ О. І. Чумаченко, С. О.Пономаренко // Адаптивні системи автоматичного управління. – 2008. –№13(33). – С. 20–29.

7. Чумаченко Е. И. Компьютерное моделирование аварийных ситуацийэлектронных систем на основе математического пакета MathLab / Е. И.Чумаченко, О. И. Варченко, Н. В. Бирюк // Адаптивні системи автоматичногоуправління. – 2009. – №15(35). – С. 16–21.

8. Чумаченко Е. И. Устойчивость алгоритмов идентификации отпечатков пальцевпри использовании функции локального выравнивания / Е. И. Чумаченко, А. Г.Демин // Адаптивні системи автоматичного управління. – 2010. – №17(37). –С. 10–18.

9. Чумаченко Е. И., Методы решения задач нечеткой оптимизации в системахподдержки принятия решений / Е. И. Чумаченко, О. М. Грицай, А. С.Мироненко // Адаптивні системи автоматичного управління. – 2010. – №17(37).– С. 18–22.

29

10. Чумаченко Е. И. Моделирование ориентации поля отпечатков пальцев припомощи рациональных комплексных функций / Е. И. Чумаченко, И. И. Щукин// Адаптивні системи автоматичного управління. – 2010. – №17(37). – С. 22–28.

11. Чумаченко О. І. Використання нейронної мережі для розв’язання завданьменедженту персоналу / О. І. Чумаченко, М. П. Михайлюк // Електроніка тасистеми управління. – К.: НАУ, 2010. – №4(26). – С.156–162.

12. Чумаченко Е. И. Применение искусственных нейронных сетей для оценкикредитоспособности заемщиков / Е. И. Чумаченко, Ю. В. Жоголев // Адаптивнісистеми автоматичного управління: 2011. – №18(38). – С. 25–28.

13. Чумаченко Е. И. Разработка алгоритма обработки изображений для задачдиагностики / Е. И. Чумаченко, О. Ю. Левицкий // Електроніка та системиуправління. – К.: НАУ, 2011. – №1(27). – С.57–65.

14. Чумаченко Е. И. Прогнозирование пожаров на основе использованиянейросетей / Е. И. Чумаченко, А. Ю. Ледовский // Електроніка та системиуправління. – К.: НАУ, – 2011. – №2(28). – С.142–148.

15. Чумаченко Е. И. Построение распределенных баз данных / Е. И. Чумаченко, С.С. Захаров // Искусственный интеллект. – 2011. – №2. – С. 94–98.

16. Чумаченко О. І. Аналіз розподіленої інформаційної системи пожежногоспостереження,як системи масового обслуговування/ О. І. Чумаченко, В. В.Цілицький, М. О. Білий // Електроніка та системи управління. – К.: НАУ, –2011. – №3(29). – С.116–119.

17. Чумаченко О. І. Побудова інформаційної системи підвищеної надійності одногокласу / О. І. Чумаченко, В. В. Цілицький, М. О. Білий // Електроніка та системиуправління. – К.: НАУ, – 2011. –№4(30). – С.127–134.

18. Чумаченко О. І. Розроблення програмного забезпечення системиінтелектуально аналізу веб-даних/ О. І. Чумаченко // Електроніка та системиуправління. – К.: НАУ, – 2012. – №3(33). – С. 35–39.

19. Синеглазов В. М. Метод решения задачи прогнозирования на основекомплексирования оценок / В. М. Синеглазов, Е .И. Чумаченко, В. С. Горбатюк// Індуктивне моделювання складних систем: зб. наук. пр. – К.: МННЦ ІТСНАН та МОН України, 2012. – Вип. 4. – С. 214–223.

20. Чумаченко Е. И. Использование искусственных нейронных сетей для задачипрогнозированя/ Е. И. Чумаченко, В. С. Горбатюк // Електроніка та системиуправління. – К.: – НАУ, – 2012. – №1(31). – С.113–119.

21. Чумаченко О. І. Розробка структури нейронної мережі в задачах діагностики /О. І. Чумаченко, О. Ю. Левіцький // Вісник НАУ. – К.: – 2012. – №2. – С. 57–65.

22. Чумаченко О. І. Інтелектуальний аналіз веб-даних/ О. І. Чумаченко, О. І.Житков // Електроніка та системи управління. – К.: НАУ, – 2012. – №2(32). –С. 14–20.

23. Чумаченко Е. И. Алгоритмы решения задачи прогнозирования. / Е. И.Чумаченко, В. С. Горбатюк // Искусственный интеллект. – 2012. – №2. –С. 23–31.

30

24. Чумаченко Е. И. Алгоритмическое обеспечение распределенных баз даннях /Е. И. Чумаченко, С. С. Захаров // Искусственный интеллект. –2012. – №3. –С. 37–42.

25. Чумаченко Е. И. Интеллектуальная система оценки длительности обслуживаниязапросив / Е.И. Чумаченко, Д.П. Прищепа // Адаптивні системи автоматичногоуправління. – К.: – 2012. – №20(40). – C. 24–31.

26. Синеглазов В. М. Алгоритм обучения радиально-базисных сетей на базеалгоритма роя частиц / В. М. Синеглазов, Е. И. Чумаченко, О. Ю. Левицкий //Кибернетика и вычислительная техника. – 2012. – Вып. 167. – С. 25–32.

27. Sineglazov V. An Algorithm for solving the problem of forecasting / V. Sineglazov,E. Chumachenko, V. Gorbatiuk / Aviation. Latvia: vol. 17, Issue 1, pp. 9–13, 2013.(іноземне видання)

28. Чумаченко О. І. Імітаційне моделювання мультипроцесорних систем на основінейронних мереж / О. І. Чумаченко, А. Ю. Лужецкий // Електроніка та системиуправління. – К.: НАУ, – 2013. – №4(38). – C. 135–141.

29. Chumachenko O. I. Design of hybrid neuron networks / O. I. Chumachenko //Electronics and Control Systems, N 2(40) – Kyiv: NAU, 2014. – pp. 68–70. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory).

30. Chumachenko E. I. Traffic control system based on neuron networks / E. I.Chumachenko // Electronics and Control Systems, N 3(41) – Kyiv: NAU, 2014. –pp. 35–40. (Google Scholar; Російський індекс наукового цитування (РІНЦ);Національна бібліотека України імені В.І. Вернадського; Науково-технічнабібліотека Національного авіаційного університету; CrossRef Indexing; EBSCOinformation services; Research Bible; Simple Search Metadata; Наукова електроннабібліотека; Ulrich’s Periodicals Directory)

31. Chumachenko E. I. Building a system of simulation modeling for spatially-distributed processes / E. I. Chumachenko, A. Y. Luzhetskyi // Electronics andControl Systems, N 1(39) – Kyiv: NAU, 2014. – pp. 108–113. (Google Scholar;Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

32. Sineglazov V. Using mixture of experts approach to solve the forecasting task / V.Sineglazov, O. Chumachenko, V. Gorbatiuk // Aviation. Latvia: vol. 18, Issue 3, pp.129–133, 2014. (іноземне видання)

31

33. Sineglazov V. A method for building a forecasting model with dynamic weights / V.Sineglazov, O. Chumachenko, V. Gorbatiuk // Восточно-Европейский журналпередовых технологий. – 2014. – № 2(4). – С. 4–8.

34. Chumachenko E. I. Features of hybrid neural networks use with input data ofdifferent types / E. I. Chumachenko, D. Yu. Koval, G. A. Sipakov, D. D. Shevchuk //Electronics and Control Systems, N 4(42) – Kyiv: NAU, 2014. – pp. 91–97. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

35. Chumachenko E. I. Using ANFIS and NEFCLASS neurаl networks in classificationproblems / E. I. Chumachenko, D. Yu. Koval, G. A. Sipakov, D. D. Shevchuk //Electronics and Control Systems, N 1(43) – Kyiv: NAU, 2015. – pp. 93–98. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

36. Chumachenko О. I. Fire monitoring intellectual information system / О. I.Chumachenko, V. L. Kupriyanchyk // Electronics and Control Systems, N 2(44) –Kyiv: NAU, 2015. – pp. 81–84. (Google Scholar; Російський індекс науковогоцитування (РІНЦ); Національна бібліотека України імені В.І. Вернадського;Науково-технічна бібліотека Національного авіаційного університету; CrossRefIndexing; EBSCO information services; Research Bible; Simple Search Metadata;Наукова електронна бібліотека; Ulrich’s Periodicals Directory)

37. Chumachenko O. I. Deep Learning Classifier Based on NEFCLASS Neural Network// Electronics and Control Systems, N 3(49) – Kyiv: NAU, 2016. – pp. 79–83.(Google Scholar; Російський індекс наукового цитування (РІНЦ); Національнабібліотека України імені В.І. Вернадського; Науково-технічна бібліотекаНаціонального авіаційного університету; CrossRef Indexing; EBSCO informationservices; Research Bible; Simple Search Metadata; Наукова електронна бібліотека;Ulrich’s Periodicals Directory)

38. Chumachenko O. I. Deep Learning Classifier Based on NEFPROX Neural Network //Electronics and Control Systems, N 4(50) – Kyiv: NAU, 2016. – pp. 63–66. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

32

39. Chumachenko O. I., Kryvenko I. V. Neural networks module learning // Electronicsand Control Systems, N 2(48) – Kyiv: NAU, 2016. – pp. 76–80. (Google Scholar;Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

40. Чумаченко О. І. Комплексування декількох алгоритмів під час розв’язаннязадачі прогнозування / О. І. Чумаченко, В. С. Горбатюк // Вісник ЖДТУ. Серія:Технічні науки. – №1 (76). – 2016. – C. 101–107. (Google Scholar)

41. Коваль Д. Ю. Синтез оптимальної структури глибокої нейронної мережі / Д. Ю.Коваль, В. М. Синєглазов, О. І. Чумаченко // Штучний інтелект. – 2016. – № 3. –C. 78–82. (Google Scholar)

42. Чумаченко О. І. Застосування мережі глибокої довіри в задачі розпізнаваннязображень / О. І. Чумаченко, Г. О. Сіпаков // Вісник ЖДТУ. Серія: Технічнінауки. – №3 (78). – 2016. – C. 114–118. (Google Scholar)

43. Chumachenko О. I. Intelligent Mobile Information System for Underground / E. I.Chumachenko, I. V. Roshinsky // Electronics and Control Systems, N 1(51) – Kyiv:NAU, 2017. – pp. 88–92. DOI: 10.18372/1990-5548.51.11699. (Google Scholar;Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

44. Chumachenko О. I. Soft Clustering Algorithm Based on Separating Hypersurfaces /O. I. Chumachenko, V. S. Gorbatiuk // Electronics and Control Systems, N 2(52) –Kyiv: NAU, 2017. – pp. 11–15. DOI: 10.18372/1990-5548.52.11860. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; Research Bible; Simple SearchMetadata; Наукова електронна бібліотека; Ulrich’s Periodicals Directory)

45. Chumachenko О. I. Structural-Parametric Synthesis of Hybrid Neural NetworksEnsembles / O. I. Chumachenko, A. T. Kot // Electronics and Control Systems,N 4(54) – Kyiv: NAU, 2017. – pp. 81–88. DOI:10.18372/1990-5548.54.12323.(Google Scholar; Російський індекс наукового цитування (РІНЦ); Національнабібліотека України імені В.І. Вернадського; Науково-технічна бібліотекаНаціонального авіаційного університету; CrossRef Indexing; Research Bible;Simple Search Metadata; Наукова електронна бібліотека; Ulrich’s PeriodicalsDirectory)

46. Chumachenko O. I. Algorithm of Pruning of Hybrid Neural Networks Ensemble / O.I. Chumachenko, A. O. Kuzmenko // Electronics and Control Systems, N 1(55) –

33

Kyiv: NAU, 2018. – pp. 53–56. DOI: 10.18372/1990-5548. 55. 12772. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; Research Bible; Simple SearchMetadata; Наукова електронна бібліотека; Ulrich’s Periodicals Directory)

47. Chumachenko O. I. Algorithm of Neuron Networks Modification // Electronics andControl Systems, N 2(56) – Kyiv: NAU, 2018. – pp. 59–63. DOI: 10.18372/1990-5548.56.12936. (Google Scholar; Російський індекс наукового цитування (РІНЦ);Національна бібліотека України імені В.І. Вернадського; Науково-технічнабібліотека Національного авіаційного університету; CrossRef Indexing; ResearchBible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory)

48. Chumachenko O. I. Neural Networks Module / O. I. Chumachenko, A. T. Kot //Electronics and Control Systems, N 2(56) – Kyiv: NAU, 2018. – pp. 65–69. DOI:10.18372/1990-5548.56.12937. (Google Scholar; Російський індекс науковогоцитування (РІНЦ); Національна бібліотека України імені В.І. Вернадського;Науково-технічна бібліотека Національного авіаційного університету; CrossRefIndexing; Research Bible; Simple Search Metadata; Наукова електроннабібліотека; Ulrich’s Periodicals Directory)

49. Chumachenko O. I. Intelligent System of Diagnostics of Thyroid Pathology / O. I.Chumachenko, A. T. Kot, O. O. Voitiuk // Electronics and Control Systems, N 3(57)– Kyiv: NAU, 2018, – pp. 24–29. DOI: 10.18372/1990-5548.57.13228. (GoogleScholar; Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory; Index Copernicus International (IC)).

50. Sineglazov V. “Forecasting Aircraft Miles Flown Time Series Using a Deep Learning-Based Hybrid Approach” / V. Sineglazov, O. Chumachenko, and V. Gorbatiuk //Aviation, vol. 22, May 2018, pp. 6–12, doi:10.3846/aviation.2018.2048. (іноземневидання)

51. Sineglazov V. M. Structural Synthesis of Hybrid Neural Networks Ensembles / V. M.Sineglazov, O. I. Chumachenko, O. R. Bedukha // Electronics and Control Systems,N 3(57) – Kyiv: NAU, 2018, – pp. 83–87. DOI: 10.18372/1990-5548.57.13242.(Google Scholar; Російський індекс наукового цитування (РІНЦ); Національнабібліотека України імені В.І. Вернадського; Науково-технічна бібліотекаНаціонального авіаційного університету; CrossRef Indexing; EBSCO informationservices; Research Bible; Simple Search Metadata; Наукова електронна бібліотека;Ulrich’s Periodicals Directory; Index Copernicus International (IC)).

34

52. Zgurovsky M. Z. Structural-Parametric Synthesis of the Direct Distribution NeuralNetworks with Sigmoid Piecewise-Type Neurons / M. Z. Zgurovsky, O. I.Chumachenko, V. S. Gorbatiuk // Electronics and Control Systems, N 4(58) – Kyiv:NAU, 2018. – pp. 42–47. DOI:10.18372/1990-5548.58.13508. (Google Scholar;Російський індекс наукового цитування (РІНЦ); Національна бібліотекаУкраїни імені В.І. Вернадського; Науково-технічна бібліотека Національногоавіаційного університету; CrossRef Indexing; EBSCO information services;Research Bible; Simple Search Metadata; Наукова електронна бібліотека; Ulrich’sPeriodicals Directory; Index Copernicus International (IC)).

53. Чумаченко Е. И. Исследование структуры нейронной сети в задаче диагностики/ Е. И. Чумаченко, О. Ю. Левицкий // Х міжнародна науково технічнаконференція «Авіа-2011» 15-21 квітня 2011. – К.: – 2011. – С. 22.40–22.43.

54. Чумаченко О. І. Інформаційна система пожежного спостерігання. / О. І.Чумаченко, В. В. Цілицький, М. О. Білий // Х міжнародна науково технічнаконференція «Авіа-2011» 15-21 квітня 2011. – К.: – 2011. –С. 22.56–22.59.

55. Sineglazov V. Training radial-basis neural network for the problems of diagnosissolution / V. Sineglazov, E. Chumachenko, Levitsky O. // Proceedings, the fifthworld congress “Aviation in the ΧΙ-st Century,” safety in aviation and spacetechnologies. vol.2, September 25-27 2012, Kiev, Ukraine. pp. 3.5.43–3.5.48.

56. Sineglazov V. One approach for the forecasting task / V. Sineglazov, E.Chumachenko, V. Gorbatiuk // Proceedings, the fifth world congress “Aviation in theΧΧΙ-st Century,” safety in aviation and space technologies.vol.2, September 25-272012, Kyiv, Ukraine. – рp. 3.5.49–3.5.53.

57. Чумаченко Е. И. Алгоритмы решения задачи прогнозирования / Чумаченко Е.И., Горбатюк В. С. // Intellectual system for decision making and problems ofcomputational intelligence. ISDMC 2012 Congrece proceeding, May 27-31, 2012,Yevpatoria, Ukraine pp. 423–425.

58. Chumachenko E. The algorithm training radial-basis networks based on particleswarm algorithm / E. Chumachenko, О. Levitskiy // Intellectual system for decisionmaking and problems of computational intelligence. ISDMC 2012 Congreceproceeding, May 27-31, 2012, Yevpatoria, Ukraine. – pp. 425–427.

59. Chumachenko E. Method for predicting a failure risk of the UAV navigation system /E. Chumachenko, S. Gorbatuk / The 2-nd International Conference, Method andsystem of Proceedings October, 9-12, 2012, Kyiv, Ukraine. – pp. 63–65.

60. Sineglazov V. Applying Different Neural Network's Topo-logies to the ForecastingTask / V. Sineglazov, E. Chumachenko, V. Gorbatiuk // 4th International Conferencein Inductive Modelling ICIM', 2013, – рр. 217–220.

61. Лужецький А. Ю. Побудова імітаційної моделі інтелектуальної діагностичноїсистеми міського електротранспорту / А. Ю. Лужецький, Е. И. Чумаченко, А. С.

35

Юрченко // ХІ міжнародна науково технічна конференція «Авіа-2013» 21-23травня 2013. К.: – 2013. – С. 21.31–21.34.

62. Чумаченко Е. И. Синтез нейросетей с заданными свойствами в задачахинтеллектуальной диагностики / Е. И. Чумаченко, К. С. Муравская, М. В.Папирковский, А. С. Юрченко // ХІ міжнародна науково технічна конференція«Авіа-2013» 21-23 травня 2013. К.: – 2013. – С. 21.73–21.76.

63. Chumachenko E. I. Forecasting the Demand for UAV Using Different NeuralNetworks Topology / E. I. Chumachenko, V. S. Gorbatiuk // The 2-nd InternationalConference, Actual Problems of Unmanned Air Vehicles Development ProceedingsOctober,15-17, 2013, Kyiv, Ukraine. pp. 62–64.

64. Chumachenko E. I. Image Processing UAV / E. I. Chumachenko, A. V. Gilevoy //The 2-nd International Conference, Actual Problems of Unmanned Air VehiclesDevelopment Proceedings October,15-17, 2013, Kyiv, Ukraine, pp. 75–76.

65. Kemeniash Yu. M. An intelligence image processing system / Yu. M. Kemeniash, E.I. Chumachenko // Proceedings, the sixth world congress «Aviation in the ΧΧΙ-stCentury», safety in aviation and space technologies. September 23-25 2014, Kiev,Ukraine. Vol. 2, – pp. 3.5.43–3.5.48.

66. Sineglazov V. Information technologies of computer aided design systems based ondynamic data integration and simulation procedures / V. Sineglazov, E.Chumachenko, A. Godny // 2nd International Conference “Computer Algebra&Information Technologies”. Odessa, TES, Ukraine. (August 21–26, 2016). –Odessa: TES. – 2016. – pp. 9–10.

67. Чумаченко О.І. Комплексування декількох алгоритмів при вирішенні задачіпрогнозування / О. І.Чумаченко, В. С. Горбатюк // Тези доповідей VIIIМіжнародної науково-технічної конференції «Інформаційно-комп’ютернітехнології – 2016». – Житомир, ЖДТУ, Україна. (22–23 квітня 2016 р.). –Житомир: ЖДТУ. – 2016. – C. 95–96.

68. Чумаченко О.І. Застосування мережі глубокої довіри в задачі розпізнаваннязображень / О. І. Чумаченко, Г. О. Сіпаков // Тези доповідей VIII Міжнародноїнауково-технічної конференції «Інформаційно-комп’ютерні технології – 2016».– Житомир, ЖДТУ, Україна. (22–23 квітня 2016 р.). – Житомир: ЖДТУ. – 2016.– C. 61–62.

69. Чумаченко О. І. Гібридний еволюційний алгоритм формування топологіїглибокої нейромережі / О. І. Чумаченко, Д. Ю. Коваль // Матеріалиміжнародної науково-практичної конференції «Інформаційні технології такомп’ютерне моделювання». – Івано-Франківськ – Яремче, Україна (23 – 28травня 2016 р.). – C. 20–22.

70. Чумаченко О. І. Метод побудови прогнозуючої моделі з динамічнимипараметрами / В. М. Синєглазов, О. І. Чумаченко, В. С. Горбатюк // Матеріали

36

міжнародної науково-практичної конференції «Інформаційні технології такомп’ютерне моделювання». – Івано-Франківськ – Яремче, Україна (23 – 28травня 2016 р.). – C. 23–26.

71. Чумаченко О. І. Ітераційний метод самокалібрування передатних характеристиквимірювальних каналів біомедичної аналого-цифрової системи / О. І. Чумаченко// Матеріали міжнародної науково-практичної конференції «Інформаційнітехнології та комп’ютерне моделювання». – Івано-Франківськ – Яремче, Україна(15–20 травня 2017 р.). – C. 282–286.

72. Синєглазов В. М. Deep Learning Classifier Based on NEFCLASS and NEFPROXNeural Networks / В. М. Синєглазов, О. І. Чумаченко // Матеріали міжнародноїнауково-практичної конференції «Інформаційні технології та комп’ютернемоделювання». – Івано-Франківськ – Яремче, Україна (15 – 20 травня 2017 р.). –C. 278–281.

73. Синєглазов В.М. Вдосконалення гібридного генетичного алгоритму для синтезуглибоких нейронних мереж / В. М. Синєглазов, О. І. Чумаченко, Д. Коваль // IVМіжнародна науково-практична конференція «Обчислювальний інтелект»(Київ, 16-18 травня, 2017). – C. 142 – 143.

74. Чумаченко Е.И. Интеллектуальная мобильная информационная системапассажиров метрополитена / Е. И. Чумаченко, И. В. Рощинский // ХІІІміжнародна науково технічна конференція «Авіа-2017» 19-21 квітня 2017. – К.:– 2017. Електронний ресурс

75. Sineglazov V. M. Intelectual System of Optimal Evacuation Route Searching / V.Sineglazov, O. I. Chumachenko, I. V. Krivenko // XXIV International Conference onAutomated Control “Automation 2017”. Kyiv, Ukraine, of Proceedings (September13–15, 2017). – Kyiv. – 2017.

76. Sineglazov V.М. A New Approach in Cluster Analysis / V.M. Sineglazov, O.I.Chumachenko, V.S. Gorbatiuk // The 4-nd International Conference, ActualProblems of Unmanned Air Vehicles Development Proceedings, October, 17-19,2017, Kyiv, Ukraine, pp. 223–226.

77. Sineglazov V. М. Hybrid neural network based on Kohonen networks and theperceptron. / V. М. Sineglazov, O. I. Chumachenko // 3d International Conference“Computer Algebra&Information Technologies,” Proceedings, August 20-25, 2018,Odessa, Ukraine, 2018, pp. 38–40.

78. Sineglazov V. “Procedura prognozowania ceny akcji przedsiębiorstwa,” /V. Sineglazov, O. Chumachenko, and V. Gorbatiuk // XVIII International ScientificConference Corporate Governance – Theory and practice, Krakow, June 2018, рр.101–102. (закордонне видання)

79. Чумаченко О. І. Нова модель штучного нейрону для побудови нейронних мережу задачі апроксімації / О. І. Чумаченко, В. С. Горбатюк // Матеріали міжнародноїнауково-практичної конференції «Інформаційні технології та комп’ютерне

37

моделювання». – Івано-Франківськ – Яремче, Україна (14-19 травня 2018 р.). – C.296 – 299.

80. Синєглазов В. М. Структурно-параметричний синтез загорткових нейроннихмереж / В. М. Синєглазов, О. І. Чумаченко // Матеріали міжнародної науково-практичної конференції «Інформаційні технології та комп’ютернемоделювання». – Івано-Франківськ–Яремче, Україна (14-19 травня 2018 р.). – C.225 – 228.

81. Sineglazov V. М. Hybrid neural network based on Kohonen networks and theperceptron. / V. М. Sineglazov, O. I. Chumachenko // 3d International Conference“Computer Algebra&Information Technologies,” Proceedings, August 20-25, 2018,Odessa, Ukraine, 2018, pp. 38–40.

82. Marusyk O. М. Hybrid Algorithm for Deep Training of the Neural Network ANFIS. /O. М. Marusyk, O. I. Chumachenko, A. T. Kot // 3d International Conference“Computer Algebra&Information Technologies,” Proceedings, August 20-25, 2018,Odessa, Ukraine, 2018, pp. 193–196.

83.Sineglazov V. Time Series Forecasting Using Regularized Mixture of Experts / V.Sineglazov, O. Chumachenko, and V. Gorbatiuk // “Information Systems andTechnologies,” IST-2018. Proceedings of the 7-th International Scientific andTechnical Conference, September 10-15, 2018, Kobleve-Kharkiv, Ukrain, 2018, –pp. 391–393.

84. Sineglazov V. Comparative Study of the Сlassic and Fuzzy Restricted BoltzmannMachine / V. Sineglazov, O. Chumachenko, and O. Marusyk // “Information Systemsand Technologies,” IST-2018, Proceedings of the 7-th International Scientific andTechnical Conference, September 10-15, 2018, Kobleve-Kharkiv, Ukrain. 2018, –pp. 394–399.

АНОТАЦІЯЧумаченко О. І. Структурно-параметричний синтез гібридних нейронних

мереж. – Кваліфікаційна наукова праця на правах рукопису.Дисертація на здобуття наукового ступеню доктора технічних наук за

спеціальністю 05.13.23 – системи та засоби штучного інтелекту. – Національнийтехнічний університет України «Київський політехнічний інститут імені ІгоряСікорського», Київ, 2019.

Дисертацію присвячено подальшому розвитку теорії розробки та дослідженнюметодів та алгоритмів штучного інтелекту на основі використання гібриднихнейронних мереж.

Задача синтезу гібридних нейронних мереж під розв’язання задач (апроксимації,класифікації та прогнозування) поставлена та розв’язана у двох постановках:оптимального вибору відомої топології нейронної мережі із подальшоюмодифікацією та синтезу субоптимальної топології за заданими критеріями.

38

У роботі запропоновано алгоритм нарощування топологій гібридної ШНМшляхом додавання модулів і з’єднання в послідовні і паралельні ансамблі. Розробленоалгоритм формування топології ШНМ з використанням генетичного алгоритму.

Розглянуто розв’язання задачі структурно-параметричного синтезу гібриднихнейронних мереж глибокого навчання.

Наведено розв’язання прикладних задач запропонованими методами.Ключові слова: гібридні нейронні мережі, системи штучного інтелекту,

обробка зображень, системи медичної та технічної діагностики, автоматизованісистеми керування дорожнім рухом, інформаційні пожежні системи.

АННОТАЦИЯЧумаченко О. І. Структурно-параметрический синтез гибридных

нейронных сетей – Квалификационная научная работа на правах рукописи.Диссертация на получение научной степени доктора технических наук по

специальности 05.13.23 – системы и средства искусственного интелекта. –Национальный технический университет Украины «Киевский политехническийинститут имени Игоря Сикорского», Киев, 2019.

Задача синтеза гибридных нейронных сетей во время решения задач(аппроксимации, классификации и прогнозирования) поставлена и решена в двухпостановках: оптимального выбора известной топологии нейронной сети сдальнейшей модификацией и синтезом субоптимальной топологии с заданнымикритериями.

В работе предложен алгоритм наращивания топологий гибриднойискусственной нейронной сети путём сложения модулей и соединения впоследовательные и параллельные ансамбли. Разработан алгоритм формированиятопологии искусственной нейронной сети с использованием генетическогоалгоритма.

Рассмотрено решение задачи структурно-параметрического синтеза гибридныхнейронных сетей глубокого обучения.

Приведены решения прикладных задач предложенными методами.Ключевые слова: гибридные нейронные сети, системы искусственного

интеллекта, обработка изображений, системы медицинской и техническойдиагностики, автоматизированные системы управления дорожным движением,информационные пожарные системы.

ABSTRACTChumachenko О.I. Structural-parametric synthesis of hybrid neural networks.

– Qualification scientific work as a manuscript.The thesis maintaining the doctor degree of engineering science on speciality

05.13.23 – “Systems and means of artificial intelligence.” – National technical universityof Ukraine "Kyiv Polytechnic Institute named after Igor Sikorsky," Kyiv, 2019.

39

The necessity of the development of integrated, hybrid systems based on deeplearning is substantiated. Such systems consist of various elements (components), unitedin the interests of achieving objectives set.

In the thesis the actual scientific-applied problem, which has the important scientificand practical importance, is solved and it consists in the development of methods andalgorithms for solving the problem of structural-parametric synthesis of deep learninghybrid neural networks (HNN).

It is shown that the main problems of synthesis of HNN, at present, are:– absence of formal methods for choosing the type of neural networks (NN),

adequate for the class of tasks to be solved;– insufficient work on the issues of automatic formation of the topology of NN,

which does not allow to create NN of high accuracy and minimum complexity (minimumcomputational costs);

– insufficient grounds for choosing optimization methods in the training procedure ofNN, which leads to significant errors.

In the course of the thesis work the methodology of structural-parametric synthesis ofHNN; method of structural-parametric synthesis of modules of HNN; algorithm ofstructural-parametric synthesis of ensemble of modules of HNN; algorithm of structural-parametric synthesis of HNN of deep learning; methods of prediction based on the use ofHNN of deep learning is developed.

A new methodology for the synthesis of HNN is developed, which is differed by thefact that in the first stage the optimal base neural network is selected; in the second stage,as a result of solving the multicriteria optimization problem, it is modified; in the thirdstage, the problem of structural-parametric synthesis of modules is considered at the fourthstage the problem of structural and parametric synthesis of the ensemble is solved, whichallows to improve the accuracy of the systems operation in their minimal complexity. Theproblem of optimal choice of basic neural network (BNN) topology is solved by using themethod of selection. Numerous examples of optimal choice of BNN are given in the work.

A new method for modifying the BNN is developed, which in opposite to the knownones, in order to increase the efficiency of the problem solution (increase of accuracy anddecrease the complexity of the BNN), the parameters adjustment is carried out in twostages: at the first stage a hybrid multicriteria evolutionary algorithm is used, and at thesecond one – for more accurate determination of neurons number in the hidden layers, anadaptive algorithm of constructing and pruning is applied, the weight coefficients arespecified by the gradient descent method. It is proved that evolutionary algorithms are notwell adapted for solving problems with constraints and require some modification takinginto account the specifics of the conditional optimization problem. To eliminate theidentified shortcomings of genetic algorithms, it is proposed to "treat" (refine) non-motivated points obtained after stopping the genetic algorithm. Due to the fact, thatsolutions in genetic algorithms are presentedas a vectot, consist of zeros and units, for the‘treatment’ of uncommitted points, it is very convenient to use the Pareto local searchalgorithms in space of Boolean variables. To solve conditional multi-criteria optimizationtasks, it is proposed to use a hybrid genetic algorithm.

Based on the analysis carried out, in this work, it is proposed to synthesize the hybridtopology in the form of a parallel ensemble of NN modules with a layer of association. As

40

a procedure for building an ensemble, the use of begging, which has advantages overothers, is substantiated. To optimize the size of the ensemble, an algorithm forsimplification was developed with the help of the complementary value method, whichalso takes into account the interaction of the classifiers with each other. The weighcoefficients of the association of modules in the ensemble were determined on the basis ofthe use of the method of dynamic averaging.

A new hybrid algorithm of deep learning neural network topology formation has beendeveloped, which in opposite to the known ones the parameters of the main network aredetermined by the sequential execution of each search iteration sequentially with each ofthe basic algorithms (swarm particles and genetic), the comparison of the found results andthe use of the best found solutions of each algorithm, that allows to increase the accuracyand speed of network work under minimal complexity.

The methodology of images processing on the basis of convolution neural networksand deep learning classifiers for non-formalized descriptors detecting is improved, it isdetermined: the optimal parameters of convolution neural networks with help of geneticalgorithm; the training sample is formed as a result of system approach which includes:removal of noise in the image, image segmentation, selection of borders in the picture,formalization of the object descriptor, classification of the descriptor, which makes itpossible to increase the accuracy of recognition.

The problems that arise when solving prediction problems of time series with a largenumber of input variables are determined. The hybrid method of solving forecastingproblems is developed, which is distinguished by the fact that it implements deep learningbased on the use of a single-layer network with neurons of the type sigm_piecewise,constructed using the group method of data handling method, with the subsequent learningof the entire network as a whole by the method of reverse error propagation in order tofind the global extremum, which increases the accuracy of prediction.

The regularization prediction method is developed which in opposite to the knownones, it can be used in the case of heterogeneity of data and is based on the use of a softclustering algorithm, in which as a surface model, separating clusters, it is used single layerNN with sigm_piecewise neurons and local NN, one for each cluster whose training arecarried out only on examples from one cluster, that increases the accuracy of prediction.

Keywords: hybrid neural networks, artificial intelligence systems, image processing,systems of medical and technical diagnostics, automated traffic control systems,information fire systems.