Передбачення ускладнень після операції протезування аортального клапана серця
Анотація: У статті розглянуто проблему передбачення ускладнень у пацієнтів після операції протезування аортального клапана серця, де об’єктами розгляду виступають показники обстеження пацієнтів у першу-третю добу після операції. Вирішення проблеми проводиться за допомогою методів дискримінантного аналізу, методу опорних векторів та передбачення ускладнень за допомогою перебору груп класів. Вхідні дані для покращення результатів передбачення були розширені за допомогою нелінійних перетворень.
Бібліографічний опис статті:
Вероника Золкина. Передбачення ускладнень після операції протезування аортального клапана серця//Наука онлайн: Міжнародний електронний науковий журнал - 2019. - №12. - https://nauka-online.com/publications/technical-sciences/2019/12/predskazanie-oslozhnenij-posle-operatsii-protezirovaniya-aortalnogo-klapana-serdtsa/
Технічні науки
Золкіна Вероніка Олександрівна
студентка
Національного технічного університету України
«Київський політехнічний інститут імені Ігоря Сікорського»
Золкина Вероника Александровна
студентка
Национального технического университета Украины
«Киевский политехнический институт имени Игоря Сикорского»
Zolkina Veronika
Student of the
National Technical University of Ukraine
«Igor Sikorsky Kyiv Polytechnic Institute»
ПЕРЕДБАЧЕННЯ УСКЛАДНЕНЬ ПІСЛЯ ОПЕРАЦІЇ ПРОТЕЗУВАННЯ АОРТАЛЬНОГО КЛАПАНА СЕРЦЯ
ПРЕДСКАЗАНИЕ ОСЛОЖНЕНИЙ ПОСЛЕ ОПЕРАЦИИ ПРОТЕЗИРОВАНИЯ АОРТАЛЬНОГО КЛАПАНА СЕРДЦА
PREDICTION OF COMPLICATIONS AFTER SURGERY OF PROTHETICS THE AORTIC HEART VALVE
Анотація. У статті розглянуто проблему передбачення ускладнень у пацієнтів після операції протезування аортального клапана серця, де об’єктами розгляду виступають показники обстеження пацієнтів у першу-третю добу після операції. Вирішення проблеми проводиться за допомогою методів дискримінантного аналізу, методу опорних векторів та передбачення ускладнень за допомогою перебору груп класів. Вхідні дані для покращення результатів передбачення були розширені за допомогою нелінійних перетворень.
Ключові слова: протезування аортального клапана, прогнозування, дискримінантний аналіз, класифікуюча функція, метод перебору груп класів, метод опорних векторів.
Аннотация. В статье рассмотрена проблема предсказания осложнений у пациентов после операции протезирования аортального клапана сердца, где объектами рассмотрения выступают показатели обследования пациентов в первую третьи сутки после операции. Решение проблемы проводится с помощью методов дискриминантного анализа, метода опорных векторов и предсказания осложнений с помощью перебора групп классов. Входные данные для улучшения результатов предсказания были расширены с помощью нелинейных преобразований.
Ключевые слова: протезирование аортального клапана, прогнозирования, дискриминантный анализ, классифицируя функция, метод перебора групп классов, метод опорных векторов.
Summary. The article discusses the problem of predicting complications in patients after surgery for prosthetics of the aortic valve of the heart, where the parameters of examination of patients on the first third day after surgery are the objects of consideration. The problem is solved using the methods of discriminant analysis, the support vector method and prediction of complications by enumerating class groups. Input data to improve prediction results has been expanded using nonlinear transformations.
Key words: aortic valve prosthetics, prediction, discriminant analysis, classifying function, class group enumeration method, support vector method.
Постановка задачі. Важливу роль у післяопераційному періоді пацієнта, що переніс операцію по протезуванню аортального клапана серця, відіграє вчасність та точність розрахунку можливості виникнення ускладнень. У першу-третю добу після операції можуть виникати такі ускладнення, як гостра недостатність мозку або гостра серцева недостатність.
Одною з проблем задачі передбачення можливих ускладнень є недостатньо точні результати, що можуть бути викликані похибками, випадковими включеннями об’єктів в інший клас або невірно обраними змінними. Також на точність результату впливає те, що результуючі області значень класів можуть перетинатись і приналежність об’єкту до конкретного класу може бути помилково визначена. Це призводить в результаті до неоднозначності класифікації.
Аналіз останніх досліджень та публікацій. Задача, поставлена вище потребує більш точних результатів, що не були запропоновані раніше. В цій роботі буде проведено аналіз даних за допомогою різних методів, зокрема дискримінантним аналізом, логістичною регресією, мультикласовим методом опорних векторів та методом «знаходження центру ромашки».
Мета дослідження. Запропонувати підхід до вирішення задачі класифікації спостережень після операції протезування аортального клапана серця та розрахунку можливих ускладнень.
Вирішення задачі. В основу пропозиції вирішення поставленої задачі було обрано побудову моделей післяопераційних ускладнень методами дискримінантного аналізу, опорних векторів та методом перебору груп класів
Існує декілька методів вирішення поставленої задачі. Метод дискримінантного аналізу дозволяє розпізнати приналежність змінної до деякого класу або ж показує відмінність між декількома групами. При цьому можна розв’язувати питання щодо корисності певної змінної для прогнозування.
Оскільки кластери можуть перетинатись, спочатку треба обрати кращий спосіб класифікації даних для подальшого аналізу, цей фактор впливає на якість аналізу. Найкращі результати дає метод k-середніх, що відтворює кластери, які не перетинаються або метод найближчого сусіда.
У випадку коли кількість вхідних параметрів недостатня, або коли існують зайві параметри існує ймовірність появи даних, що важко інтерпретувати. В часткових випадках вхідні змінні можуть бути віднесені до кластерів, до яких вони не входили спочатку.
За якістю класифікації результати лінійного дискримінантного аналізу та аналізу методом знаходження канонічних дискримінантних функцій майже однакові, але також існують інші методи. Ці методи будуть розглянені в даній роботі та буде проведено порівняння результатів аналізу.
Канонічний дискримінантний аналіз базується на пошуку канонічних функцій, що визначаються за формулою:
де – значення канонічної дискримінантної функції для m-го об’єкта в k-му класі;
– значення дискримінантної змінної для m-го об’єкта в k-му класі;
– коефіцієнти, на яких базується виконання необхідних умов.
При цьому кількість канонічних функцій може бути рівною кількості змінних або мати менше значення. Після обчислення всіх функцій виконується зарахування нових об’єктів до заданих кластерів.
Якщо порівнювати методи дискримінантного аналізу, то у метода лінійного дискримінантного аналізу Фішера є недолік, що визначається у припущенні, що коваріаційні матриці вибірок можуть бути рівними. У лінійному дискримінантному аналізі передбачається навпаки, що коваріаційні матриці різні. Це часто призводить до ускладнення розрахунків і похибок.
В цій роботі буде застосовано методи дискримінантного аналізу, логістичної регресії, багатокласовий метод опорних векторів, метод перебору груп класів і порівняно результати правильного входження змінних до кластерів. Всі розрахунки зроблені за допомогою програмного забезпечення SPSS Statistics.
Якщо застосовувати метод опорних векторів, то при вирішенні задачі входження змінної до кластеру вона буде розглянута як вектор розмірністю n. Наша задача в цьому випадку знайти таку гіперплощину, яка б розділила кластери так, щоб їх границі були максимально чіткими.
Але метод опорних векторів має суттєвий недолік в інтерпретації результатів тому, що не має можливості виведення моделей.
Цей метод використовує в своїй основі довільну функцію ядра, щоб створити нелінійний класифікатор.
Для створення нелінійного класифікатора використовується довільна функція ядра. Кожний скалярний добуток замінюється на нелінійну функцію ядра. Це дозволить знаходити гіперплощину максимальної різниці в трансформованому просторі функцій. Зміна може бути нелінійною і трансформуватися в простір з більш високою розмірністю.
Ефективність методу опорних векторів залежить від вибору ядра, параметрів ядра і параметра для геометричної різниці. Незважаючи на те, що класифікатор є гіперплощиною в багатовимірному просторі функцій, він може бути нелінійним в вихідному просторі навчальної вибірки.
В цій роботі було використано спостереження групи з 40 пацієнтів, які включають в себе дані кровообігу в першу-третью добу після операції на аортальному клапані серця. При цьому у пацієнтів можуть бути 4 післяопераційні стани:
- Норма.
- Гостра серцева недостатність.
- Гостра недостатність мозкового кровообігу.
- Гостра серцева недостатність та гостра недостатність мозкового кровообігу.
Завдання було викликане потребою правильно діагностувати тип ускладнення в перші дні з найменшими похибками, щоб провести правильне лікування пацієнта. Також для кожного пацієнта було взято дані про тиск, показники споживання кисню, ударний об’єм серця, ЧСС та інші дані, що мають практичне значення при передбаченні ускладнень.
Для отримання оптимальної кількості окремих класів треба виконати попередні розрахунки у декількох варіаціях і порівняти результати аналізу між собою. Але оскільки в нашому випадку кількість класів була обрана одразу – можна пропустити цей крок.
Метод дискримінантного аналізу.
В результаті класифікації отримано чотири класифікуючі функції – лінійні дискримінантні функції Фішера. Ці коефіцієнти зазначено у таблиці 1.
Таблиця 1
Коефіцієнти класифікуючих функцій
x2 | ||||
1,0000 | 2,0000 | 3,0000 | 4,0000 | |
x13 | -2,686 | -2,879 | -2,700 | -2,834 |
x6 | 6,960 | 6,739 | 6,868 | 6,639 |
x17 | 13,590 | 13,537 | 13,238 | 13,830 |
x15 | 3,500 | 3,272 | 3,858 | 3,385 |
x27 | 982,177 | 955,424 | 959,203 | 961,305 |
x9 | 176,839 | 173,312 | 178,180 | 174,034 |
x30 | -797,706 | -840,333 | -823,583 | -815,300 |
x22 | 142,926 | 132,403 | 154,000 | 150,106 |
x16 | -22,390 | -21,038 | -23,440 | -22,044 |
x59 | 1,251 | 1,198 | 1,384 | 1,237 |
x11 | -147,186 | -142,884 | -145,062 | -143,094 |
x43 | 1600,089 | 1613,638 | 1589,845 | 1594,033 |
x8 | 91,523 | 89,018 | 90,029 | 92,062 |
(Константа) | -2928,821 | -2829,951 | -2866,045 | -2934,295 |
Також отримано ненормовані коефіцієнти (коефіцієнти канонічної дискримінантної функції). Коефіцієнти наведені у таблиці 2.
Таблиця 2
Коефіцієнти канонічної дискримінантної функції
x2 | ||
1,0000 | 2,0000 | |
x13 | -3,476 | -3,919 |
x6 | -2,058 | -2,418 |
x17 | 29,199 | 30,277 |
x15 | -33,341 | -34,546 |
x27 | -769,921 | -957,097 |
x9 | 6,946 | 6,599 |
x30 | 1139,933 | 1160,174 |
x22 | -345,384 | -356,164 |
x16 | 30,120 | 31,338 |
x59 | -3,323 | -3,497 |
x11 | 31,966 | 38,328 |
x43 | 13,792 | -18,854 |
x8 | 15,163 | 11,985 |
(Константа) | -2081,956 | -2138,103 |
Геометричне розташування класів у площині дискримінантних функцій представлена на рис. 1.
Рис. 1. Канонічні дискримінантні функції
Джерело: розробка автора
З рисунку можна зробити висновок, що класи мають неспівпадаючі центроїди та майже не перетинаються.
Результати класифікації методом дискримінантного аналізу зазначено в таблиці 3.
Таблиця 3
Результати класифікації методом дискримінантного аналізу
x2 | Передбачена приналежність до групи | Всього | |||||
1,000 | 2,000 | 3,000 | 4,000 | ||||
Вихідний | Кількість | 1,000 | 16 | 3 | 2 | 0 | 21 |
2,000 | 0 | 7 | 1 | 1 | 9 | ||
3,000 | 1 | 2 | 12 | 0 | 15 | ||
4,000 | 1 | 2 | 0 | 8 | 11 | ||
% | 1,000 | 76,2 | 14,3 | 9,5 | 0,0 | 100,0 | |
2,000 | 0,0 | 77,8 | 11,1 | 11,1 | 100,0 | ||
3,000 | 6,7 | 13,3 | 80,0 | 0,0 | 100,0 | ||
4,000 | 9,1 | 18,2 | 0,0 | 72,7 | 100,0 |
В результаті класифікації 76,7% вихідних згрупованих спостережень класифіковано правильно.
Метод дискримінантного аналізу з розширеною матрицею.
Щоб покращити результати розрахунків треба розширити матрицю вхідних змінних хі за допомогою нелінійних перетворень та і використовувати результуючу матрицю для подальшого аналізу.
Результати класифікації методом дискримінантного аналізу з розширеною матрицею зазначено в таблиці 4.
Таблиця 4
Результати класифікації методом дискримінантного аналізу з розширеною матицею
x2 | Передбачена приналежність до групи | Всього | |||||
1,000 | 2,000 | 3,000 | 4,000 | ||||
Вихідний | Кількість | 1,000 | 16 | 3 | 0 | 2 | 21 |
2,000 | 1 | 8 | 0 | 0 | 9 | ||
3,000 | 2 | 0 | 12 | 1 | 15 | ||
4,000 | 1 | 0 | 1 | 9 | 11 | ||
% | 1,000 | 76,2 | 14,3 | 0,0 | 9,5 | 100,0 | |
2,000 | 11,1 | 88,9 | 0,0 | 0,0 | 100,0 | ||
3,000 | 13,3 | 0,0 | 80,0 | 6,7 | 100,0 | ||
4,000 | 9,1 | 0,0 | 9,1 | 81,8 | 100,0 |
В результаті класифікації 81,7% вихідних згрупованих спостережень класифіковано правильно.
Спробуємо покращити результати дискримінантного аналізу методом опорних векторів.
Результати розрахунку класифікації методом опорних векторів наведено у таблиці 5.
Таблиця 5
Результати класифікації методом опорних векторів
Кiлькiсть опорних векторiв | 89 (62 на границi) |
Кiлькiсть опорних векторiв на кожен клас | 30 (1), 19 (2), 24 (3), 16 (4) |
Тип ядра | Радiальна базисна функцiя
gamma=0,014 |
Точнiсть | 84,4 % |
Метод опорних векторів дав найкращі результати класифікації, але оскільки при цьому методі неможливо наочно вивести та проаналізувати моделі проведемо додаткові розрахунки ще одним методом.
Метод перебору груп класів
Основа цього метода полягає у тому, що зустрічаються випадки, коли із декількох класів існує один, який має складну границю і його не можна відокремити лінійною границею. В такому випадку можна об’єднати цей клас з сусіднім і зробити класифікацію виду «два проти одного». Тоді треба знайти на яких точках класифікатори вірно передбачать найбільшу кількість входжень в класи. Цей метод може суттєво покращити результати класифікації. Наочно це можна представити у вигляді схеми на рис. 2.
Рис. 2. Схема класифікації методом перебору груп класів
Джерело: розробка автора
В нашому випадку 3 клас дуже складно передбачити тому, що він має складну границю.
Для того, щоб покращити результати передбачення спробуємо об’єднати 3 клас із сусідніми та зробимо розрахунки. Маємо декілька варіантів розбиття класів:
- Об’єднання 3 і 1 класу проти 2
- Об’єднання 3 і 1 класу проти 4
- Об’єднання 3 і 2 класу проти 1
- Об’єднання 3 і 2 класу проти 4
- Об’єднання 3 і 4 класу проти 1
- Об’єднання 3 і 4 класу проти 2
Результати класифікації наведено у таблицях 6-11.
Таблиця 6
Об’єднання 3 і 1 класу проти 2
x2 | Передбачена приналежність до групи | Всього | ||||
1 та 3 | 2,000 | |||||
Вихідний | Кількість | 1 та 3 | 31 | 5 | 36 | |
2,000 | 1 | 8 | 9 | |||
% | 1 та 3 | 86,1 | 13,9 | 100,0 | ||
2,000 | 11,1 | 88,9 | 100,0 |
Таблиця 7
Об’єднання 3 і 1 класу проти 4
x2 | Передбачена приналежність до групи | Всього | ||||
1 та 3 | 4,000 | |||||
Вихідний | Кількість | 1 та 3 | 30 | 6 | 36 | |
4,000 | 2 | 9 | 11 | |||
% | 1 та 3 | 83,3 | 16,7 | 100,0 | ||
4,000 | 18,2 | 81,8 | 100,0 |
Таблиця 8
Об’єднання 3 і 2 класу проти 1
x2 | Передбачена приналежність до групи | Всього | ||||
2 та 3 | 1,000 | |||||
Вихідний | Кількість | 2 та 3 | 21 | 3 | 24 | |
1,000 | 3 | 18 | 21 | |||
% | 1 та 3 | 87,5 | 12,5 | 100,0 | ||
1,000 | 14,3 | 85,7 | 100,0 |
Таблиця 9
Об’єднання 3 і 2 класу проти 4
x2 | Передбачена приналежність до групи | Всього | ||||
2 та 3 | 4,000 | |||||
Вихідний | Кількість | 2 та 3 | 20 | 4 | 24 | |
4,000 | 1 | 10 | 11 | |||
% | 1 та 3 | 83,3 | 16,7 | 100,0 | ||
4,000 | 9,1 | 90,9 | 100,0 |
Таблиця 10
Об’єднання 3 і 4 класу проти 2
x2 | Передбачена приналежність до групи | Всього | ||||
3 та 4 | 1,000 | |||||
Вихідний | Кількість | 3 та 4 | 23 | 3 | 26 | |
1,000 | 2 | 19 | 21 | |||
% | 1 та 3 | 88,5 | 11,5 | 100,0 | ||
1,000 | 9,5 | 90,5 | 100,0 |
Таблиця 11
x2 | Передбачена приналежність до групи | Всього | ||||
3 та 4 | 2,000 | |||||
Вихідний | Кількість | 3 та 4 | 20 | 6 | 26 | |
2,000 | 0 | 9 | 9 | |||
% | 1 та 3 | 76,9 | 23,1 | 100,0 | ||
2,000 | 0,0 | 100,0 | 100,0 |
Середній відсоток вірно класифікованих змінних методом перебору груп класів склав 86,9%, що на 2,5% краще ніж методом опорних векторів.
За результатами розрахунків та в умовах максимізації дисперсії було обчислено моделі і встановлено, що кращий метод аналізу, який дав найвищі результати класифікації – метод перебору груп класів. При цьому методі об’єкти були правильно зараховані до класів у 86,9% випадках.
Висновки. В результаті розрахунків було побудовано статистичні моделі післяопераційних ускладнень . Відібрані значущі змінні.
Було вибрано оптимальну систему класифікаторів, яка розраховувалась методом дискримінантного аналізу використовуючи розширену матрицю вхідних змінних, що дозволило зробити границі класів нелінійними та спосіб класифікації “1 проти всіх”. Для системи відібрано 31 значущу змінну. Загальний результат системи становить: для 81,5 % об’єктів названо правильний діагноз.
Метод опорних векторів не дозволяє вивести моделі та наочно іх представити, тому для подальшого аналізу було обрано метод класифікації за допомогою перебору груп.
Метод класифікації за допомогою перебору груп дав результат 86,9%. Отримано кращі результати у порівнянні з існуючими дослідженнями.
Література
- Дж.-О. Ким, Ч. У. Мьюллер, У. Р. Клекка и др.; Под ред. И. С. Енюкова Факторный, дискриминантныи и кластерный анализ: Пер с англ. М.: Финансы и статистика, 1989. 215 с.
- ISBN 5-279-00247-Х BlalockM., Jr. Social Statistics. New York: McGraw-Hill, 2003.
- CooleyW., Lohnes P.R Multivariate Dati Analysis. New York: John Wiley, 1997.
- OverallE., Klett C.J Applied Multivariate Analysis. New York: McGraw-Hill, 1994.
- Iversen R., Norpoth H.K Analysis of Variance. Sage University Paper series on Quantitative Applications in the Social Sciences, 07-001. Beverly Hills and London: Sage Publications, 1976.
- HenkelE. Tests of Significance. Sage University Paper series on Quantitative Applications in the Social Sciences, 07-004. Beverly Hills and London: Sage Publications, 2001.
- TatsugkaM., Tiedeman D. V. Discriminant analysis review of Educational Research 24:402-420, 2004.
Коментарі закрито.
To comment on the article - you need to download the candidate degree and / or doctor of Science