Інтелектуальні технології моделювання хірургічних втручань

Автори

Олег Григорович Аврунін, Харківський національний університет радіоелектроніки Kharkiv National University of Radio Electronics; Євгеній Володимирович Бодянський, Харківський національний університет радіоелектроніки Kharkiv National University of Radio Electronics; Валерій Васильович Семенець, Харківський національний університет радіоелектроніки Kharkiv National University of Radio Electronics; Валентин Олександрович Філатов, Харківський національний університет радіоелектроніки Kharkiv National University of Radio Electronics; С. Б. Безшапочний

Короткий опис

Розглядаються інтелектуальні технології моделювання та планування хірургічних втручань. Наводяться теоретичні основи методів віртуального моделювання та прогнозування результатів малоінвазивних хірургічних втручань. Пропонується комплексна аеродинамічна модель верхніх дихальних шляхів на основі об’єднання даних комп’ютерної томографії та риноманометрії. Обґрунтовуються принципи траєкторного та конфігураційного планування хірургічних втручань і наводяться приклади їх практичного застосування.  Рекомендується для науковців, інженерів та медичних працівників – фахівців в галузі розробки та використання методів та апаратури для сучасної малоінвазивної хірургії.
 
The intellectual technologies for modeling and planning of surgical interventions are proposed. The theoretical bases of the methods of virtual simulation and prediction of the results of noninvasive surgical interventions are given. The complex aerodynamic model of the upper respiratory tract is proposed and based on the combination of computer tomography and rhinomatometry data. The principles of trajectory and configurationally planning of surgical interventions are proposed and examples of their practical application are given. Recommended for scientists, engineers and doctors - specialists in the field of development and use of methods and equipment for modern minimal-invasive and image-guided surgery.  
 

##submission.downloads##

Опубліковано

листопада 23, 2018