ادغام تصاویر پزشکی MRI و PET با استفاده از روشهای مبتنی بر یادگیری عمیق
Parallel Title Proper
based Methods- Fusion of MRI/PET Medical Images using Deep Learning
First Statement of Responsibility
/احسان جمشیدی
.PUBLICATION, DISTRIBUTION, ETC
Name of Publisher, Distributor, etc.
: مهندسی برق و کامپیوتر
Date of Publication, Distribution, etc.
، ۱۳۹۸
Name of Manufacturer
، عباسپور
NOTES PERTAINING TO PUBLICATION, DISTRIBUTION, ETC.
Text of Note
چاپی - الکترونیکی
DISSERTATION (THESIS) NOTE
Dissertation or thesis details and type of degree
کارشناسی ارشد
Discipline of degree
مهندسی پزشکی گرایش بیوالکتریک
Date of degree
۱۳۹۹/۰۷/۰۴
Body granting the degree
تبریز
SUMMARY OR ABSTRACT
Text of Note
در سالهای اخیر تصویربرداری پزشکی به دلیل مؤثربودن در تشخیص و معالجه پزشکی مورد توجه بیشتری قرار گرفته است .با این حال، هر مدالیتی تصویربرداری محدودیتهایی را داراست و اطلاعات مشترک یا منحصربهفرد را ایجاد میکند .تلفیق اطلاعات استخراج شده از انواع مختلف مدالیتیها، اطلاعات مکملی را برای اهداف تشخیصی و درمانی نتیجه میدهد .توموگرافی انتشار پوزیترون (PET) اطلاعات شبه رنگی زیادی دارد که ویژگیهای عملکردی بافت را منعکس کرده اما فاقد اطلاعات ساختاری و رزولوشن مکانی است .تصویربرداری رزونانس مغناطیسی (MRI) دارای رزولوشن مکانی بالا و اطلاعات ساختاری از بافت نرم است، اما اطلاعات رنگی از مشخصات عملکردی بافت را ندارد .در این پایاننامه بهطورمشخص، باتوجه بهروشهای یادگیری عمیق بر تلفیق اطلاعات مدالیتیهای PET و MRI متمرکز میشویم .از روش یادگیری عمیق برای تشخیص بیماری آلزایمر و مرحله مقدماتی آن، اختلال خفیف شناختی استفاده میکنیم .طبق گزارشات، مدلهای یادگیری عمیق در مقایسه با روشهای معمولی یادگیری ماشین در تشخیص بیماری آلزایمر عملکرد بهتری دارند .ما یک روش جدید برای تلفیق اطلاعات سطح بالا و پنهان ویژگیهای استخراج شده از PET و MRI را پیشنهاد داده و مشابه روشهای تشخیصی در بررسی تصاویر پزشکی و دیدگاه بالینی، روش خود را پایهگذاری کردهایم .متخصصان مغز و اعصاب و رادیولوژیستها جهت تشخیص بالینی با جستجو در مناطق مختلف محلی، تصاویر را بررسی کرده و سپس نتایج را با نواحی مجاور مقایسه و در نهایت تفسیر را به تمامی مغز گسترش خواهند داد .برای استخراج ویژگی پنهان از تصاویرPET ، شبکههای عصبی کانوولوشنی سهبعدی خودرمزگذارCNNs) - (۳Dرا بهکار گرفتیم .جهت استخراج ویژگی از تصاویرMRI ، از شبکههای کانوولوشنی دوبعدیCNNs) - (۲Dاستفاده میکنیم .بهطورخاص جهت تلفیق ویژگیهای استخراج شده از ماژول (Inception) بهعنوان بلوک ساختاری بهره میبریم .اعتبارسنجی اثربخشی الگوریتم پیشنهادی، با آزمایشاتی بر روی پایگاه داده ADNI انجام شده و نتایج را با آخرین دستاوردها مقایسه کردیم .در چهارکلاس بیماران آلزایمری در مقابل نفرات سالم و بیماران دارای اختلال شناختی خفیف در مقابل سالم و بیماران آلزایمری در مقابل بیماران دارای اختلال شناختی خفیف، و دیگر بیماریها، حداکثر صحت به ترتیب۳۸/۹۸ ،۷۲/۹۰ ،۶۲/۷۹ ، بدست آمده است .از اینرو برتری نسبی روش پیشنهادی بر دیگر روشها اثبات میشود .تعمیمپذیری مدل پیشنهادی در یادگیری ویژگی و بهروزرسانی در تشخیص با پایگاه داده TCIA اعتبار سنجی شد .در تشخیص بیماری گلیوبلاستوما) سرطانی شدن سلولهای گلیال در مغز (توسط انتقال یادگیری از مدل پیشنهادی، بهمیزان صحت ۳/۶۷ رسیدیم و این پیشرفت خوبی است
Text of Note
Medical imaging has attracted increasing attention in the recent years due to its vital component in medical diagnostics and treatment. However, each imaging modality reports on a restricted domain and provides information in limited domains that some are common, and some are unique. The fusion of extracted information from multiple kinds of modality deriving the complementary information for diagnostic and treatment purposes. Positron emission tomography (PET) has rich pseudo color information that reflects the functional characteristics of tissue, but lacks structural information and its spatial resolution is low. Magnetic resonance imaging (MRI) has high spatial resolution as well as strong structural information of soft tissue, but lacks color information that shows the functional characteristics of tissue. Specifically In this thesis, we focus on the fusion of multimodal information from MRI and PET, with regard to deep learning methods. We use deep learning methods for the diagnosis of Alzheimers Disease (AD) and its prodromal stage, Mild Cognitive Impairment (MCI). Deep models have been reported to be more accurate for AD detection compared to general machine learning techniques. We propose a novel method for a high-level latent and shared feature extraction from MRI and PET. Similar to diagnostic methods in examining medical images and clinical perspective, we build our method. Neurologists or radiologists, examine brain images by searching local distinctive regions and then combine the interpretations with neighboring ones and ultimately with the whole brain for making a clinical decision. For obtaining the latent high-level feature extraction inherent in the PET images, we exploit a 3D Convolutional Autoencoder (3D-CAE). For feature extraction from MRI images, we employ a 2D convolutional neural networks (2D-CNNs). Specifically, to fuse and learn features, we use (inception) module as a building block. To validate the effectiveness of the proposed method, we performed experiments on ADNI dataset and compared with the state-of-the-art methods. In four binary classification problems of AD vs. healthy Normal Control (NC), MCI vs. NC, MCI vs. AD, and other disease. We obtained the maximal accuracies of 98.38 , 90.72 , and 79.62 , respectively, outperforming the competing methods. Abilities of the proposed method to generalize the features learnt and adapt to other domains have been validated on the TCIA dataset. In the diagnosis of glioblastoma with the transfer learning from proposed method, we have achieved accuracy of 67.3 . That's good progress
PARALLEL TITLE PROPER
Parallel Title
based Methods- Fusion of MRI/PET Medical Images using Deep Learning