امروزه حسگرهای تصویربرداری از منابع مهم اطلاعاتی بهشمار میروند .از طرفی در بسیاری از کاربردها یک حسگر به-تنهائی قادر به ارائه توصیفی کامل از صحنه نمیباشد .هدف از ادغام اطلاعات تصویری) شامل تصاویر و ویدئو (رسیدن به قالبی از نمایش اطلاعات است که با بهکارگیری اطلاعات مهم و شاخص هر یک از منابع، توصیفی گویاتر) نسبت به هر یک از منابع به تنهائی (از صحنه ارائه کند .در این پایان نامه میخواهیم تکنیکی برای ادغام دنبالههای ویدئویی مادون قرمز و مرئی کنیم که پیچیدگی محاسباتی فرایند ادغام را کاهش دهد .همچنین، در این تکنیک، روشی برای ادغام فریمصهای مادون قرمز و مرئی پیشنهاد می دهیم که با کم نگاه داشتن پیچیدگی محاسباتی و زمانی، کارائی بهتری نسبت به روش های متداول موجود دارد .در تکنیک پیشنهادی با بهرهگیری از ویژگی شباهت ذاتی موجود میان فریم های متوالی همه دنبالهصهای ویدیوئی،پیچیدگی فرایند ادغام را کم می-کنیم .روش عمومی کار به این صورت است که چون معمولا اهداف مهمی که مدنظر کاربرها هستند کمی از پس زمینه ابتدا از فریم مادون قرمز اهداف متحرک و پس زمینه ثابت را جدا میصکنیم .پس از اعمال استخراج پس زمینه روی فریم مادون قرمز، نگاشت شئ مادون قرمز و نگاشت پس زمینه مادون قرمز بهدست میآیند .در این مرحله آزمایش میکنیم که آیا در جفت فریم های مرئی و مادون قرمز کنونی تغییری معنادار نسبت به جفت فریمهای متناظر قبلیشان بهوجود آمده است یا این دو جفت شباهت شان بسیار بیشتر از آن است که برای ما مهم باشد .اگر تغییر مهمی رخ نداده باشد، تنها نگاشت شی فعلی را روی نگاشت پسزمینه فریم ادغام شده قبلی قرار میصدهیم .اما اگر تغییر معناداری شناسایی شده باشد فریم مرئی و نگاشت پسصزمینه فعلی را توسط روش پیشنهادی ارائه شده در این پایان نامه ادغام می کنیم .در روش پیشنهادی این پایان نامه، پس از اینکه فریم مرئی و نگاشت پس زمینه فعلی را با تبدیل ویولت گسسته (DBSS) تجزیه کردیم، زیرتصویرهای تقریب آنها را با استفاده از قانون انتخاب حداکثر ادغام میصکنیم .حال با استفاده از نگاشت انتخابی که از ادغام جفت زیرتصویر تقریب بهدست آمده، زیر تصویرهای جزئیات را ادغام میکنیم .حال برای تکمیل فرایند ادغام میبایست نگاشت شئ مادون قرمزی را که در مرحله استخراج پسزمینه بهدست آمده بود به این فریم ادغام شده اضافه کنیم.
Abstract: There has been a growing interest in the use of multiple sensors to increase the capabilities of intelligent machines and systems. Due to this, multisensor fusion has become an area of intense research activity in the past few years. Multisensor fusion refers to the synergistic combination of different sources of sensory information into one representational format. The information to be fused may come from multiple sensors monitored over a common period of time or from a single sensor monitored over an extended time period. Many sensors produce images. We use the term image fusion to denote a process generating a single image which contains a more accurate description of the scene than any of the individual source images. This fused image should be more useful for human visual or machine perception. This type of image fusion is also called pixel-level multisensor fusion. The different images to be fused can come from different sensors of the same basic type or they may come from different types of sensors. The sensors used for image fusion need to be accurately coaligned so that their images will be in spatial registration. In recent years, image fusion has become an important and useful technique for image analysis and computer vision simple image fusion method is to take the average of the source images pixel by pixel. However, along with simplicity comes several undesired side effects including reduced contrast. In recent years, many researchers recognized that multiscale transforms are very useful for analyzing the information content of images for the purpose of fusion. Multiscale representation of a signal was first studied by Rosenfeld, Witkin, and others. Researchers such as Marr, Burt and Adelson, and Linderberg established that multiscale information can be useful in a number of image processing applications. More recently, wavelet theory has emerged as a well developed yet rapidly expanding mathematical foundation for a class of multiscale representations. At the same time, some sophisticated image fusion approaches based on multiscale representations began to emerge and receive increased attention. Most of these approaches were based on combining the multiscale decompositions (MSD's) of the source images. The goal of this thesis is to present a technique for fusing infrared and visible videos. In this technique we are going to propose a fusion method that quickly fuses infrared and visible frames, while giving a better performance. After being compared to some traditional fusion methods, DWT and PCA, the experimental results demonstrate that not only does this proposed method have a superior fusion performance, it can also be implemented in a fast fusion system