LEE- Bilgi ve Haberleşme Mühendisliği Lisansüstü Programı
Bu topluluk için Kalıcı Uri
Gözat
Çıkarma tarihi ile LEE- Bilgi ve Haberleşme Mühendisliği Lisansüstü Programı'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeModeling spike-band extracellular background activity using Johnson's Su Distribution(Graduate School, 2022) Ögütcen Yılmaz, Melih ; Okatan, Murat ; 769827 ; Information and Communication Engineering ProgrammeExtracellular neural recordings are collected in awake behaving subjects (e.g. rats) via microelectrode arrays that are chronically implanted into the brain. These recordings contain important information about the activity of individual neurons and the functioning of the brain. In order to detect the action potentials, or spikes, in the recordings, the recordings are first bandpass filtered with cut-off frequencies that are appropriate for spike detection. Now the signal consists of spikes and background activity. Here, background activity is produced by neurons relatively far from the electrode. It is critical to distinguish the spikes from the background activity. In the literature, this problem is usually solved by amplitude thresholding. However, currently, the threshold value is usually determined by multiplying a coefficient determined subjectively by the researcher by the estimated standard deviation of the data under an assumption of Normality. By contrast, purely data-driven thresholding can be performed with truncation thresholds calculated with the truncated Normal distribution, truncation thresholds calculated with the truncated Johnson's SU (JSU) distribution, and an Otsu-based method. In the present study, completely data-driven amplitude thresholding methods are examined and compared against each other. Realistic simulated extracellular neural recording data having 21 different firing rate levels were used in the analyses. The methods were compared in terms of the accuracy with which they allowed the standard deviation of the background activity to be estimated. The best method was found to be the Otsu-based method. In addition, the distribution of the data encompassed by the Otsu-based threshold values was examined. It was found that the truncated Normal distribution could pass the Kolmogorov-Smirnov (KS) test only at two firing rates, while the truncated JSU distribution could pass the test at all firing rates tested. JSU is a distribution with 4 parameters (γ, δ, ξ, and λ) and therefore provides more flexibility in modeling than the Normal distribution. However, when computational costs are compared, the JSU method has the highest computational cost. Reducing the cost is important in terms of being useful for real-time applications. Therefore, four different parameter-fixed JSU distributions (JSU γ, JSU δ, JSU ξ, and JSU λ) are proposed in this study, in which each parameter is fixed to its initial value (estimated before any truncation) and the other three different parameters are estimated after truncation. By fixing one parameter (except for ), the calculation time can be reduced to approximately 1/7 of JSU all. The thresholding performance of these methods has been studied and JSU ξ has been shown to give better results than JSU all. However, the parameter-fixed models were not as successful as JSU all in fitting the data encompassed by the Otsu-based threshold values. All the analyses were also performed on a real data segment of 1 second duration.
-
ÖgeKesirli kalkülüs ve derin değerlendirme yaklaşımı ile G-8 ülkeleri ve Türkiye için ekonomik verilerin modellenmesi, etki faktörlerinin analizi ve öngörü çalışması(Lisansüstü Eğitim Enstitüsü, 2022-09-21) Önal Tuğrul, Nisa Özge ; Karaçuha, Ertuğrul ; 708182004 ; Bilgi ve Haberleşme MühendisliğiTemelleri 17. yüzyılda atılmış olan kesirli analiz, türev ve integral operatörlerinin gerçel veya karmaşık sayı kuvvetlerini tanımlayan bir matematiksel analiz dalıdır. Kesirli türevin tanımından kaynaklanan bazı eklemeler sayesinde fiziksel gerçeklere daha uygun olduğu tespit edilmiştir. Kesirli kalkülüsün hafıza özelliği ile ekonomik veriler üzerinde diğer yöntemlere göre daha anlamlı sonuçlar elde edileceği düşünülmektedir. Böylece bu tez çalışmasında, kesirli kalkülüs ve en küçük kareler metodu kullanılarak derin değerlendirme metodolojisi ile geliştirilmiş tek fonksiyon girdili ve çok fonksiyon girdili olmak üzere iki matematiksel yaklaşım önerilmektedir. Bu matematiksel yaklaşımların kodlanması ve uygulaması Matlab üzerinde yapılıp, ülkelerin ekonomik verileri kullanılarak modelleme, etki faktörü analizi ve öngörü çalışması yapılmıştır. Tek fonksiyon girdili derin değerlendirme yaklaşımında girdi faktörünün geçmiş değerleri dikkate alınırken, çok fonksiyon girdili derin değerlendirme metodolojisi ile bir faktörü etkileyen diğer faktörler ve geçmiş verileri de sisteme katılmaktadır. Bu yaklaşımlar ile modelleme, etki analizi ve öngörü metodolojileri geliştirilmiştir. Tek fonksiyon girdili türevli derin değerlendirme yaklaşımı (DAM) ile Amerika, Brezilya, Çin, Hindistan, İtalya, İspanya, İngiltere, Japonya, Türkiye ve Avrupa Birliği için 1960-2018 yıllarına ait Kişi Başına Gayrisafi Yurtiçi Hasıla (GSYİH) verileri ile modelleme ve öngörü çalışması yapılmıştır. Uygulama sonuçlarını inceleyecek olursak en düşük modelleme hatası % 0.81 ile Amerika için elde edilirken, en yüksek modelleme hatası % 7.26 olarak Brezilya'da elde edilmiştir. En düşük test hatası % 0.056 ile İspanya'da görülmüş olup, en yüksek test hatası İngiltere'de %0.91 olarak gerçekleşmiştir. Çizelge 4.3'te ise 2019 için Kişi başına GSYİH değerleri için öngörü yapılmıştır. Çok fonksiyon girdili derin değerlendirme yaklaşımı (M-DAM) ile G-8 ülkeleri ve Türkiye'nin 2000-2019 yıllarına ait ekonomik faktör verileri (Cari Hesap Dengesi (% GSYİH), İhracat (% GSYİH), GSYİH Büyüme Oranı (yıllık %), Tasarruflar (% GSYİH), Yatırımlar (% GSYİH), İthalat (% GSYİH), Enflasyon (% yıllık), Faiz Oranı (Gecelik) ve İşsizlik Oranı) kullanılarak modelleme, etki faktörü analizi ve öngörü çalışması yapılmıştır. İlk olarak modelleme sonuçlarını değerlendirecek olursak, ekonomik faktörlerin modellenmesine yönelik 81 faktör için yapılan modellemede maksimum hata Fransa'nın Enflasyon faktöründe %0.0003112 olarak bulunmuştur. Öngörüye ilişkin olarak da toplam 162 adet öngörü için hatanın %10 dan küçük olduğu oran %75.4 hatanın %10 dan büyük olduğu oran da %24.6 bulunmuştur. Ayrıca 2018 ve 2019 yılları için öngörülebilirlik sınıflamasında, en öngörülebilir ülke 1. sırada Almanya 2. sırada Kanada, Fransa, UK, USA, 3. sırada İtalya ve Japonya, 4. sırada Rusya ve en son sırada (5.) Türkiye'nin olduğu tespit edilmiştir. Faktörlere diğer faktörlerin ağırlıklı ortalama etkisi bakımından 2018-2019 yılları ve geçmişe yönelik 3,5 ve 10 yıl için açıklamış olduğumuz varsayım çerçevesinde güçlü pozitif ve güçlü negatif etkiler değerlendirilmiştir. Ülkelerin ekonomik faktörlerinin etkilerinden bazı öne çıkan ortak veya farklı etki durumlardan bahsedecek olursak; Yatırımların etki ettiği faktörleri incelediğimizde; Kanada, Fransa, Almanya, İtalya, Türkiye ve UK'de ihracatı güçlü pozitif olarak etkilemiştir. Japonya'da orta derecede pozitif, Rusya ve USA'da ise zayıf pozitif olarak etki etmiştir. İthalat; Fransa, Almanya, İtalya, Japonya, Rusya, UK ve USA olmak üzere 7 ülkede ihracata güçlü pozitif, Kanada'da orta derecede pozitif olarak etki etmiştir. Bunun aksine Türkiye'de ihracatı zayıf negatif olarak etkilemiştir. Faiz; Almanya ve Rusya'da ihracatı güçlü pozitif olarak etkilemiştir. Türkiye, UK ve USA'da tasarruflar faizi güçlü pozitif olarak etki etmiştir. Enflasyon ihracat ilişkisi incelendiğinde sadece Türkiye'de enflasyon ihracata güçlü pozitif etki ederken, Rusya'da etkisi görülmemiştir ve diğer yedi ülkede negatif etkilerde bulunmuştur. Tasarruflar Kanada'da faiz oranlarına güçlü negatif olarak etki ederken, Fransa, İtalya, Türkiye, UK ve USA'da güçlü pozitif, Japonya'da orta derecede pozitif, Almanya ve Rusya'da zayıf pozitif olarak etki etmiştir. Gelecek çalışmalarda geliştirdiğimiz çok girişli değerlendirme sistemi (M-DAM) modelimize fonksiyon türevleri de katılarak geliştirilmesi hedeflenmektedir.
-
ÖgeNew RF energy harvesting models for next-generation wireless communication systems(Graduate School, 2022-11-09) Babaei, Mohammadreza ; Durak Ata, Lütfiye ; 708182003 ; Information and Communications EngineeringDeployment of massive sensor and Internet of Things (IoT) devices in next-generation wireless communication systems reveals energy limitations as one of the challenges. Typically, IoT devices are powered by a battery, which restricts their capacity and working time. Energy harvesting (EH) has been regarded as a promising approach which can increase the life-time of a wireless communication system. In EH, energy is obtained by wind, solar, vibration, etc. Thus, the harvested energy is transformed into electricity and can be used by the desired nodes. However, the aforementioned traditional EH methods are not always available. Additionally, radio frequency (RF) EH has emerged as a key promising technique that enables wireless systems to harvest energy from the incoming signals in the environment. This energy is available as dedicated or ambient energy and can be harvested throughout the whole day. Hence, RF EH can be an effective alternative for empowering battery-free IoT devices, resulting in increased operational time. As RF EH methods for power-constrained nodes, simultaneous wireless information and power transfer (SWIPT) and wireless-powered communication (WPC) schemes are studied in the literature. The SWIPT scheme employs two EH receiver structures: power-splitting (PS) and time-switching (TS). The power-constraint node harvests power from the incoming signal energy in PS EH mode, with one portion of the signal power used for harvesting energy and the remainder for information processing. On the other hand, in the TS EH mode, EH and information processing (IP) are allocated to two non-overlapping time intervals, respectively. Furthermore, the amount of harvested energy is regarded as a linear or nonlinear (NL) function of the input power of the energy receiving (ER) node. The input and output powers of the EH circuit are directly proportional in the linear EH model. For the region with low input power, the NL EH model provides the same amount of energy as the linear model. However, the amount of harvested power saturates to a predefined threshold power at the high input power of the EH circuit. In this thesis, three different RF EH system models are investigated and the closed-form analytical expressions for their performances are derived. Moreover, the performance of each considered system is investigated in terms of bit error probability (BEP) and outage probability. Besides, theoretical derivation results are provided for different system parameters and supported by the Monte-Carlo simulation results. Comprehensive insights into the studied systems are provided, which broaden the view of engineers toward the EH system designs. The first section investigates the bit error rate (BER) performance of a full-duplex (FD) overlay cognitive radio (CR) network with linear/NL EH capability. The studied overlay CR network comprises of a primary transmitter/receiver (PT/PR) pair, a secondary transmitter (ST), and a secondary receiver (SR) operating in FD mode, whereby ST harvests energy from both PT and SR during the first communication time slot. In the second time slot, SR receives its signal from ST while PT sends its signal to PR. The BEP expressions for the primary/secondary users (PU/SU) are obtained analytically and verified through Monte-Carlo simulations using both linear and NL EH models at ST. Additionally, to determine the trade-off between EH and IP, corresponding system performances are evaluated with regard to a power allocation coefficient at SR. The results demonstrate that, in contrast to the non-cooperative (direct transmission) case, the proposed FD-CR system with NL EH improves the PU BEP performance. Besides, SU benefits from the licensed spectrum of PU with significant BER performance. In the second part of the thesis, the performance of a wireless-powered, two-hop, amplify-and-forward relaying system is studied when there is no direct link between the source and the destination. The power-constrained source and relay receive energy from a dedicated power beacon (PB) that broadcasts an energy-bearing signal. For both linear and NL energy harvesting models, theoretical derivations of BEP, outage probability, and throughput expressions are performed. Additionally, Monte Carlo simulations are performed to verify the theoretical results that are presented for various system parameters. The results show how the realistic NL EH model is different from the traditional linear EH model, which overestimates the performance of the system when a large amount of energy is harvested. This results in a misunderstanding of the actual performance of EH systems. However, both models operate similarly and provide appropriate results at low levels of harvested energy. In the last part of this dissertation, the performance of the proposed two novel NL EH models is analyzed in terms of average harvested power, throughput, and BEP. The system comprises a single multi-antenna power-constraint source that transmits its signal to a destination with multiple antennas while harvesting power from a dedicated PB. For a comprehensive analysis of the system, closed-form expressions are derived for Nakagami-$m$ fading channels and the special case of Rayleigh channels. In addition, for existing NL EH models, the simulation results are obtained using the Monte-Carlo method. The results provide a broader picture of EH systems and comprehensively compare the proposed NL EH models to linear, piece-wise linear, and NL EH models available in the literature. As a result, these provide better perspectives on the analysis and design of EH systems.
-
ÖgeEfficient super-resolution and MR image reconstruction networks(Graduate School, 2023-01-30) Ekinci, Dursun Ali ; Töreyin, Behçet Uğur ; 708191011 ; Information and Communication EngineeringThe process of generating a high-resolution image from a low-resolution image is known as image super-resolution. From a low-resolution image, many high-resolution images can be produced. Therefore, super-resolution is a difficult problem with ill-posed nature. In recent years, many deep neural networks were suggested to retrieve missing high-frequency features. Models started to get deeper to enhance performance. But, using these models in devices with limited resources is challenging due to their high computational complexity and memory requirement. Therefore, in this thesis, different knowledge distillation schemes are suggested to compress super-resolution networks. Offline- and self-distillation frameworks are used to decrease the number of repeating residual blocks in SRResNet and EDSR networks. Test results are obtained on benchmark datasets for scale factor four. After many experiments, results show that previous layers learn to produce similar outputs to following layers. However, when redundant layers are removed, performance of the compressed networks are less than their vanilla trained versions. Therefore, further study on this subject is required to prevent performance decrease. Magnetic resonance imaging is a valuable tool in medicine to identify diseases. To obtain a high quality image, enough $k$-space data is needed. This increases the necessary scan time. As in other image processing fields, deep neural networks are also used in magnetic resonance image reconstruction task from undersampled data. Since super-resolution also aims to restore missing information, using some concepts from super-resolution can help improve reconstruction performance. In this study, Iterative Up and Down Network is proposed to solve this problem. Network benefits from iterative up and down sampling framework and multiple scale factors. Training of the network is done using fastMRI dataset. Test results are obtained on two datasets which are fastMRI and IXI. Proposed network has processing units and test results show that increasing the number of these units improve the performance of the network. Also, using multiple scale factors further increased the performance. Quantitative results show that suggested approach is superior than some well-known state-of-the-art networks. When qualitatively compared to other methods, suggested model performs favorably.
-
ÖgeGroup authentication and its application(Graduate School, 2023-03-17) Alimadadnezhad, Sevda ; Özdemir, Enver ; 708201006 ; Information and Communications EngineeringThis Thesis is about Group Authentication and Its Application. One of the most important subjects of secure communication is authentication. The data exchange process among communicating parties starts only after handling identification of each party. By increasing the usage of digital communication and private data transmission, authenticating a big amount of parties at the same time has an important role to have a secure and confident connection. The development of new technology in several fields forces various new devices to use public Internet. For example, autonomous vehicles are expected to compromise large part of communication system in the near future. The unmanned drones are already a part of surveillance and delivery systems. Most importantly, the internet service providers exploit the satellite technology to provide infrastructure for its users to access Internet while absence of base stations. In all these examples, the communicating parties do not necessarily perform identity confirmation. Group authentication provides this opportunity to authenticate a big part of a group at the same time. In this thesis it has been analyzed and evaluated the previous researches in group authentication field and the methods used for this purpose. Group membership authentication is one of the common method in group authentication which confirms the membership of a subset of a predetermined group by a single operation at the same time to figure out if all are members of the group or there is any nonmember. During the group authentication all legal members are allowed to establish a common key which is secret to the group. A trusted authority called group manager is responsible to generate tokens and distribute to each user. In computational side of these researches mathematical theorems and methods has been used; The basic theorem is Newton interpolation theorem which has brought many theorems and corollaries behind like Lagrange interpolation theorem. In addition, Elliptic curves method has been used in order to make the key transferring between the users secure. Even though the first group authentication method appeared in 2014, some other applications have been implicitly employed group authentication like methods as their security measurements. For example, a group like authentication scheme in autonomous vehicle realm is being called a batch authentication and in federated learning applications some researchers call it secure multi-party computation and it is called group authentication in wireless networks in order to authenticate the group users at the same time, but finally all mentioned terms are discussed as group authentication in this thesis. As an improving technologies and increasing the users, malicious usage of these technologies are growing as well. impersonating or fake data transferring through a large group of users may cause several serious problems in peoples life and also in the system which is used; On the other hand, authenticating a large group of users one by one is practically useless. Group authentication is going to become a necessary method for systems with large membership because of the ability of authenticating a group at the same time and using much more less storage, energy and time than the previous methods.
-
ÖgeDerin öğrenme tabanlı süper çözünürlük teknikleri kullanarak JPEG sıkıştırma kaybının iyileştirilmesi(Lisansüstü Eğitim Enstitüsü, 2024-01-29) Bolat, Muhammet ; Ata Durak, Lütfiye ; Çalık, Nurullah ; 708191019 ; Bilgi ve Haberleşme MühendislğiBilgisayar biliminde bant genişliğinin etkin kullanımı, özellikle resim, video, ses gibi büyük verilerin iletilmesiyle giderek daha fazla önem kazanmaktadır. Bant genişliği, iletim hattı üzerinden bir saniyede iletilen maksimum veri miktarını temsil eden bir terimdir. Aynı zamanda, belirli bir iletim ortamında bir işaretin kapladığı frekans aralığı olarak da tanımlanır. Bu bakış açısıyla, bant genişliği, veri iletimi için kullanılabilen spektrumu temsil eder. Bant genişliği genellikle bit/saniye (bit per second, bps) veya daha yüksek birimlerle ölçülür. Büyük boyutlara sahip verilerin iletilmesi, iletişim kanalının kapasitesini önemli ölçüde meşgul etmektedir. Bir internet kullanıcısı, yüksek kaliteli bir video izlerken kesinti ve veri kaybı yaşamamak için geniş bant genişliğine ihtiyaç duyar. Ancak bir e-posta gönderirken, veriyi iletmek için daha düşük bir bant genişliği yeterli olabilir. MRI taramalarında bir hastanın binlerce görüntüsü çekilir ve bu görüntüler birleştirilerek üç boyutlu sonuçlar elde edilir. Ancak bu görüntüleri bir yerden başka bir yere iletmek, veri boyutu büyüdükçe gereken iletim kapasitesini artırır ve bu durum zorlu ve maliyetli bir görev haline gelir. Bu nedenle, veri iletimi sırasında gecikmeleri ve kayıpları önlemek için bant genişliği kullanımının optimize edilmesi gerekmektedir. Bant genişliğinin etkin kullanılması amacıyla veri sıkıştırma teknikleri büyük önem taşımaktadır. Sıkıştırmanın performansı, iletilecek veri miktarını, dolayısıyla kullanılacak bant genişliğini doğrudan etkilemektedir. Veri sıkıştırma, bilgisayar üzerinde saklanan verilerin, tekrarlanan ve gereksiz bilgilerini ortadan kaldırıp kodlama işlemi yaparak kapladığı alanı azaltma işlemidir. Bu işlem, dosya boyutlarını düşürerek daha verimli bir şekilde depolamak ve iletim hattını verimli bir şekilde kullanmak için tercih edilir. Veri sıkıştırma, iki farklı tekniği içerir: kayıplı ve kayıpsız. Kayıplı sıkıştırma, kullanıcının tercihine göre sıkıştırma oranının özelleştirilebileceği bir veri sıkıştırma tekniğidir. Bu teknik, veri boyutunu azaltmak için önemsiz, tekrarlı veya insan algısına etkisi düşük olan belirli veri parçalarının atılması veya kodlanması yoluyla gerçekleşir. Kayıplı sıkıştırma algoritmaları kullanıldığında, bazı veri parçaları kalıcı olarak kaybolur ve geri getirilemez. İnsan gözü ve kulağı, veri kaybını her zaman fark edemeyebilir, ancak özellikle yüksek sıkıştırma oranları kullanıldığında kayıplar daha belirgin hale gelebilmektedir. Bu nedenle, kayıplı sıkıştırma genellikle görüntü, video ve ses dosyalarını sıkıştırmak için kullanılır. Kayıpsız sıkıştırma, kullanıcının tercihine bırakılmayan, özelleştirilemeyen bir sıkıştırma tekniğidir. Bu teknik, veri boyutunu azaltmak için tekrarlı olan verileri azaltıp kodlama yöntemiyle sıkıştırma yapmasıyla sağlanır. Bu yöntemde herhangi bir veri kaybolmaz. Verinin kaybolacağı noktada sıkıştırma devam etmez ve orijinal veri geri elde edilmeye çalışıldığında herhangi bir kayıp söz konusu olmaz. Kayıpsız sıkıştırma, tüm verinin önemli olduğu ve asla kaybolması beklenmediği durumlarda kullanılır. Bu yöntem, metin gibi önemli verilerin olduğu alanlarda kullanılır. Metin verileri, orijinal biçiminde kurtarılmalıdır. Kayıp oluştuğunda ise anlamını kaybeder. Kayıplı ve kayıpsız tüm sıkıştırma teknikleri veri boyutunu belirli bir oranda azalttığından dolayı bant genişliğini daha efektif kullanılmasına olanak tanımaktadır. Bu nedenle, bant genişliğinin etkin kullanılması adına sıkıştırma teknikleri önemini korumaktadır. Web sayfaları ve diğer dijital platformlarda görüntülerin daha hızlı yüklenmesi adına sıkıştırılması gerekmektedir. Bu yüzden kayıplı sıkıştırma tekniği olarak Birleşmiş Fotoğraf Uzmanları Grubu (Joint Photographic Experts Group, JPEG), kayıpsız olarak Taşınabilir Ağ Grafikleri (Portable Network Graphic, PNG) gibi teknikler tercih edilmektedir. PNG, JPEG'e kıyasla görüntü kalitesini korurken belirli oranda sıkıştırma yapar. Ancak bu tür algoritmaların dosya boyutları genellikle JPEG ile kıyaslandığında daha büyük olmaktadır. Bu nedenle, web üzerinde hızlı yükleme ve daha az bant genişliği kullanımı gibi faktörler göz önünde bulundurulduğunda, JPEG sıkıştırması tercih edilmektedir. Sonuç olarak, web tabanlı uygulamalarda daha küçük dosya boyutları ve hızlı yükleme süreleri elde etmek adına bir miktar görüntü kalitesi kaybı kabul edilmektedir. Işık koşulları, donanım yetersizliği, kayıplı veri sıkıştırma veya haberleşme kanallarında maruz kalınan gürültüler gibi faktörlerden dolayı görüntüler düşük çözünürlüklü olabilmektedir. Süper çözünürlük problemi, bilgisayar biliminde düşük çözünürlüklü bir görüntüyü yüksek çözünürlüklü bir görüntüye dönüştürmeyi amaçlamaktadır. Günümüzde, uydu görüntüleri, uzaktan algılama, tıbbi görüntüleme gibi bir çok alanda yüksek çözünürlüklü görüntüler elde etmek için kullanılır. Herhangi bir sebepten dolayı kalite kaybı yaşayan görüntüler, süper çözünürlük yöntemleri kullanılarak görüntü kalitesi belirli bir oranda arttırılabilmektedir. Son yıllarda, süper çözünürlük alanında derin öğrenme tabanlı bir çok çalışma yapılmış ve bir çok model ortaya atılmıştır. Bu modellerin performansları, kalite (benchmark) veri kümelerinde yüksek başarılara imza atmıştır. Derin öğrenme, makine öğreniminin bir uzantısı olan yapay sinir ağlarına dayalı olarak geliştirilmiş bir kavramdır. Yapay sinir ağları, hesaplama birimleri olarak kullandığı yapay nöronlarla insan beyninin düşünme biçimini taklit eder; yapay sinir ağı yapısı, bu nöronların bağlanma şeklini yansıtır. Derin öğrenmenin amacı, altta yatan özelliklerin hiyerarşik bir temsilini öğrenerek verilerin özellik dağılımını belirlemektir. Süper çözünürlük problemini derin öğrenme ile inceleyen çalışmalarda interpolasyon tabanlı düşük çözünürlüklü görüntüler üzerinde iyileştirme sağlamayı konu almaktadır. Ancak, sıkıştırılmış ve kayıp yaşanmış düşük çözünürlüklü görüntüler üzerinde herhangi bir etkisi incelenmemiştir. Derin öğrenme tabanlı yaklaşımlarda elde edilen sonuçlar, farklı türdeki görüntülerin geri kazanımları için araştırma konusu olmaktadır. Süper Çözünürlük Evrişimli Sinir Ağ (Super Resolution Convolutional Neural Network, SRCNN) modeli, süper çözünürlük problemini derin öğrenme yaklaşımıyla inceleyen ilk çalışması olarak kabul edilir. İlkel olarak tanımlanabilecek bu modelin içerisinde 3 katmanlı evrişimli sinir ağı bulunmaktadır. Çok Derin Süper Çözünürlük (Very Deep Super Resolution, VDSR) modeli , SRCNN modelinin daha derin öğrenme yapısına sahip ve artık blok eklenmiş versiyonu olarak geliştirilmiştir. Derin ağ yapısı sayesinde daha yüksek çözünürlüğe sahip sonuçlar üretmektedir. VDSR, süper çözünürlük alanındaki araştırmalarda ve uygulamalarda büyük bir etki yaratmış ve bu alanda bir dönüm noktası olarak kabul edilmiştir. Süper Çözünürlük Yoğun Ağ (Super Resolution Dense Network, SRDenseNet) modeli, içerisinde barındırdığı yoğun bloklar sayesinde çok fazla sayıda özellik çıkarımı yapabilmektedir. Ayrıca bu blokların her birinin birbirleri arasında artık öğrenme tekniğinin kullanılması model performansını daha başarılı hale getirmiştir. SRDenseNet modeli bu yüzden SRCNN ve VDSR modellerine göre daha karmaşık ve daha fazla matematiksel işlemi barındırmaktadır. Bu tez kapsamında, görüntü sıkıştırma işlemi için en çok tercih edilen JPEG yönteminden kaynaklanan kayıpların, derin öğrenme tabanlı süper çözünürlük modellerinden olan SRCNN, VDSR ve SRDenseNet kullanılarak geri kazanımı incelenmiştir. Farklı kalite seviyelerinde sıkıştırılmış görüntülerle bir eğitim veri kümesi oluşturularak inceleme gerçekleştirilmiştir. Eğitim aşamasında ImageNet veri kümesi kullanılırken, test aşamalarında ise süper çözünürlük problemlerinde kullanılan kalite test (benchmark) verilerinden olan SET5, SET14, BSDS100, BSDS200 ve General100 veri kümeleri kullanılmıştır. Çalışmanın sonucunda süper çözünürlük yöntemlerinin JPEG sıkıştırma kayıplarını geri kazanma potansiyeline sahip olduğunu göstermektedir. Ayrıca, süper çözünürlük yöntemlerinin görüntü kalitesini artırmada ve sıkıştırma kayıplarını azaltmada etkili bir çözüm olabileceğini vurgulamaktadır. Gelecekteki çalışmalarda farklı veri kümesi ve modellerin kullanılmasıyla daha ayrıntılı analizler yapılabilir ve bu konuda daha fazla bilgi sağlanabilir.
-
ÖgeHavayolu yolculuk deneyimini iyileştirmek için makine öğrenmesi yöntemleriyle uçuş gecikmesi tahmini(Lisansüstü Eğitim Enstitüsü, 2024-01-30) Ergün, Esma ; Tuna, Süha ; 708191014 ; Bilgi ve Haberleşme MühendisliğiHavacılık endüstrisi, milyonlarca insanın seyahat etmesine olanak sağlayan önemli bir sektördür. Havaalanları, hava trafik kontrolü, hava koşulları, uçak bakımı, personel düzenlemeleri gibi faktörler, uçuşların planlandığı gibi gerçekleşmesini etkileyebilir. Uçuş gecikmeleri ve iptalleri, havayolu şirketlerini maliyet artışı, operasyonel sıkıntılar ve müşteri memnuniyetsizliği ile karşı karşıya bırakabilir. Yolcular ise zaman kaybı, alternatif ulaşım arayışı ve planlarının aksaması gibi sorunlarla karşılaşabilirler. Bu çalışmada, Amerika Birleşik Devletleri Ulaştırma Bakanlığı tarafından paylaşılan uçuş verileri kullanılarak uçuş aksaklıklarının çeşitli makine öğrenmesi teknikleri ile tahmin edilmesi hedeflenmektedir. Bu tahminlerin yolculara sunulması ile doğru uçuş zamanı ve havayolu seçimi konusunda yol gösterici olacaktır. Bu çalışma, yolcular için bir uygulama geliştirilmesine olanak sağlarken, havayolu ve havaalanlarının operasyonel süreçlerini optimize etmelerine de yardımcı olabilir. Ayrıca, aksaklıkları öngörüp önleyerek havayolu şirketlerinin tazminat ödemelerinden tasarruf etmelerine de katkıda bulunabilir. Bu çalışmada uçuş ve hava durumu verileri birleştirilerek kullanılmıştır. Uçuş verisi Amerika Birleşik Devletleri Ulaştırma Bakanlığı'nın halka açık olarak paylaşılan "Airline On Time Performance" isimli veri tabanından, hava durumu verisi de Ulusal Okyanus ve Atmosfer İdaresi Servisi(NOAA)'nden elde edilmiştir. Amerika Birleşik Devletleri'nin en yoğun havaalanlarından biri olan John F. Kennedy Uluslararası Havalimanı (New York, JFK) seçilmiş ve bu havalimanından kalkan uçuşlar incelenmiştir. Veri önişleme adımında, elde edilen veriler modellerin eğitiminde kullanılmak üzere hazırlanmıştır. Bu hazırlık sürecinde korelasyonların incelenmesi, veri tamamlama, ayrıştırma, öznitelik seçimi, öznitelik birleştirme, örnek seçimi gibi birçok önişleme tekniği kullanıldı. Veri kümesinde pozitif örneklerin sayısı negatif örneklerin sayısından çok daha fazla olduğu için veri dengeleme amacıyla SMOTE ve aşağı örnekleme(Undersampling) yöntemleri uygulandı. Makine öğrenmesi, sınıflandırma ve regresyon yöntemlerinden L-GBM, SVM, MLP, Naives Bayes, Lojistik Regresyon, KNN yöntemleri kullanılmıştır. Bu modellerde parametre optimizasyonunu sağlamak üzere Grid Search CV metodu çapraz doğrulama yöntemi ile uygulandı. Değerlendirme metrikleri olarak sınıflandırma tekniklerinde kullanılan Doğruluk, Kesinlik, Duyarlılık ve F1-Skoru üzerinde duruldu. Modellerin birbirleriyle karşılaştırılması için ROC Eğrileri ve ROC-AUC kriteri kullanıldı. Tüm modeller ve örnekleme metotları arasında en iyi AUC değerini L-GBM'in orijinal dengesiz veri kümesinde verdiği görüldü. F1-Skor açısından incelendiğinde de en yüksek skorun 0,567 ile SVM'de olduğu ve 0,003 farkla 0,564 değeri ile de L-GBM'in onu takip ettiği görüldü. Çalışma zamanları açısından incelendiğinde ise L-GBM'in 0.3 saniye değeri ile diğer modellerden çok daha hızlı olduğu görüldü. Bu çalışmada, çeşitli sınıflandırma teknikleri kullanıldı ve bu tekniklerin performansı incelendi. L-GBM Modeli, hesaplama hızı açısından en etkili bulundu, SVM ise genel doğruluk açısından en başarılı yöntem olarak belirlendi. Sonuçların kalitesini artırmak amacıyla, Grid Search ve 8 katlı Çapraz Doğrulama gibi yöntemlerle parametre optimizasyonu gerçekleştirildi. Ayrıca, SMOTE ve aşağı örnekleme gibi teknikler arasında yapılan karşılaştırmada, aşağı örnekleme yönteminin bu veri kümesinde daha iyi sonuçlar verdiği tespit edildi. Geliştirilen algoritma aracılığıyla modeli rota bilgileri ve zaman aralığı ile besleyerek, belirli bir rota için kullanıcıya en uygun uçuş tarihlerini ve havayolu seçeneklerini öneren bir yapı oluşturuldu.
-
ÖgeKesirli kalkülüs ve derin değerlendirme yaklaşımı ile havacılık verilerinin modellenmesi, etki faktörlerinin analizi ve öngörü çalışması(Lisansüstü Eğitim Enstitüsü, 2024-05-21) Şİmşek, Kevser ; Karaçuha, Ertuğrul ; 708202006 ; Bilgi ve Haberleşme MühendisliğiBu tez çalışmasında; taşınan hava yolcuları sayısı, hava kargo miktarı, uçuş sayısı, varış noktası sayısı, uluslararası yolcu sayısı, uluslararası varış noktası sayısı, uluslararası uçuş sayısı, arz edilen koltuk kilometre (AKK) bilgisi, AKK uluslararası bilgisi 2011-2019 yılları arasında en yoğun havalimanlarına sahip sekiz ülke olan Almanya, Fransa, İngiltere, Amerika, Hindistan, Singapur, Çin ve Türkiye için seçilmiştir. Seçilen havacılık verileri dikkate alınarak her bir faktörün hesaplanmasında kesirli hesaplama ve derin değerlendirme yöntemlerinden faydalanılacaktır. Çalışmada bildiğimiz kadarıyla türevleri de içeren çok fonksiyonlu olarak henüz ele alınmamış kesirli türevden faydalanılarak; Türevli Çoklu Derin Değerlendirme Metodolojisi (MDAM wd) ile geliştirilen modelleme, öngörü ve etki analizi yapmamıza imkan verecektir. Bu tez çalışmasında yukarıda belirlediğimiz veri seti ile geliştirdiğimiz matematiksel yaklaşımların uygulaması yapılacaktır. İlk olarak modellemek istediğimiz faktörü, etkilendiğini değerlendirdiğimiz kendi ve diğer faktörlerin geçmiş değerleriyle ilişkilendirip böylece her bir faktörün diğer faktörlerin geçmiş değerleriyle etkileşimini ve aynı zamanda geçmiş verilerindeki değişimlerinin ağırlıklı etkisini bulacağız. Sonrasında ise geleceğe ilişkin tahminlerde bulunulacaktır. Bu çalışmada havacılık faktörleri çok az bir sapma ile modellenerek doğru sonuçlar elde edilmiştir, öyle ki modellenen sekiz ülke içinde maksimum hata % 0,015927302 olarak Almanya'nın Hava taşımacılığı, kargo faktörü için bulunmuştur. Faktörlerin öngörülmesi ile ilgili olarak, toplam 72 öngörü için hataların %90.278'i %10'dan küçük olarak bulunmuştur. Önerilen yöntemin sonucu oldukça tatmin edicidir ve kıyaslama yaptığımız önceki türev olmayan yönteme (MDAM) göre daha iyi sonuçlar vermektedir. Ayrıca, 2019 yılı için elde edilen öngörü sonuçları ışığında en öngörülebilir ülkenin İngiltere olduğu tespit edildi; ikinci sırada Almanya, üçüncü sırada ABD, dördüncü sırada Fransa, beşinci sırada Çin, altıncı sırada Singapur, yedinci sırada Türkiye ve sonuncu sırada ise Hindistan oldu. Örneklem için seçilen sekiz ülke içinden en az öngörülebilir faktörler ise Türkiye'nin uluslararası yolcuları ve Singapur'un uçuş sayısı ve uluslararası uçuş sayısı olmuştur. Etki analizi sonuçları verilmiş ve ayrıca ülkeler arasında ortak veya değişken olduğu tespit edilen bazı faktör etkileri çalışmada tartışılmıştır. Faktörlerin diğer faktörler üzerindeki ağırlıklı ortalama etkisi açısından ve geriye dönük olarak 2019 yılı ve 𝑙=2 yıl için önerdiğimiz varsayım çerçevesinde, güçlü pozitif (olumlu) ve güçlü negatif (olumsuz) etkiler değerlendirilmiştir.
-
ÖgeDistilling knowledge of neural networks for image analysis, model compression, data protection and minimization(Graduate School, 2024-07-04) Keser, Reyhan Kevser ; Töreyin, Behçet Uğur ; 708182005 ; Information and Communication EngineeringKnowledge distillation is an effective tool for model training, which refers to the process of knowledge transfer between models. In the context of knowledge distillation, the model to be trained with the injected knowledge is named student, where the teacher refers to the model whose knowledge is acquired. It can be exploited for various aims including improving model performance, accelerating the model, and reducing model parameters. Further, with the advent of diverse distillation schemes, it can be efficiently applied in various scenarios and problems. Thus, it has a wide range of application fields including computer vision and natural language processing. This thesis comprises the studies conducted on numerous problems of knowledge distillation, as well as the literature review. The first problem we focus on is hint position selection as an essential element in hint distillation, which is transferring features extracted in intermediate layers, namely hints. First, we demonstrate the importance of the determination of the hint positions. Then, we propose an efficient hint point selection methodology based on layer clustering. For this purpose, we exploit the k-means algorithm with specially designed metrics for layer comparison. We validate our approach by conducting comprehensive experiments utilizing various architectures for teacher-student pairs, hint types, and hint distillation methods, on two well-known image classification datasets. The results indicate that the proposed method achieves superior performance compared to the conventional approach. Another problem focused on in this thesis is model stealing, which refers to acquiring knowledge of a model that is desired to be protected due to the privacy concerns or commercial purposes. Since knowledge distillation can be exploited for model stealing, the concept of the undistillable teacher has been introduced recently, which aims to protect the model from stealing its knowledge via distillation. To contribute to this field, we propose an approach called averager student, whose goal is distilling the undistillable teacher, in this thesis. We evaluate the proposed approach for given teachers which are undistillable or normal. The results suggest that the proposed method outperforms the compared methods whose aim is the same as ours. The last problem we addressed is cross distillation, which means the distillation process between teacher and student models that operate on different modalities. In this work, we introduce a cross distillation scheme that transfers the compressed domain knowledge to the pixel domain. Further, we employ hint distillation which utilizes our previously proposed hint selection method. We evaluate our approach on two computer vision tasks, that are object detection and recognition. The results demonstrate that compressed domain knowledge can be efficiently exploited in a task in the pixel domain via the proposed approach. The proposed approaches in the context of the thesis, contribute to studies on image analysis, model compression, data protection, and minimization. First, our study on the selection of efficient hint positions aims to improve model compression performance, although the proposed approach can also be employed for other distillation schemes. The gains of our method in terms of model compression are presented as well as the performance results of the proposed algorithm. Then, our work on model stealing targets to contribute to the literature on model intellectual property (IP) protection and data protection, where we introduce an algorithm to distill a protected model's knowledge. Moreover, our study on cross distillation provides a contribution to data protection and minimization studies, where we propose a distillation methodology that utilizes compressed domain knowledge on pixel domain problems. Our approach demonstrates a technique that expands limited knowledge by employing different modality data instead of more samples. Since we utilize compressed domain images and eliminate the need for more samples to boost performance, we prevent the use of more data that may be personal or sensitive.
-
ÖgeKesirli kalkülüs ile G-8 ülkeleri ve Türkiye'nin ekonomik verileri kullanılarak gayrisafi yurt içi hasıla büyüme oranlarının iki değişkenli fonksiyon olarak modellenmesi(Lisansüstü Eğitim Enstitüsü, 2024-07-04) Beşir, Şeyma ; Karaçuha, Ertuğrul ; Tuğrul Önal, Nisa Özge ; 708211002 ; Bilgi ve Haberle¸sme MühendisligiKesirli kalkülüs, klasik kalkülüsün bir uzantısı olarak kabul edilen, reel veya karmaşık mertebelerle karakterize edilen, diferansiyel ve integral operatörlerin özelliklerini inceleyen bir matematik dalıdır. Kesirli kalkülüs, geleneksel kalkülüs gibi üç asırlık bir geçmişe sahiptir, ancak bilim ve mühendislik alanlarında kullanımı çok yaygın değildi. Bu nedenle geçtiğimiz üç yüzyıl boyunca bu konu daha çok matematikçilerin ilgi alanındaydı. Ancak son yıllarda kesirli kalkülüsün fizik, mühendislik, biyoloji ve ekonomi dahil olmak üzere birçok bilimsel alanda uygulanmasına yönelik araştırma faaliyetlerinde belirgin bir artış yaşanmıştır. Bunun nedeni, kesirli mertebeden diferansiyel ve integral denklemlerin, tamsayı mertebesi ile sınırlı olanlara kıyasla doğa ve toplum olgularını matematiksel olarak daha iyi modelleyebilmesidir. Kesirli analiz yöntemleri, hafızalı ve yerel olmayan süreçleri ve sistemleri tanımlamak için güçlü araçlardır. Bu nedenle kesirli analiz yöntemleri, ekonomi ve finans alanlarında uygulanmakta ve geliştirilmektedir. Ekonomik büyüme, gayrisafi yurt içi hasılanın büyüme oranındaki artışı göstermektedir. Ekonomik büyümeyi belirleyen birçok faktör bulunmaktadır. Bu faktörler hem tek başına hem de karşılıklı etkileşim ile ekonomik büyümeyi etkilemektedir. İhracat, ithalat, doğrudan yabancı yatırımlar ve enflasyon değişkenleri, ekonomik büyümenin değerlendirilmesi için istatistiksel olarak anlamlı etkiye sahip olan ekonomik faktörlerdir. Bu tezde kesirli kalkülüs ve en küçük kareler yöntemi kullanılarak iki değişkenli fonksiyon ile matematiksel modelleme çalışması yapılmıştır. Matematiksel modellemede Caputo tipi kesirli türevden faydalanılmıştır. Matematiksel modellerin uygulamasında MATLAB kullanılmıştır. Bu çalışmada 1998-2022 yılları arası, G-8 ülkeleri ve Türkiye'nin genel ekonomik durumunun değerlendirilebileceği ekonomik faktörler olarak İhracat (yıllık büyüme %), İthalat (yıllık büyüme %), GSYİH Büyüme Oranı (yıllık %), Doğrudan Yabancı Yatırım, net girişler (% GSYİH), Enflasyon (% yıllık) ve İşsizlik Oranı verileri kullanılarak uygulamalar gerçekleştirilmiştir. (Rusya için veri eksikliği nedeniyle 1998-2021 yılları arası veriler kullanılmıştır). Veriler Dünya Bankası'ndan alınmıştır. Çalışmada iki degişkenli fonksiyonun parametreleri, ekonomik faktörlerin çeşitli kombinasyonları şeklinde verilerek GSYİH Büyüme Oranı (yıllık %) modellenmiştir. Modellemede fonksiyon parametreleri olarak ülkelerin ilgili ekonomik faktörleri sırasıyla şu şekilde kombine edilmiştir: ithalat-ihracat, ithalat-doğrudan yabancı yatırım, ithalat-işsizlik oranı, ithalat-enflasyon, ihracat-enflasyon, ihracat-doğrudan yabancı yatırım, ihracat-işsizlik oranı, enflasyon-doğrudan yabancı yatırım, enflasyon-işsizlik oranı ve işsizlik-doğrudan yabancı yatırım. Modelleme performansı Ortalama Yüzdesel Mutlak Hata (Mean Absolute Percentage Error – MAPE) ile değerlendirilmiştir. Modellemede kesme sayısı M = 7 olarak alınmıştır. Sonuç olarak çalışma genelinde tüm ülkeler için yüksek modelleme başarısı elde edilmiştir. En düşük modelleme hatası %1.0252 × 10⁻⁸ değeri ile Japonya için ihracat-enflasyon ekonomik faktörlerinde elde edilmişken, en yüksek modelleme hatası %3.6727 × 10⁻¹ değeri ile Rusya'nın enflasyon-işsizlik oranı ekonomik faktörleri ile elde edilmiştir. Genel olarak işsizlik oranı ve enflasyon ekonomik faktörlerinde diğer faktörlere kıyasla daha düşük modelleme başarısı gözlemlenmişken, ithalat ve ihracat ekonomik faktörlerinde daha yüksek modelleme başarısı gözlemlenmiştir. Ancak çalışma sonuçları genel olarak değerlendirildiğinde tüm ülkeler için ekonomik faktör kombinasyonlarının tamamında yüksek modelleme başarısı elde edilmiştir.
-
ÖgeCharacterization of different shape objects using EM pulse for several different scenarios(Graduate School, 2024-10-07) İşcan, Emre ; Eker, Sebahattin ; Tabatadze, Vasil ; 708202005 ; Information and Communication EngineeringThis thesis presents a thorough investigation into the interaction of electromagnetic pulses (EMP) with various shaped objects, with a particular focus on computational method for characterization. The comprehensive dissertation is anchored in the principles of electromagnetics, with Maxwell's equations serving as the foundation for formulating the theoretical framework essential for analyzing radiation and diffraction phenomena. Initially, the study delves into Maxwell's equations within the context of a uniform dielectric medium characterized by permittivity and permeability. These equations are crucial for describing the behavior of electric and magnetic fields in various media and are presented in their frequency domain forms. The main framework of the thesis revolves around the formulation of problems related to EM radiation and diffraction. By applying the curl operator to Maxwell's equations, the study derives expressions that elucidate how electromagnetic fields propagate and interact with different objects. The thesis meticulously examines the boundary conditions at the surfaces of different objects, essential for deriving the integral equations governing radiation and scattering phenomena. A significant portion of the thesis is devoted to the derivation of functions, which are indispensable for solving the integral equations related to EM problems. These functions assist in characterizing the fields generated by sources in different configurations. The thesis also details the computation of electric and magnetic vector potentials, which are pivotal in understanding how EM fields can be represented and manipulated mathematically. The integral equations, which form the basis for many of the computational methods used in the study, are carefully derived and explained. These foundational steps are critical as they set the stage for the complex simulations and analyses that follow, ensuring that the theoretical underpinnings are robust and reliable. In examining the scattering of EM pulses, the thesis employs various boundary conditions to ensure accurate simulation of the scenarios. These conditions include the continuity of tangential components of electric and magnetic fields across interfaces, which is critical for solving the resulting linear algebraic equations. The inversion of these equations provides the amplitudes of the unknown fields, facilitating the calculation of fields both inside and outside the objects. The handling of boundary conditions is crucial for ensuring the physical accuracy of the simulations, and the thesis provides a detailed account of how these conditions are implemented. This meticulous approach ensures that the simulations reflect realistic physical behaviors, which is paramount for the reliability of the results. The thesis progresses to apply these theoretical constructs to practical problems involving different shapes of objects. The Method of Auxiliary Sources (MAS) is extensively utilized for this purpose. MAS is an efficient computational technique that approximates the scattered fields by placing hypothetical sources around the object. This method's efficacy is particularly highlighted in its application to scenarios where objects need to be rendered invisible over a broad frequency range—a novel extension of MAS within this thesis. Numerical research explores the potential of time domain analysis in addition to frequency domain methods. Moreover, the research extends to shape reconstruction of objects using EM pulses. By analyzing the frequency response of the dielectric objects to EM pulses, the thesis provides a comprehensive characterization of their scattering properties. This dual approach allows for a more detailed understanding of the interactions between EM pulses and objects, offering insights that are not readily apparent from time-domain analysis alone. The frequency-domain analysis also helps identify resonant frequencies at which the scattering characteristics are particularly pronounced, valuable for applications in sensing and detection technologies. In practical applications, the thesis demonstrates the feasibility of using the MAS method for real-time object characterization. The research includes developing algorithm that can quickly process Gaussian EMP signal to reconstruct object shapes and determine material properties. This algorithm is tested using results generated from numerical simulations. The results show that the MAS-based algorithms can accurately and efficiently characterize objects in real-time, making them suitable for deployment in field applications where rapid assessment is required. The thesis delves into shape reconstruction using time-domain analysis, which involves measuring the time delay between the first and second echoes of an incident EMP to determine the object's dimensions. This method proves particularly accurate for objects with low ellipticity. When the object's permittivity is known, both the shape and dimensions can be accurately reconstructed; otherwise, only the shape can be inferred. This technique is vital for non-invasive applications such as medical imaging, where precision and safety are crucial. The research demonstrates how time-domain analysis can significantly enhance shape reconstruction accuracy, offering a promising avenue for further research and practical applications. The thesis also explores the practical implications of its findings, particularly in the field of radar and stealth technology. By optimizing the parameters of objects such as elliptical cylinders and dielectric ellipsoids with high ellipticity, the MAS method effectively minimizes the scattering echoes, making the object less detectable by radar. This has significant implications for military and defense applications, where reducing the radar cross-section of objects is of paramount importance. The thesis provides detailed case studies of how these principles can be applied to real-world scenarios, enhancing the understanding of EMP interactions with various materials and shapes. The case studies are comprehensive, covering different dielectric properties and configurations, and provide valuable insights into the practical applications of the MAS method. One of the other significant applications of the MAS method in this research is the reduction of front echo in Gaussian EMP scattering from 3D dielectric ellipsoids with high ellipticity. By optimizing the parameters of the ellipsoids, such as size and dielectric permittivity, the MAS method effectively minimizes the scattering echoes, making the object less detectable by radar. This has important implications for military and defense applications, particularly in stealth technology and missile design. The thesis presents detailed numerical results to demonstrate the efficacy of the MAS method. Simulations were performed using a specially designed software suite, and the results were visualized to show the electric field amplitudes for dielectric ellipsoids. These results highlight significant reductions in front echo, validating the proposed method's practical utility. Numerical results form a substantial part of the thesis, showcasing the practical applications of the derived formulations. These results not only validate the theoretical models but also demonstrate the capability of the computational method to handle complex scattering problems. The numerical results are presented in a series of detailed graphs and tables, illustrating the effectiveness of the MAS method in reducing computational complexity while maintaining high accuracy. The results highlight the precision with which the MAS method can model the scattering behavior, making it a powerful tool for various applications. Also, the advantages of MAS are demonstrated through a variety of numerical experiments and comparisons with other methods, such as the Method of Moments (MoM) and the Finite-Difference Time- Domain (FDTD) method. These comparisons are essential as they validate the MAS method against established techniques, showcasing its advantages in terms of computational efficiency and accuracy. In summary, this thesis offers a comprehensive analysis of EMP interactions with different shaped objects. It combines rigorous theoretical formulations with advanced computational method, providing significant contributions to the field of electromagnetic research. The methods developed and the numerical results obtained have potential applications in areas such as radar detection, stealth technology, telecommunications, medical imaging, geoscience and material science. The study not only advances technological capabilities but also enriches scientific understanding of electromagnetic interactions with complex objects. The detailed explanations, extensive numerical simulations, and practical applications presented in the thesis make it a valuable resource for researchers and practitioners in the field of electromagnetics. The findings and methodologies presented in this thesis have the potential to influence future research and development in the field, offering new insights and tools for tackling complex electromagnetic problems.