LEE- Telekomünikasyon Mühendisliği-Yüksek Lisans
Bu koleksiyon için kalıcı URI
Gözat
Başlık ile LEE- Telekomünikasyon Mühendisliği-Yüksek Lisans'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
Öge5G uygulamaları için dairesel polarizasyonlu ve metayüzeyli mikroşerit MIMO anten tasarımı(Lisansüstü Eğitim Enstitüsü, 2023) Koçer, Mustafa ; Günel, Murat Tayfun ; 782952 ; Telekomünikasyon Mühendisliği Bilim DalıBu tez çalışmasında, 6 GHz altı 5G frekans spektrumuna yönelik n78 bandı olarak adlandırılan 3.3-3.8 GHz frekans aralığında 4x4 çok girişli çok çıkışlı bir anten tasarımı hedeflenmiştir. Öncelikle çok girişli, çok çıkışlı anten tasarımında kullanılacak olan mikroşerit anten tasarımı gerçekleştirilmiştir. Mikroşerit antenin dairesel polarizasyonda çalışması için kare yama tercih edilmiştir. Tercih edilen kare yamanın köşelerinde sol el dairesel polarizasyona yönelik kesik daire ve kesik üçgen kullanılmıştır. Yapılan tasarımlara göre köşelerinden kesik daire kullanılarak yapılan mikroşerit anten tasarımı kesik üçgen kullanılarak yapılan tasarıma göre daha iyi sonuç vermiştir. Sol el dairesel polarizasyona yönelik köşelerinde kesik daire oluşturularak tasarlanan mikroşerit antenin performansını artırmak için üzerine hava boşluğu olmadan 4x4 metayüzey yerleştirilmiştir. Böylece metayüzeyin oluşturduğu yüzey dalgalarının kesim frekanslarında mikroşerit anten rezonansa girmiştir. Mikroşerit antenin istenilen yansıma katsayısı ve eksenel oranı aşağı frekansta (3.4 GHz) iken metayüzeyin yüzey dalgaları yukarı frekanslardadır (3.9-4 GHz). Bu sayede anten geniş bantta çalışmaktadır. Kullanılan metayüzey sayesinde FR-4 alttaş malzemesi ile tasarlanan bu antenin verimliliği, kazancı artmıştır ve geniş bantta dairesel polarizasyonda çalışması sağlanmıştır. Ayrıca mikroşerit yama antenin ortasında çapraz yarık oluşturularak metayüzeyli mikroşerit anten daha düşük yansıma katsayısına sahip olmuştur. Metayüzeyli mikroşerit antenin tasarımında kullanılan alttaş malzemesinin kalınlıkları ve kullanılan alttaş malzemesinin performansa etkileri incelenmiştir. Ayrıca tasarımda kullanılan 4x4 metayüzeyin köşelerinden kesik daire şekli oluşturularak antenin dairesel polarizasyon bant genişliği artırılmış ve daha geniş bantta yüksek kazanç elde edilmesi sağlanmıştır. TLC-32 alttaş malzemesi kullanılarak tasarlanan metayüzeyli mikroşerit anten ile 6 GHz altı 5G uygulamalarına yönelik 3.3-3.8 GHz' te dört kapılı (iki kapı sağ el dairesel, iki kapı sol el dairesel polarizasyon) olacak şekilde MIMO anten tasarımı gerçekleştirilmiştir. Tasarlanan MIMO antenin 1. ve 3. kapıları sol el dairesel polarizasyona yönelik iken 2. ve 4. kapıları sağ el dairesel polarizasyona yöneliktir ve her kapı kendi aralarında 90° döndürülerek tasarlanmıştır. MIMO antenin izolasyonunu artırmak için MIMO antenin ortasında alttaşa entegreli dalga kılavuzu yapısı kullanılmıştır. Buna ek olarak mikroşerit anten katmanına ve metayüzey katmanına parazitik elemanlar eklenmiştir. Böylece tasarımı gerçekleştirilen MIMO anten yüksek izolasyonlu ve kapılarının hepsi yüksek kazançlı olacak şekilde dairesel polarizasyonda çalışmaktadır.
-
ÖgeA compact two stage GaN power amplifier design for sub-6GHz 5G base stations(Graduate School, 2023) Türk, Burak Berk ; Savcı, Hüseyin Şerif ; Şimşek, Serkan ; 809122 ; Telecommunication Engineering ProgrammeBoth commercial and military systems use wireless communication networks. The range of applications is wide, including radar, mobile communications, Wi-Fi, SATCOM and many more. They all have different requirements and different solutions to meet their needs. The development of mobile communications began with 1G in the 1970s, and new generations have found their place in the radio communications market. In 2019, 5G New Radio has started to be expanded worldwide with higher data rate, wider frequency bands, lower latency features. Moreover, there are more frequency bands are available for 5G New Radio. These are called sub-6GHz and mmWave. As the name suggests, the sub-6 GHz frequency bands are below the 6 GHz frequency bands, including the bands of the previous generation. On the other hand, mmWave frequency bands are above 24 GHz. With the goal of low latency, engineers are developing new solutions for the next generation of base stations. One solution is to deploy smaller base stations more frequently than traditional macro base stations. These small cell base stations are called Micro, Pico, Femtocells. As the size of base stations has decreased, the transmitters and receivers of the cells require new technological developments. As the transmitters contain power amplifiers, they are known to dissipate significant amounts of DC power and require appropriate thermal protection. Also, with the increasing demand for small cells, the size of the transmitters must also be considered, along with the nuisance of heat. One of the most important component of the transmitters is power amplifiers. They are the last element of the transmitter before the antenna and amplify the RF power using DC power. In this work, the power amplifier is studied. The size of the power amplifiers play important role for the 5G New Radio small base station cells. Also, due to the size of power amplifiers being small, the power density and thermal conductivity managements are examined. GaN transistors gained popularity over GaAs and Si semiconductor technologies since their thermal conductivity is better and their power density is higher. They are also capable of amplifying higher power levels and have broader bandwidths. For these reasons a compact GaN HEMT power amplifier module is designed to meet the requirements of 5G small cell base stations. For thermal reasons, the efficiency of the power amplifier is crucial. The traditional power amplifiers are divided into classes that is determined by their bias points. These are Class A, Class B, Class C and Class AB. Class A is theoretically the least efficient and Class C is the most efficient. Also, the linearity is important factor in telecommunications because of complex modulation systems. Class A is the most linear and Class C is the least linear of all classes. As a result of this compromise, our power amplifier module operates in Class AB, which balances efficiency and linearity. In this work, a compact two-stage power amplifier module is designed with high gain, high linearity and high efficiency. 2 bare die GaN HEMT transistors are used with 0201 packaged lumped components for matching circuits on a laminate PCB. The PA module measures 10x6 mm. Given these dimensions, the alternative design option is MMIC technology, but the cost of a GaN-based wafer is significantly higher than our solution. A large signal model of the transistor is used and simulated with the EM co-simulation. The simulations are resulted as the output power level of 5W with 0.1 dB gain compression at the center frequency 3.5 GHz. The stability of the PA module is secured with series resistors. The designed power amplifier module is manufactured and implemented with the die transistors and components by using die bonder and wire bonder machines. Small signal and large signal measurement setups are prepared and the device is tested. Due to the mesh settings the designed power amplifiers matching circuits are shifted. 18.5 dB gain is measured with 30% PAE at the output power level of 2W. The simulations are repeated with accurate EM simulations and the results are matched.
-
ÖgeA doherty power amplifier for 5G applications(Graduate School, 2023) Konanç, Hasan ; Savcı, Hüseyin Şerif ; Akıncı, Mehmet Nuri ; 900834 ; Telecommunication Engineering ProgrammeThe ever-increasing need for high data rates and low latency steered modern communication systems toward massive MiMo architectures. In this architecture, each antenna element requires its amplifier unit. Smaller cell sizes and more user service have forced a significant increase in antenna elements, so the Power Amplifier units. Each amplifier is a substantial contributor to the power consumption budget. Therefore, efficiency is a primary concern in Power Amplifiers of cellular infrastructure systems. This study focuses on an architectural solution for Power Amplifier efficiency by demonstrating a Doherty PA (DPA) design in a widely used 5G sub-6GHz band of n78. This thesis focuses on the efficient RF output power generation of 5G base stations from an architectural perspective. A Doherty Power Amplifier is designed using for n78 5G band that is prioritized for the upcoming deployment. The design is optimized for an operation between the 3.6 - 3.8 GHz frequency band. The output power of 43 dBm (20 W) was obtained by using two of the 10W GaN HEMT transistors and a drain efficiency of 73% was obtained. The Doherty region starts at 38 dBm output power which allows an efficient operation with 6 dB power back off. A drain efficiency of up to 53% was obtained in the Doherty region and a gain of 10 dB is obtained over the entire band. The requirement of unconditional stability at all frequencies under small and large signal conditions demands a thorough analysis at different phases of design. For multi – stage stability analysis, the Ohtomo approach was also utilized in this study, for its convenience of being based on S – parameters and not requiring access to the transistor's internal components. Nyquist method is used in Ohtomo approach. Nyquist method was applied for frequencies between 10 MHz and 10 GHz. As a result, the proposed DPA is stable because there is no loop gain surrounding the 1+ j∗0 point. The prototype of the proposed DPA was fabricated and real-time small and large signal tests were performed. During the tests, it was found that the prototype DPA did not work only in the desired frequency range of 3.6 - 3.8 GHz during the design period, and after the tuning process, Doherty drain efficiency characteristics were obtained in the frequency range of 3.2 - 4 GHz (n77 5G band). Accordingly, The output power of 41.6 dBm (approximately 15 W) was obtained by using two of the 10W GaN HEMT transistors and a drain efficiency of 67% was obtained. The Doherty region starts at 32 - 38.2 dBm output power, allowing an efficient operation with 0.5 - 7.8 dB power back off. A drain efficiency of up to 67 % was obtained in the Doherty region, and a gain of 3.5 - 7.9 dB was obtained over the entire band.
-
ÖgeA friendly physical layer warden system(Graduate School, 2022) Kumral, Miraç ; Kurt Karabulut , Güneş Zeynep ; 714363 ; Telecommunications Engineering ProgrammeWireless communication technologies have become the focus of attention in recent years. Studies in this field are of great importance as they offer a direct solution to the problems of daily life. Mobile communication, satellite communication, terrestrial communication and maritime communication are the pioneers in the wireless communication sector. Wireless communication has become widespread and popular because it is frequently used in daily life. For example, in today's world, almost everyone has basic knowledge about technologies such as Bluetooth, Wi-Fi, 3G, 4G, 5G. It can be seen that even people who are not technically involved follow the developments of these technologies today. The wireless method of transmitting information brings great comfort to human life. However, with the convenience of wireless communication, some potential dangers may also occur. Wireless transmission takes place by converting the information into a signal and broadcasting it to the open environment with the help of antennas and receiving this broadcast by the desired people. Due to the nature of wireless communication, this broadcast to the open environment may pose a danger because the wireless medium is accessible to all users in the environment. Some of these dangers are interfering with the communication between the communicating devices for malicious purposes or revealing confidential information by decoding a communication signal by someone else. These potentially dangerous interventions are called wireless attacks. Communication architecture is generally designed as a multi-layered structure. The most common structure is the OSI (Open Systems Interconnection) model. This model; It consists of physical layer, data link layer, network layer, transport layer, session layer, presentation layer and application layer. New wireless transmission techniques are discussed and designed every day in the literature. Thanks to the new methods designed, wireless communication is becoming more secure day by day. Encryption methods developed by the science of cryptography are used to provide information security. These encryption methods are frequently used in the layers other than the physical layer. However, contrary to expectations, the physical layer has not received enough attention in studies against wireless threats. Within the scope of the literature review, studies on the detection of wireless threat elements were investigated. Physical layer approaches have been examined and it has been seen that these studies are generally aimed at receiver systems. A different perspective has been brought in this thesis to detect wireless attackers. In this thesis, a friendly physical layer guard system is proposed. This warden system has the ability to detect if the transmission between two users is under any attack. Additionally, if an attack is taking place, the system can also detect the type of attack. The proposed warden system has a multi-antenna architecture, so it can also determine which direction the attacker is in. In the first stage of the study, it was mentioned why the communication environment should be secure.
-
ÖgeA roadmap for breast cancer microwave hyperthermia treatment planning and experimental systems(Graduate School, 2024-07-04) Şafak, Meltem Duygu ; Altıntaş Yıldız, Gülşah ; 504191326 ; Telecommunications EngineeringBreast cancer affects approximately 2.5 million women each year and can be fatal if not treated correctly. However, with proper treatment, survival rates are very high. Common treatments include invasive surgical procedures such as lumpectomy or mastectomy, and non-surgical methods like radiotherapy, chemotherapy, and other anti-cancer agents. Enhancing the efficiency of these treatments can mitigate the economic and psychological impacts on patients. Studies have shown that artificial hyperthermia, which involves elevating the temperature in cancerous regions, can enhance the effectiveness of these modalities. Microwave breast hyperthermia (MH) aims to raise the temperature at the tumor site above normal levels. During this procedure, unwanted hotspots can occur, and the main goal of MH is to avoid these while achieving the necessary temperature at the tumor. The specific absorption rate (SAR), which measures the absorbed heat energy per kilogram of breast tissue, needs to be carefully controlled. The design of the MH applicator is crucial for focusing energy on the target effectively. Despite variations in hyperthermia treatment planning (HTP) for each patient, the MH applicator must be effective across different breast models and tumor types. The optimization and predictive modeling of temperature-dependent dielectric properties in microwave hyperthermia treatments, focusing primarily on breast cancer is investigated. This research aims to enhance the efficacy and precision of hyperthermia therapy through a combination of computational simulations, empirical data analysis, and deep learning techniques. This study is a comprehensive exploration of microwave hyperthermia treatment planning for breast cancer, focusing particularly on the critical consideration of temperature-dependent dielectric properties (TD-DP) within this context. In addition, an experimental study was conducted to realize computational analysis. It delves into multifaceted aspects of microwave hyperthermia treatment, spanning from the optimization of antenna parameters to the prediction of electromagnetic distribution through innovative methodologies like the U-Net architecture. One of the central inquiries is the optimization of antenna parameters concerning temperature-dependent dielectric properties. This study delves into the intricacies of how variations in these properties can influence treatment outcomes and efficacy. By analyzing these relationships, this thesis aims to establish optimized antenna configurations that maximize treatment precision and effectiveness. Deep learning, particularly convolutional neural networks (CNN), emerges as a powerful tool within this framework. By leveraging CNNs, this thesis investigates methods to use as a preliminary step of hyperthermia antenna excitation parameter selection. This integration of cutting-edge artificial intelligence techniques holds promise for streamlining and automating aspects of treatment planning, thereby potentially reducing human error and enhancing overall efficiency. Particularly, the U-Net model's potential is studied in automating the generation of electric field distribution of a particular dielectric distribution such as the breast tissue. By harnessing the capabilities of artificial intelligence, particularly in image analysis and processing, it aims to develop more robust and efficient methodologies for treatment planning. The integration of the U-Net model represents a significant advancement in this regard, promising to streamline processes and enhance treatment precision. To verify the performed computational simulations, an experimental microwave hyperthermia system was built. A circular array of 12 dipole antennas was installed in this system to experiment on tissue-mimicking phantom to gather information on microwave hyperthermia treatment system. Therefore, a significant amount of information on microwave hyperthermia is gathered through this experiment. Ultimately, the overarching objective of the thesis is to advance microwave hyperthermia treatment planning for breast cancer by improving both precision and efficacy. By synthesizing insights from diverse disciplines such as electromagnetics and deep learning, this thesis seeks to push the boundaries of current practices and pave the way for more effective treatment strategies. Through its meticulous analysis and innovative approaches, the thesis contributes valuable knowledge and methodologies to the ongoing quest for improved cancer therapies. To achieve that, COMSOL Multiphysics software is utilized to simulate the electromagnetic and thermal behavior of breast tissue during hyperthermia treatment. These simulations consider both constant and temperature-dependent dielectric properties. Empirical data is collected using phantoms that mimic the dielectric properties of breast tissue. Temperature distributions are recorded and compared with simulated results to validate the models. U-Net architecture, an encoder-decoder model, is used to predict electromagnetic field distributions, significantly reducing the computational workload and enhancing the accuracy of treatment planning. This research underscores the importance of optimizing antenna configurations to achieve targeted heating while minimizing damage to surrounding healthy tissues. Variations in tissue properties with temperature are crucial for effective hyperthermia treatment, and modeling these changes can lead to better treatment protocols. Despite the promising results, the transition of high-precision hyperthermia into clinical practice faces challenges such as technical complexities, high computational costs, and the need for further validation and optimization. Future research should focus on overcoming the remaining technical and computational barriers, refining the proposed methods, and conducting extensive validation studies to facilitate the clinical adoption of high-precision hyperthermia treatments. This thesis represents a significant step towards improving the precision and effectiveness of hyperthermia therapy, offering a comprehensive framework for future advancements in this field.
-
ÖgeAltı port tekniği ile vektör reflektometre tasarımı(Lisansüstü Eğitim Enstitüsü, 2022-12-20) Dinçtürk, Mehmet ; Çayören, Mehmet ; 504201328 ; Telekomünikasyon MühendisliğiRadyo frekans (RF) sistemler savunma sanayi, iletişim şirketleri, güvenlik şirketleri gibi birçok sektörde etkin olarak kullanılmaktadır. Bu sistemlerin yaygınlığı ve önemi yıllar içinde artarak devam etmiştir. Çok önemli olan bu sistemleri test etmek için kullanılan cihazların maliyetleri de ciddi rakamlara ulaşabilmektedir. RF ölçüm metodolojisi birkaç alt kategoriye ayrılabilir. En çok kullanılan ölçüm yöntemi vektör analizi yöntemidir. Bu ölçüm yöntemini yapan cihazlara da vektör devre analizörü (VNA) denmektedir. VNA ile devrelerin s parametreleri ölçülmektedir. Bu cihazlar oldukça kompleks bir mimariye sahiptir. VNA yerine tüm saçılma (s) parametrelerini ölçemese de yansıma katsayısı gibi en önemli parametreyi (s11 parametresi) ölçen reflektometre mimarisi kullanılabilir. Reflektometrenin çalışma prensibi kısaca şu şekilde anlatılabilir. Giriş portundan alınan RF gücün küçük bir kısmı güç bölücüler ve yönlü kuplörler kullanılarak sisteme bağlanan güç dedektörlerine iletilir ve dedektörler yardımı ile sisteme giren güç ölçülür. Sinyalin büyük kısmı ise test altındaki cihaza (DUT) (bu cihazın bağlandığı porta DUT portu da denir) iletilir. DUT'tan yansıyan güç tekrar güç bölücüler ve yönlü kuplörler aracalığıyla güç dedektörlerine iletilerek DUT'tan sisteme geri dönen güç ölçülür. Bu geri dönen gücün sisteme giren güce oranı yapılarak yansıma katsayısı hesaplanır. Literatürde bu ölçüm prensibini sağlayan birçok farklı reflektometre mimarisi bulunmaktadır. Bu mimariler birbirinden farklı yönlerden ayrılmaktadır. Bazı refloktemetre mimarilerinde ölçüm hata payı oldukça düşük olurken gerçeklemesi zor olur, bazı mimarilerde ise gerçeklemesi kolay olurken ölçüm hata payları yüksek olur. Bu mimarilerin gerçeklenmesinde genellikle baskılı devre kartı teknolojisi tercih edilir ancak dalga kılavuzları veya MMIC tasarım şeklinde yapılan reflektometre tasarımları da literatürde mevcuttur. Reflektometre tasarımındaki bir diğer önemli konu çıkış port sayısıdır. Yansıma katsayısının genliğini bulmak için giriş ve DUT portları dışında iki adet çıkış portu yeterliyken, faz bilgisi de öğrenilmek isteniyorsa en az üç çıkış portu olmalıdır. Literatürde farklı port sayılarında reflektometre tasarımları vardır. Çıkış portu sayısı arttıkça ölçüm keskinliğinin artması sağlanmıştır. Ancak port sayısı ne kadar artarsa sistem karmaşıklığı da o kadar artacak ve gerçeklenmesi de zor olacaktır. Sistemdeki portlarla ilgili bir diğer önemli parametre de portlarda uyumlaştırma konusudur. Portlarda uyumlaştırma yapılmazsa dedektörlere gelen güçte yansımalar olacağı için ölçüm hata payı artacaktır. Bu parametre de tasarımı zorlaştıran bir diğer değişkendir. Reflektometre tasarımında mimari kadar önemli bir diğer konu ise tasarlanan sistemin kalibrasyonudur. Literatürde farklı kalibrasyon yöntemleri bulunmaktadır ve kullanılan kalibrasyon metoduna göre oldukça farklı sonuçlar elde edilebilmektedir. Bu kalibrasyon yöntemleri lineer kalibrasyon ve lineer olmayan kalibrasyon yöntemleri şeklinde iki alt başlığa ayrılabilir. Altı portlu bir reflektometre mimarisi düşünülürse lineer olmayan kalibrasyon metoduyla kalibrasyon yapmak için gerekli standart sayısı üçe kadar indirilebilirken matematiksel model oldukça karmaşık hale gelmektedir. Lineer kalibrasyon yöntemiyle kalibrasyon yapmak istenilirse en az beş adet standart kullanılmalıdır. Bu tezde altı portlu mimari kullanılarak reflektometre tasarımı yapılmıştır. Altı portlu bu sistem tasarlanırken son yıllarda ortaya çıkan güç dedektörleri eşleştirmeden aksine güç dedektörlerinin yansımalarını kullanarak mimari tasarlanmıştır. Bu mimari klasik mimarilerin aksine girişten alınan RF gücün büyük kısmını DUT'a iletmek yerine tüm gücü, güç bölücüleri ve kuplörlerin yardımı ile RF güç dedektörlerine iletir. Güç dedektörlerinde uyumlaştırma yapılmaz ve bu sayede gelen sinyalin büyük kısmı yansır ve yansıyan bu sinyal ölçüm portuna gider. Ölçüm portundan yansıyan sinyal ise tekrar güç dedektörlerine gelir ve yansıyan sinyal ölçülür. Bu şekilde tasarımın yapılabilmesine izin veren ana etken gelişmiş güç dedektörlerinin dinamik aralığının yüksek olmasıdır. Yüksek dinamik aralığı sayesinde -50 dB değerlerine kadar doğru güç okumaları yapılabilmektedir. Güç okumaları yapıldıktan sonra kalibrasyon kısmına geçilmiştir. Kalibrasyon kısmında iki adet yöntem denenmiştir. Bunlardan biri simülasyon olarak gösterilmiş, diğerinin ise gerçeklenmesi yapılmıştır. İlk metoda göre dört portun uygun üç tanesi seçilmiş ve bu portların giriş portuna göre saçılma parametreleri ölçülmüştür. Portların bir tanesi referans alınarak ölçülen bu saçılma parametreleri ile kullanılan kalibrasyon standartlarına göre çemberler oluşturulmuştur. Portlardaki güç ölçümleri ile de çemberlerin yarıçapları bulunmuştur. Yarıçapları hesaplarken de çemberler oluşturulurken referans olarak kullanılan port gene referans olarak kullanılmıştır. Daha sonra bu çemberlerin uygun kesişimleri alınmış ve bağlanan yükün yansıma katsayısını ölçmek için kullanılacak kalibrasyon sistemi ortaya çıkarılmıştır. Farklı yükler için yansıma katsayısı ölçümleri yapılmış ve ilk kalibrasyon kısmının sonunda tablo olarak verilmiştir. İkinci kalibrasyon metodunda dört portun tamamı kullanılarak kalibrasyon yapılmaya çalışılmıştır. Beş standartlı kalibrasyon metoduna göre kalibrasyon sadece güç okumalarına dayanmaktadır. Öncelikle kalibrasyon için gerekli matrisin parametreleri bulunmuştur. Daha sonra bu matrisin parametreleri ve güç ölçümleri kullanılarak yansıma katsayısı hesaplanmaya çalışılmıştır. Sonuçlar tablo olarak ilgili bölümün sonunda verilmiştir. Bu çalışmadan anlaşılacağı üzere yansıma katsayısını ölçmek için yüksek maliyetli olan VNA'lar yerine reflektometre sistemleri çeşitli uygulamalar için rahatlıkla kullanılabilir. VNA'lara göre avantajları hafif ve daha rahat taşınır olması olarak söylenebilir. Dezavantajları ise VNA'lar kadar geniş bant ölçüm yapmakta kullanılamazlar. Sistemin sadece yansıma katsayısı ölçümünü yapabilirler. Ayrıca kullanılan mimari ile reflektometre sistemlerinde güç dedektörü eşitlemesi yapılmadan da yansıma katsayısının oldukça düşük bir hata payıyla hesaplanabildiği gösterilmiştir. Ancak bunun için doğru kalibrasyon yöntemini seçmek ve doğru güç dedektörlerini seçmek hayati önem taşımaktadır.
-
ÖgeAntenna design for breast cancer detection and machine learning approach for birth weight prediction(Graduate School, 2024-01-03) Kırkgöz, Haluk ; Kurt, Onur ; 504201348 ; Telecommunications EngineeringWith the advancement of technology in the biomedical field, new diagnostic and treatment methods and new devices are being developed day by day. However, although this situation seems mostly advantageous, the development of technology in some areas poses some difficulties for both patients and doctors in terms of diagnosis and treatment. For example, electromagnetic radiation used for diagnostic purposes can be harmful to patients. In addition, the precision and accuracy of the results of the techniques used also contain a margin of error, and it becomes important for doctors to consider these margins of error in the decision-making process. Based on the briefly mentioned problems, alternative methods are proposed for two different fields in this thesis. In the first study, an alternative method different from standard methods for breast cancer diagnosis will be proposed, and in the second study, machine learning approaches that can determine the baby's birth weight with high accuracy will be presented. Breast cancer remains a major global health problem and requires continuous improvements in diagnostic and control methods to achieve better patient outcomes during treatment and early detection of the disease. As breast cancer is one of the most common and dangerous diseases among women worldwide, it is therefore critical to diagnose it quickly. Considering that breast cancer is the second-leading cause of cancer-related mortality in women, the need for efficient and non-invasive diagnostic methods has become greater. The negative consequences of conventional approaches in terms of their operating principles or application methodologies give rise to this demand. In response to the limitations inherent in traditional diagnostic techniques, microwave imaging methods have been developed for effective diagnosis of breast cancer. The feasibility and efficacy of using microstrip patch antennas for breast cancer detection are especially examined in the first section of this thesis, which explores an alternative medical method. These antennas can be considered an important development in the medical industry as they are able to detect small electromagnetic oscillations that are indicative of early-stage cancer. This study introduces the design and simulation of a rectangular microstrip patch antenna on an FR-4 substrate operating at 2.45 GHz in the ISM band for breast cancer detection. Utilizing the Computer Simulation Technology (CST) software, both the proposed antenna and a five-layer breast phantom, with and without a 5 mm-radius tumor, were comprehensively designed. A breast phantom modeled as a hemisphere and an embedded tumor modeled as a sphere with different dielectric characteristics were successfully simulated. The antenna's performance was evaluated at varying distances from the phantom, revealing alterations in parameters such as electric field, return loss, voltage standing wave ratio, efficiency, specific absorption rate, etc., in the presence of a tumor. The simulation results at different antenna locations show discernible differences in values with and without tumors, indicating that a tumor significantly influences power reflection back to the antenna. The VSWR of the antenna, lower than 2, aligns with acceptable VSWR limits. Furthermore, the proposed antenna demonstrates increased electric field strength in the presence of a tumor. In addition, simulation outcomes in free space and with a 3-D breast phantom indicated that the antenna, positioned 20 mm from the breast phantom, is more efficient in tumor identification compared to the one located at 40 mm. Given its tumor detection capability and satisfactory SAR values, the proposed antenna emerges as a promising tool in biomedical applications. Future studies will explore alternative antenna geometries and techniques to enhance performance and increase tumor detection sensitivity. Birth weight is a critical indicator of both pregnancy progress and infant development, exerting a substantial influence on short- and long-term health conditions in newborns. In other words, fetal weight emerges as a pivotal indicator of short- and long-term health problems in newborns, both in developed and developing countries. Understanding the contributing factors to low birth weight (LBW) and high birth weight (HBW) can inform the implementation of optimal interventions for the population's health. In the second study, we present our research on the prediction of birth weight classification through the application of various machine learning algorithms. For this investigation, 913 medical observation units, each characterized by 19 features encompassing actual birth weight information and ultrasound measurements, were employed. In the study, a number of data preprocessing steps were performed on the data set before the data set was directly used to train the classifier models. To address the issue of imbalanced data across classes, we implemented the synthetic minority oversampling technique (SMOTE). Additionally, feature scaling was applied to standardize numerical attributes within a particular range in the dataset, as there are different physiological variables with different units and orders of magnitude. In this work, nine different machine learning classifier models are used. They are decision tree, discriminant analysis, naive bayes, support vector machine, k-nearest neighbor, kernel approximation, ensemble classifier, artificial neural network, and logistic regression. The hyperparameters of each model were kept at default values, and no hyperparameter tuning was made. To evaluate the performance of nine distinct supervised machine learning algorithms, we compared birth weight classification models with and without feature selection, utilizing numerous evaluation metrics. These different metrics are accuracy, sensitivity, specificity, positive predictive value, negative predictive value, F1 score, and area under the receiver operating curve. Referring to the Pearson correlation coefficient technique applied to the data set, abdominal circumference, head circumference, biparietal diameter, femur length, and hemoglobin levels at the 0th and 6th hours are highly correlated with birth weight. The results of our analysis highlight that the subspace kNN-based ensemble classifier outperforms other machine learning models, achieving the best macro-average accuracy of 99.87% without feature selection and 99.75% with feature selection. Additionally, we observed that the bilayered neural network exhibits similar performance to the kNN-based model, with the best macro-average accuracy of 99.62%, irrespective of feature selection. Furthermore, principal component analysis (PCA) was applied to the data set as an unsupervised method for birth weight classification. The outcome clearly demonstrates the successful classification of most data points by PCA. The findings of this study underscore the potency of machine learning as a robust and non-invasive method for accurately predicting the birth weight classification of infants. In light of these factors, a health program could be devised to prevent the occurrence of LBW and HBW since recognition of LBW or HBW in a newborn may signal potential problems that could manifest immediately after birth or later in life. At the end of the thesis, performance improvement methods have been proposed based on the two studies we conducted, and we hope that the results of our research will shed light on future studies.
-
ÖgeBenek gürültüsü gidermeye dayalı veri artırma ile derin ağlarda radar hedef sınıflandırma(Lisansüstü Eğitim Enstitüsü, 2022-02-28) Ceylan, Şakir Hüdai Mert ; Erer, Işın ; 504171333 ; Telekomünikasyon MühendisligiTeknolojinin ilerlemesiyle birlikte donanım kapasitesinin her geçen gün artması, maliyetlerin düşmesi ve etiketlenmiş veri sayısının artışı, yapay zeka uygulamalarının yaygınlaşmasına zemin hazırlamıştır. Bugün birçok alanda yapay zeka uygulamaları yaygın olarak kullanılmaktadır. Bu uygulamalar arasında en popüler alanlardan biri, bilgisayarlı görü sistemleridir. Askeri, ticari ve insansız ulaşım sistemleri gibi birçok alanda faydalanılan bilgisayarlı görü sistemleri içerisinde, özellikle askeri alanda otomatik hedef tanıma teknolojileri büyük önem arz etmektedir. Günün her saatinde ve her türlü hava koşulunda görüntü alabilme imkanı gibi avantajları sebebiyle uzaktan algılama uygulamalarında radar görüntüleme sistemleri, optik görüntüleme sistemlerine üstünlük kurmaktadır. Eskiden daha çok askeri alanda kullanım alanına sahip olan radar görüntüleme sistemleri artık günümüzde jeoloji, arkeoloji ve çevrenin korunması gibi çok farklı alanlarda da hedef tespiti ve sınıflandırma amacıyla kullanılmaktadır. Fakat, radar görüntülerinin doğası gereği var olan ve görüntünün kalitesini düşüren tanecikli girişim olan benek gürültüleri, hedef ve çevresinde görüntüyü bozarak hem insanlar tarafından görüntünün anlamlandırılmasını, hem de bilgisayarlı görü sistemlerindeki otomatik nesne tanıma sınıflandırıcılarının hedefi algılamasını zorlaştırmaktadır. Bu sebeple, YAR (Yapay Açıklıklı Radar) görüntülerinin otomatik nesne tanıma uygulamaları öncesinde iyileştirme sürecinden geçerek benek gürültülerinin ayrıştırılması, sınıflandırıcı performansı için önem arz etmektedir. Bundan dolayı, literatürde de YAR görüntülerinde benek gürültüsünü giderme ile ilgili birçok çalışma yer almaktadır. Bu tez çalışması kapsamında, YAR görüntülerindeki benek gürültülerinin Medyan, BM3D ve EAW filtreler kullanılarak giderilmesi ile derin öğrenme tabanlı radar otomatik nesne tanıma uygulamalarındaki sınıflandırma performansının artırılması, bu sayede çok daha derin ve karmaşık ağlarda elde edilen sınıflandırma başarılarının daha temel ve az karmaşıklığa sahip ağlarda elde edilebilmesi hedeflenmiştir. Ek olarak, klasik sentetik veri artırma tekniklerinden farklı olarak benek gürültüsü gidermeye dayalı veri artırma yaklaşımı önerilmiş, derin öğrenme tabanlı radar otomatik nesne sınıflandırma uygulamalarındaki sınıflandırma performansına etkisi incelenmiştir. Bu kapsamda, askeri hedeflere ait görüntüler içeren 10 sınıflı MSTAR veri seti kullanılmış, YAR görüntülerindeki benek gürültülerinin giderilmesi için bu görüntüler ayrı ayrı Medyan, BM3D ve EAW filtrelerden geçirilmiştir. Ardından elde edilen görüntüler ile farklı iki adet temel evrişimli sinir ağı eğitilmiş, aynı koşullar için benek gürültüsü giderme işleminin sınıflandırma başarısına etkisi gözlemlenmiştir. EAW filtre ile benek gürültüsünün giderilmesi, her iki ağda da derin öğrenme tabanlı otomatik radar hedef sınıflandırma başarısında artış sağlamıştır. Ek olarak, tez kapsamında önerilen benek gürültüsü gidermeye dayalı veri artırma yaklaşımının benimsenmesi ile her iki ağdaki sınıflandırma başarısı, benek gürültüsü giderme sonrasında elde edilen iyileşmenin de üzerine çıkmıştır.
-
ÖgeCalculating radar range profile by time domain processing with physical optics(Graduate School, 2024-07-11) Yazarel, Ece ; Paker, Selçuk ; 504201345 ; Telecommunication EngineeringThis thesis provides an in-depth exploration of the concept of Radar Cross Section (RCS) analysis. RCS is a critical metric in radar technology, used to measure the detectability of a target by quantifying the electromagnetic energy scattered by the target and reflected back to the radar system. This study examines the theoretical foundations, computational methods, and practical applications of RCS, offering an approach that aims to bridge the gap between theoretical knowledge and real-world implementations. The thesis contributes significantly to areas such as radar system design, radar signal processing, and stealth technology evaluation. The study begins with the theoretical foundations of the RCS concept. RCS is influenced by numerous factors, including the size, shape, material properties, and orientation of the object, as well as the radar operating frequency. The scattering mechanisms that affect RCS are categorized into specular reflection, diffuse scattering, edge diffraction, and multiple scattering. Each mechanism impacts RCS differently depending on the geometry and electromagnetic properties of the target. Additionally, the behavior of RCS is described across three main regions: the Rayleigh region (where the object's size is much smaller than the radar wavelength), the Resonance region (where the object's size is comparable to the radar wavelength), and the Optical region (where the object's size is much larger than the radar wavelength). These classifications provide a fundamental framework for understanding how the interaction between geometry and radar frequency affects the visibility of a target. The second part of the thesis focuses on computational methods used for RCS analysis. These methods are divided into two main categories: high-frequency and low-frequency techniques. High-frequency techniques include Physical Optics (PO), Geometric Optics (GO), the Geometric Theory of Diffraction (GTD), and the Shooting and Bouncing Rays (SBR) method. These techniques are based on optical approximations and are computationally efficient for modeling large targets. However, they are limited in accurately modeling diffraction and multiple scattering effects. On the other hand, low-frequency techniques, such as the Method of Moments (MoM) and the Finite Element Method (FEM), provide accurate full-wave solutions for small targets or resonant cases but come with high computational costs for large targets. The choice of method depends on factors such as the target's size, radar frequency, and the desired level of accuracy. To improve the accuracy of RCS computations, this thesis introduces two algorithms: a mesh refinement algorithm and a shadowing algorithm. The mesh refinement algorithm ensures that triangular surfaces in 3D models meet specific size constraints based on the radar wavelength, enhancing the accuracy of RCS predictions for targets with complex geometries. In regions with high curvature or intricate details, surfaces are iteratively subdivided to provide a more detailed representation. The shadowing algorithm accurately identifies and models the shadowed regions of the target, which do not contribute to radar returns. By combining these two algorithms, the thesis provides a more accurate and reliable framework for RCS computations, particularly for targets with complex geometries. One of the key contributions of this thesis is the transition from traditional frequency-domain analysis to time-domain simulations, offering a different perspective for analyzing target-radar interactions. Most conventional methods assume continuous wave (CW) radar operations, which do not accurately reflect the pulse-based structure of modern radar systems. To address this limitation, this study integrates physical optics principles with time-domain simulations. This approach enables more realistic modeling of radar pulse behavior. By storing the reflectivity contributions of illuminated mesh elements in detail, the interaction between radar pulses and the target can be analyzed dynamically and spatially. This transition significantly enhances the ability to simulate real-time radar operations, accounting for target movement and temporal variations in radar returns. The thesis further strengthens this framework through advanced signal processing techniques. Matched filtering maximizes the signal-to-noise ratio (SNR), facilitating the detection of weak targets and improving range resolution. Range normalization compensates for signal attenuation over distance, ensuring consistent detection sensitivity across different ranges. Coherent integration accumulates signal energy across multiple radar pulses, enabling the detection of weaker targets. These techniques allow for the generation of high-resolution range profiles (HRRPs), which provide detailed information about the physical dimensions and reflective properties of targets by isolating the strongest reflections within a predefined range window. The practical applicability of the proposed methodologies has been tested through simulations of different targets. First, a PEC missile target was analyzed at operating frequencies of 2 GHz and 4 GHz. The RCS results were validated against those obtained from the commercial FEKO software, demonstrating a high level of accuracy. The missile's structural features, scattering behavior, and high-resolution range profile were examined from multiple perspectives, and the proposed approach achieved a target dimension estimation with an accuracy of 0.24 meters. Additionally, the F-22 aircraft was also analyzed as part of the validation process. RCS results were compared with FEKO simulations, showing excellent agreement and verifying the accuracy of the proposed techniques. The HRRP analysis accurately estimated the dimensions and range of the F-22, demonstrating the applicability of the framework to complex geometries. Signal processing steps, such as matched filtering, range normalization, and coherent integration, were consistently applied across all targets, ensuring reliable differentiation between target reflections and noise. Lastly, the Chengdu J-20 aircraft, with its larger dimensions and complex geometry, was analyzed at 4 GHz. The RCS results obtained for this aircraft were consistent with FEKO simulations, further validating the robustness of the proposed methodologies. This case study highlights the framework's ability to handle large-scale targets and intricate geometries, as well as its effectiveness in extracting detailed range profiles of the aircraft. The thesis concludes by emphasizing the contributions of these methodologies to RCS analysis and radar signal processing. The integration of mesh refinement and shadowing algorithms with time-domain simulations addresses significant challenges in modeling complex geometries and real-time radar interactions. The proposed techniques have a wide range of applications, including radar system design, stealth technology evaluation, and electromagnetic wave analysis. By combining theoretical principles with computational innovations, this thesis establishes a strong foundation for future research and practical advancements in radar technology.
-
ÖgeConflict avoidance algorithm between mobility robustness optimization and load balancing functions(Graduate School, 2023-07-10) Demir, Çağrı ; Ergen, Mustafa ; 504191308 ; Telecommunications EngineeringProviding seamless connectivity and mobility to the end users in cellular networks have always been a big challenge for the service providers. With the evolution of the cellular networks and the increased user density, this challenge became more crucial. Operators and vendors are working to enable new features to meet these challenges and provide better quality of service (QoS) to the end user. On the other hand, developments in cellular communication networks increased system complexity and made maintaining, organizing, and sustaining the network infrastructure harder. Additionally, reducing the capital expenditures (CAPEX) and operational expenditures (OPEX) emerged. These changes in the requirements and the conditions, brings out the necessity of more autonomous cellular networks. As a result, self-organizing network (SON) concept introduced to address aforementioned issues. SON is a concept proposed in 3rd generation partnership project (3GPP) to achieve more autonomous cellular network. The idea is to create a cellular network which can be able to configure, optimize, heal, and coordinate itself. For this purpose, various SON functions introduced for different functions of cellular network, such as mobility management, random access (RA) optimization, energy efficiency etc. One of the most common SON functions utilized in cellular communication is mobility management (MM) based solutions and in this thesis, we will analyze and propose a solution to provide seamless mobility management experience. In response to the high demand for being connected anytime and anywhere, mobile networks are being evolved towards sixth generation of mobile networks (6G). At the same time, this brings more complexity to cellular networks. Increased demand also requires the SON concept to be more advanced and self-coordinated. One of the key aspects of accomplishing more advanced and coordinated SONs is conflict avoidance. The central focus of this thesis is to provide conflict-aware SON function to the literature. To accomplish this, first, we provided detailed analysis of SON functions in MM to have deeper understanding of the SON concept with its challenges for 5G and beyond. Additionally, the main SON algorithms related to MM, such as mobility load balancing (MLB) and mobility robustness optimization (MRO) are discussed with references to related literature. On the basis of this analysis and understanding, we proposed a solution to accomplish conflict-avoidance in mobility management related SON functions. Proposed algorithm designed based on the user-specific solution approach. Main reason is to utilize from user-specific approach is to be able to manage each user attached to the network individually. Particularly, the algorithm collects the network key performance indicators (KPIs) of the cell and if it detects anomaly in the KPIs, SON algorithm is triggered automatically to take corrective actions. Once the SON function activated in the cell, the information about the SON activation sent to the neighbor cells to take them necessary actions for the users incoming from SON active cell. In the meantime, SON algorithm collects the load and location information from all users individually in the SON active cell and calculates the specific handover measurement offset for each user. Accordingly, new unique handover control parameter (HCP) configuration sent to each user individually. Thanks to this design approach, algorithm can provide more specific solutions for users specifically and improves the QoS. It also achieves improvement on signaling overhead and handover KPIs. Performance of the algorithm is evaluated by comparing the results with MLB, MRO, and disabled SONs scenarios. Overall, an average improvement of 23% was achieved across all KPIs. Simulation result details are also shared in the thesis. System simulation is performed in C++ based open-source simulation environment which has built-in fourth generation of mobile networks (4G) protocol stack and handover features. To implement the proposed algorithm and other algorithms for comparison purposes, we have modified the source code of the simulation tool and developed extra functions in it. Finally, we have achieved an end-to-end cellular simulation environment to measure the performance of the proposed algorithm. Thanks to the simulation tool, it enables us to simulate the cellular network with the different settings and helps us to perform the measurements in the environment which mimic the real network conditions with extensive feature set. This also enables us to comment confidently on simulation results that are similar to real network implementations. The thesis is concluded with the simulation results and the final comments. Results show that proposed algorithm achieves better performance in terms of service continuity and mobility performance. It also shows that overall system throughput distributed among the cells more evenly. As user-based approach provides specialized solutions for the user equipment (UE) individually, it is improving the system performance of both MLB and MRO functions and eliminates the conflict problem.
-
ÖgeCross-domain one-shot object detection by online fine-tuning(Graduate School, 2024-06-26) Onur, İrem Beyza ; Günsel, Bilge ; 504211318 ; Telecommunication EngineeringObject detection aims to identify and locate objects within an image or video frame. Recently, deep learning-based object detectors have made significant contributions to the community, thanks to their capability of processing and learning from large volumes of data. However, their detection performance heavily depends on large labeled datasets, which are essential for them to generalize effectively across previously unseen (novel) or rare classes. This restriction is addressed by the recent development of few-shot object detection (FSOD) and one-shot object detection (OSOD) techniques, which aim to detect novel classes using a few or a single sample of a previously unseen class, enabling rapid adaptation to novel classes without extensive labeled data. The FSOD and OSOD paradigms which allow models to adapt to novel classes from a small sample size have two main lines: methods based on meta-learning and those based on transfer learning. Meta-learning approaches aim to learn a generalizable set of parameters on data-abundant base classes by applying an episodic training approach. This approach is designed to transfer the base knowledge gained on data-abundant base classes to data-scarce novel classes during the inference phase. The other methods based on transfer learning focus on fine-tuning the model, which has trained on extensive datasets, on the limited number of new examples by applying several methods such as freezing only the specific layers or adaptive learning rate scheduling during the fine-tuning. In FSOD and OSOD techniques, the model is trained on data-abundant base classes and then fine-tuned on both the base and novel classes or on only the novel classes. This methodology makes them well-suited approaches for use with still images where the task is to recognize objects based on limited data. Although FSOD and OSOD methods enable quick adaptation to novel objects, their performance highly depends on the training domain, typically composed of still images. Due to the domain shift, the conventional setup yields significant performance degradation in one-shot or few-shot object detection in cross-domain evaluations. Moreover, most of the recent studies remain limited to focusing on performance gaps between different image domains, rather than those between image and video domains. Differing from the existing work, this thesis particularly focuses on the significant performance gap observed in cross-domain evaluations, from the still image domain to the video domain, which has been largely overlooked in the literature. In video domain evaluations, the main purpose of the detection model is to detect the target object, which is introduced at the beginning of the video sequence, within subsequent frames successfully. In the scope of this thesis, we choose to work with the OSOD models rather than the FSOD models because object detection in video sequences primarily hinges on the model's ability to adapt to the target object using only a single example. Therefore, OSOD models, designed to adapt to the target object using only one example, are more suitable than FSOD models, which necessitate few examples to adapt to the target object. In particular, OSOD models aim to classify and localize a target object in an image using its particular representation known as a query shot. This is achieved through a template-matching algorithm that detects all the instances from the class of this single query shot within the target image. The paradigm enables the model to adapt to the specific appearance of the target object from a single sample, in contrast to FSOD where the model is designed to adapt to novel classes using a small number of samples. In addition to the scarcity of examples of the target object aimed to be detected throughout the video frames, temporal challenges, and motion changes also present a substantial challenge for OSOD methods. OSOD models' ability to handle affine motion changes and maintain temporal consistency is crucial for sufficient performance in video sequences. Moreover, the challenge OSOD brings along arises from the requirement that the model must adapt to novel classes based solely on a single sample, which demands a higher level of generalization and adaptability. The majority of the OSOD models are trained and evaluated on the same domain in which the data distributions and class characteristics are quite similar between the training and evaluation sets. Although recent studies have examined the cross-domain evaluation of OSOD models, they have primarily focused on evaluations within different still-image domains, rather than between still-image and video domains. The models are vulnerable to severe shifts in data distribution due to the domain shift between still-image and video domains. In this thesis, we aim to demonstrate and analyze the reasons behind the performance gap that OSOD models experience in cross-domain scenarios. To do this, we evaluate a state-of-the-art (SOTA) OSOD model, BHRL, which has been trained on the MS COCO dataset from the still-image domain, using the VOT-LT 2019 dataset, which presents the challenging context of the video domain. For a fair evaluation, we include only the video frames where the target object is present. To alleviate the performance degradation, we take BHRL as the baseline OSOD model and propose three different novel OSOD frameworks, based on integrating an online fine-tuning scheme and a query shot update mechanism into the inference architecture of BHRL, the SOTA OSOD model utilizing multi-level feature learning. During the evaluation of the proposed frameworks, the mAP0.5 metric is used and class-based reporting is performed. Classes included in the training phase were classified as base classes, while those that were not included were categorized as novel classes. In the following, the proposed OSOD frameworks are summarised. OSCDA w/o CDQSS: The initial appearance of the target object is taken as the query shot and the model is online fine-tuned only on this query shot once at the beginning of the inference phase. Subsequently, the model tries to detect all instances of the relevant class within the video frames. Although fine-tuning is a conventional approach in transfer learning, integration with the multi-level feature learning of BHRL improves the detection mAP.50 performance by 14% on all classes. OSCDA w/ CDQSS: A major limitation of OSCDA w/o CDQSS in video object detection is its vulnerability to rapid appearance changes of the target object, resulting from the risk of overfitting on the query shot that represents the target's initial appearance. To overcome this drawback, in addition to fine-tuning, CDQSS, which is an adaptive query shot selection module, is integrated into the baseline architecture. This approach enables unsupervised online fine-tuning to deal with the rapid appearance changes of the target object caused by the affine motion throughout the video frames. By CDQSS, the query shot is updated with the model's detections based on their objectness scores and localization consistency across frames. The model is continuously fine-tuned with the query shots chosen by the CDQSS during the inference phase. The fine-tuning process is called unsupervised fine-tuning since it is based solely on the model's detections rather than the ground truth. CDQSS provided an additional 6% improvement in mAP.50 on all classes. SACDA: In order to take advantage of extra shots without leaving the one-shot detection approach, we propose incorporating online fine-tuning into the BHRL using the initial query shot and its synthetically generated variations referred to as augmented shots. In particular, similar to OSCDA w/o CDQSS, SACDA conducts fine-tuning only once at the beginning of the inference, and then the model tries to detect all instances of the relevant class throughout the subsequent frames. SACDA aims to adapt to quick changes in the target object's appearance, such as flipped or rotated versions, without relying on the continuous fine-tuning process suggested in the second framework (OSCDA w/ CDQSS). SACDA improves BHRL's mAP.50 score by 14%, matching the improvement seen with OSCDA (w/o CDQSS). However, SACDA significantly outperforms the previous frameworks in specific sequences such as ballet, group2, and longboard by 14%, 28%, and 46% respectively. These sequences share challenges such as extreme changes in lighting, scale, and rotation of target objects, as well as rapid illumination changes. Given SACDA's design goal to enhance the OSOD model's robustness to variations in target and scene appearances, these significant gains indicate SACDA's potential effectiveness. The achieved performance improvements demonstrate the proposed methods' effectiveness in tackling domain shift challenges faced during the cross-domain evaluations for video object detection.
-
ÖgeCrowd localization and counting via deep flow maps(Graduate School, 2024-06-26) Yousefi, Pedram ; Günsel, Bilge ; 504211329 ; Telecommunications EngineeringUnderstanding the location, distribution pattern, and characteristics of crowds, along with the number of objects within a specific space, constitutes a critical subject known as crowd analysis. The analysis and monitoring of people in crowds hold paramount importance, particularly in areas such as security and management, for practical applications such as urban management, city planning, and preventing catastrophes. Over the years, numerous methods have been developed and introduced to address this challenge. Earlier methods relied on detection-based solutions, where each individual had to be detected and then counted, facing challenges such as occlusion which further complicated the process of detecting individual body parts and counting each individual and high processing time. Other methods that were introduced to remedy problems related with detection-based crowd counting relied on regression-based solutions, attempting to map crowd distribution patterns to the crowd count. Regression-based methods faced problems such as occlusion and low performance in highly crowded scenarios. Both approaches could only report the total number of objects or individuals and not their locations or distribution patterns. However, with advancements in the area of deep neural networks, specifically the introduction of convolutional neural networks (CNNs), CNN-based crowd counting methods have emerged. These methods aim to find a relationship between the extracted features from the input image and the ground-truth data, depicted as a color-coded density map. This density map illustrates the distribution pattern and shape of the target objects within the scene. Ground-truth density maps are generated by convolving object center coordinates with a Gaussian kernel, effectively encoding the average object sizes and the distances between the objects. This approach allows for not only the counting of objects but also the visualization of their distribution patterns. In recent years, many density-based crowd counting networks have been developed and introduced, differing in their accuracy and network architecture. Most of these networks work with single images in the spatial domain; however, a limited number of density-based networks that operate in the temporal domain with video frames have been introduced. The network used in the current research study, named CANnet2s, is among the video-based deep neural networks using density estimation techniques. Aside from extracting features, this network estimates the flow of objects within a pair of video frames at the pixel level, within small image areas called "grids." Displacements of objects to or from these grids are estimated, resulting in the generation of flow maps (maps of objects moving in a certain direction). This process totals in the creation of ten flow maps for ten possible directions. The density maps are then generated by combining these flow maps, and the total crowd count is estimated from these combined maps. The CANnet2s network was originally developed for people crowd counting purposes. Therefore, the initial phase of this study investigates the network's performance on people crowds by conducting experiments on different datasets such as FDST, ShanghaiTech, and JHU-Crowds++. However, motivated by recent developments and the increased usage of autonomous vehicles, the second phase of the study focuses on adapting this network to the domain of vehicle crowd counting and estimation. This phase of the study begins with experiments using the TRANCOS cars dataset, which includes traffic jam images. However, due to limitations in the quality of images and camera positions in this dataset, the comprehensive WAYMO dataset is employed. This dataset includes high-quality real-life video sequences recorded from the point of view of the vehicle driver, making it ideal for autonomous driving purposes. A subset of this dataset, comprising 140 video segments (approximately 28,000 video frames), is annotated and prepared for training and testing purposes of the network, where 25 segments are used for training and the remaining segments are employed for testing. Due to pioneering nature of this study and scarcity of related studies in the field of vehicle counting utilizing the WAYMO dataset, the still-image-based counterpart of CANnet2s, the CANnet network, is also trained and tested for comparative analysis. Throughout this research, CANnet2s consistently demonstrated superior performance. It exhibited a smaller mean absolute error (MAE) rate of 5.46 compared to CANnet, which had an MAE error of 7.74, despite being trained for fewer epochs (150 epochs compared to CANnet's 500 epochs). Additionally, CANnet2s showed a 3 dB increase in peak signal-to-noise ratio (PSNR) value compared to CANnet, which resulted in the generation of density maps with higher levels of detail and enhanced quality. In the second phase of this research, WAYMO dataset segments are meticulously labeled and categorized based on various scene characteristics and features, including weather conditions and vehicle crowds. Attribute-based network performance reports are then generated, highlighting the efficacy of CANnet2s, particularly in challenging scenarios. Once again, CANnet2s demonstrated its superiority, reaffirming its effectiveness across diverse conditions and environments. To further boost the performance of CANnet2s, transfer learning techniques are employed. A pre-trained model from the TRANCOS cars dataset served as the baseline for training the CANnet2s network with the WAYMO dataset. This approach halved the required training time, achieving the desired network performance after just 35 epochs of training. The outcome was an enhancement in network performance in terms of MAE error rate, particularly evident in one of the most challenging segments of the WAYMO dataset, depicting a blurry, highly occluded scene, where the MAE error rate decreased by 98 percent and the output density maps closely mirrored the ground-truth data. Furthermore, the study examines the impact of modifications to the CANnet2s architecture and network elements on network performance by experimenting with different kernel sizes and investigating the effect of input video frame dimensions on processing time. By using kernel modification, specifically by adjusting the kernel sizes of the pyramid pooling section of the CANNet2S architecture, the network's performance on the TRANCOS dataset improved both in terms of learning speed and error rate. This modification decreased the required training time from 90 epochs to 10 epochs while reducing the MAE error rate from 2.4 to 2.1, making CANNet2S's performance on the TRANCOS dataset the second best in the benchmark table. This study explores the feasibility of multi-object crowd estimation, with a focus on simultaneously detecting and counting both vehicles and people in video frames. This is crucial for identifying these objects as the main obstacles from the driver's viewpoint. This exploration represents the early stages of research in this area. The results of this research study show promising outcomes for the practical application of these methods in areas such as a pre-processing step in autonomous vehicles, road and urban transportation management by city authorities, and general crowd estimation purposes.
-
ÖgeDeep image prior based high resolution isar imaging for missing data case(Graduate School, 2023-06-06) Bayar, Necmettin ; Erer, Işın ; 504201334 ; Telecommunication EngineeringRadio detection and ranging or Radar as an abbreviation form, is a system that aims to detect the location, shape, and speed of objects that are named as targets. Earlier Radar systems were used for high level applications such as defence systems, airplanes, air surveillance and traffic control, etc. Later, it took place in daily life applications like smart cars, smart home devices, vital sign detection and a lot more to satisfy the needs of human life. Basically, radar sends electromagnetic waves from its transmitter and these waves reflect from the surface of objects, then the receiver of the radar collects these backscattered signals to process. Such a basic way, target speed and range can be extracted by applying 1-D signal processing on backscattered waves. Apart from the 1-D application, 2-D radar signal processing can extract the target shape on cross-range domain. In order to generate a radar image, electromagnetic waves, which are in different frequencies are sent to target and target is observed from different angles. Frequency sweeping can be done by some well known methods like stepped frequency or linear frequency modulation, thus the signals that have variable frequency can be generated by the same antenna. For moving targets, inverse synthetic aperture is used, which uses the relative motion of the target to use it as an observation angle. Synthetic Aperture Radar (SAR) is the case when radar is moving and the target is stationary whereas in Inverse Synthetic Aperture Radar (ISAR), radar is stationary and target is moving. As previously noted, such a manipulation on relative speed is used to generate ISAR/SAR data and polar format algorithm is used for Polar to Cartesian Coordinates conversion. Later 2D inverse Fourier transform can be applied to raw data to extract a radar image, which is also named as the Range Doppler (RD) image of the target. Besides good imaging performance capability, various challenges have to be handled in ISAR imaging. Some serious problems may arise during measurements that are challenging and this phenomenon affects the quality of the ISAR image. One of the well known problems is missing data case. Undesirable interference, an external jamming signal, beam blockage, or some other technical problem may lead to the missing data when receiving backscattered electromagnetic waves that are reflected from the target. There is also Compressive Sensing (CS) method that aims to generate radar images with less samples. For both cases, the conventional RD imaging method will perform poor imaging result. Missing data is a common problem for many radar related fields. In order to overcome missing data problem 1-D signal reconstruction algorithms are proposed such as Matching Pursuit (MP) and Basis Pursuit (BP). These approaches represent signals with dictionaries instead of conventional Fourier based superpositioned sinusoids. Although they are useful, 1-D reconstruction algorithms can not be applied directly to the 2-D signals, thus, Kronocker product based solutions are proposed to reconstruct 2-D signals with 1-D reconstruction algorithms. Such a process has a high computational cost in addition to the excessive memory requirement, so that 2-D sparse signal reconstruction algorithms are proposed. 2-D Smoothed L0 norm (2-D SL0) is the 2-D form of the 1-D Smoothed L0 norm sparse signal reconstruction algorithm and it proposed to reconstruct 2-D signal with low computational cost and low memory requirement by comparing to the 1-D signal reconstruction methods. Many successful studies have been done with the proposed 2-D SL0. There are also other methods available which are proposed to recover missing entries by exploiting the low rank feature of the matrix. Go Decomposition (GoDec), Low Rank Matrix Fitting (LMAFIT) and Nuclear Norm Minimization (NNM) are used to recover missing data on many applications that are focused on real data, so these are also not directly applicable to the ISAR raw data. There is also the Augmented Lagrangian Multiplier (ALM) for constrained optimization problems. ALM can also be applied to matrix completion problems, but primal variables of the algorithm can only be solved inexactly; thus, Inexact Augmented Lagrangian Multiplier (IALM) is proposed for matrix completion. Apart from the well known matrix completion methods, it can be directly applied to the complex data. Recently, deep learning based approaches are quite famous to recover missing parts of real images. Deep learning based approaches usually require a high amount of training data that contains corrupted images as input and original images as target to train deep convolutional neural networks to achieve tasks such as denoising, inpainting, and super-resolution. Previously, some studies trained deep networks to do such tasks on ISAR images. As it was mentioned before, the ISAR image is generated by the traditional RD algorithm. Deep learning based approaches use the amplitude of the 2-D IFFT result so that they neglect the imaginary part of 2-D IFFT result. In this study, a novel deep learning based ISAR data reconstruction method is proposed. Unlike existing studies, the proposed model uses complex data instead of the conventional RD image. Deep Image Prior (DIP) is used as a deep learning model that does not require a pre-training process to complete missing cases on input data. DIP directly can perform iteratively on single occluded data thanks to its hand crafted prior feature. In order to reconstruct ISAR raw data, the occluded matrix is separated into its real and imaginary parts, and missing entries in the backscattered field matrix are completed sequentially and separately. Thus, ISAR raw data construction is done by a deep learning model that does not need pre-training. In order to check the validity and robustness of the proposed model, three different comparison methods are used, such as IALM, 2-D SL0 and NNM. NNM performs on real data normally so that same separation process applied to raw ISAR data for NNM. In the experimental results, two simulated and one real ISAR data are tested under four different missing scenarios such as pixel-wise, equal random missing in each column, column-wise and compression cases. For all four missing scenarios, three different missing ratios are applied to the test data, like %30, %50 and %70, respectively. The results show that the proposed method outperforms existing ones both visually and quantitatively.
-
ÖgeDelay violation probability analysis for URLLC multi-user systems for finite blocklength regime(Graduate School, 2024-07-30) Öztürk Turfan, Hilal ; Çırpan, Hakan Ali ; 504201324 ; Telecommunications EngineeringThe need for better communication is increasing day by day and consumer demands are shaping the development of mobile wireless networks. 5G mobile technologies promises to transfer a huge amount of data much faster. In wireless network systems with multiple users, minimizing delay violation probability is a critical challenge for ensuring a high-quality user experience. This study introduces a framework designed for the assessment of delay violation probabilities in multi-user downlink URLLC systems. Emphasizing the significance of employing a FBL transmission model to account for transmission errors, our proposed framework utilizes an infinite length of user queues at the base station, and delay violation probabilities are reported with respect to predefined target delays. To shed light on crucial trade-offs and performance limits, we evaluate and compare the delay violation performances of three well-known user scheduling algorithms, namely, RR, MaxCQI, and LQ, under various network conditions. Simulation results show that selecting an appropriate scheduling algorithm is critical to meet challenging target delay violation probabilities.
-
ÖgeDeniz taşıtlarından yayılan gürültülerin negatif entropi kullanılarak çevrimsel izge analizi(Lisansüstü Eğitim Enstitüsü, 2024-06-13) Tunce, Kamil Uğur ; Akgül, Tayfun ; 504201325 ; Telekomünikasyon MühendisligiPervane gürültüsü, deniz taşıtlarının tespiti, takibi ve sınıflandırılmasında kullanılmaktadır. Pervane kavitasyonu, pervane ucu ve kanat yüzeylerindeki basınç farklarından dolayı hava baloncuklarının oluşup patlamasıyla meydana gelmektedir. Pervane kavitasyonu, 5 Hz ile 100 kHz frekans aralıklarında en önemli gürültü kaynağıdır. Hava kabarcıklarının oluşup patlamasıyla ayrık bileşen ton ve geniş bant gürültü meydana gelmektedir. Ton ve harmonik değerlerinin kullanımıyla gemi sınıflandırılması ve hız kestirimi yapılmaktadır. Pervane gürültüsünün ton ve geniş bant gürültüsü literatürde genlik modülasyonlu sinyal şeklinde modellenmekte ve geleneksel olarak zarf demodülatörü DEMON (Detection of Envelope Modulation on Noise) yöntemiyle analiz edilmektedir. DEMON yöntemindeki bant geçiren süzgeç seçimi analiz performansını sınırlandırmaktadır. Tonların tespiti için süzgeç aralığının kavitasyon nedeniyle oluşan gürültünün baskın bandında seçilmesi gerekmektedir, aksi durumda düşük SNR (Signal to Noise Ratio) değerleri için tonlar tespit edilmeyebilir. Bu durumun önüne geçmek için literatürde süzgeç bankası, EMD (Empirical Mode Decomposition) ve WPT (Wavelet Packet Transform) kullanılarak çok bantlı yöntemler önerilmiştir. Taşıyıcı, pervane gürültüsünün genlik modülasyonlu sinyal şeklinde modellenmesiyle geniş bant gürültünün frekans uzayında temsiline karşılık düşmektedir. Çok bantlı yöntemlerin kullanımıyla bant ağırlıklandırma, bant seçimi ve modülasyon izgeleri üretilerek taşıyıcının baskın bant kullanımı hedeflenmiştir. Son yıllarda pervane gürültüsünün genlik modülasyonlu sinyal modelinin öz ilinti fonksiyonunun periyodikliğinin gösterilmesiyle çevrimsel yöntemlerin pervane gürültü analizinde kullanımı mümkün kılınmıştır. Tez kapsamında hızlı kestirim sürelerinden dolayı CMS (Cyclic Modulation Spectrum) ve FSC (Fast Spectral Correlation) yöntemleri DEMON ve çok bant DEMON yöntemiyle karşılaştırılmıştır. Çok bantlı yöntemlerden üretilen izgeler incelendiğinde alt bant izgelerinin ortalaması alınarak zarf izgelerinin üretildiği gözlemlenmiştir. Ortalama işlemiyle taşıyıcının tüm izge boyunca eşit yayıldığı kabul edilmektedir fakat taşıyıcı, bazı bantlarda daha kuvvetli modülasyon yaptığı durumlarda çok bantlı yöntemlerin alt bantlarında modülasyon bilgisinin temsiline ihtiyaç duyulmaktadır. Literatürde modülasyon bilgisinin temsilinde kürtosis tabanlı yöntemler kullanılmaktadır. Negatif entropi, kürtosisin sinyalde ya da izgede hesabının logaritmik skalada ifadesiyle elde edilmektedir. Negatif entropinin izgedeki hesabı, izgesel negatif entropi olarak isimlendirilmektedir. FSC, SSC (Scanning Spectral Correlation) değerlerinin toplanmasıyla elde edildiğinden ve SSC yönteminin bir uzayı çevrimsel frekans, bir uzayı da taşıyıcı frekans değerlerini içerdiğinden FSC yönteminde alt bant ağırlıklandırmada frekans uzayında hesaplanan yöntemler kullanılmalıdır. Bu nedenle tez kapsamında alt bantlarda ton bilgisinin temsilinde izgesel negatif entropi kullanımı tercih edilmiştir. Negatif entropi ile çok bantlı yöntemlerde modülasyon izgesi üretilmiş, taşıyıcı frekans aralığı gözlemleme ve alt bant ağırlıklandırma işlemleri yapılmıştır. Alt bant ağırlıklandırma sonucu üretilen negatif entropili zarf izgeleri, ortalama işlemiyle üretilen zarf izgeleriyle benzetim ve gerçek veri için sınanmıştır. Benzetim verilerinde zayıf, orta ve kuvvetli modülasyon gücünde, beyaz arka plan gürültüsü altında, taşıyıcının baskın frekans etkisi taşıyıcıya bant geçiren süzgeç uygulayarak elde edilen sinyaller, 1000 adet deneme için ele alınan yöntemlerin tespit olasılığı ($P_d$), tespit SNR (TSNR), hatalı alarm olasılığı ($P_{fa}$) performansları sınanmıştır. $P_d$-SNR testlerinde negatif entropili versiyonlar ortalama kullanımına göre 0.25 dB kazanç sağlamıştır. DEMON'a karşı negatif entropili FSC 3.5 dB, çok bant DEMON (MBDEMON) 1 dB kazanç sağlarken DEMON en kötü $P_d$ performansı sergilemiştir. TSNR testlerindeyse çevrimsel yöntemler orta ve kuvvetli modülasyon gücü için en yüksek performansı sergilerken düşük modülasyon gücünde DEMON yöntemi, çok bantlı yöntemlerden daha iyi performans sergilemiştir. Çevrimsel yöntemlerde negatif entropi kullanımı TSNR performansını 25\% oranında arttırmıştır. MBDEMON yöntemi en kötü TSNR performansını sergilemiştir. $P_{fa}$ testlerindeyse çok bantlı yöntemler DEMON'dan daha iyi performans göstermiştir. Çok bantlı yöntemlerden FSC en iyi performansı sergilerken MBDEMON en kötü performansı sergilemiştir. Gerçek veri sınamalarındaysa DeepShip veri setinden alınan ticari gemi kayıtları tüm bant ortalama, tüm bant negatif entropi ve sadece baskın banttan üretilen zarf izgeleri için sınanmıştır. Tüm bant negatif entropi 1 dB, sadece baskın bant kullanılan durum 2-3 dB arasında tüm bant ortalamaya göre kazanç sağladığı gözlemlenmiştir. Bunun yanında, modülasyon izgesinin şelale gösterimi üretilerek gerçek verilerde baskın bant analizi kolaylaştırılmıştır. Sonuç olarak negatif entropi kullanımı çok bantlı yöntemlerde alt bant ağırlıklandırmak için uygun bir araçtır. Hem benzetim hem de gerçek veri için yöntemlerin performansları tez kapsamında verilmiştir. İlerleyen çalışmalarda modülasyon izgesi şelale gösteriminden görsel olarak baskın bant seçimi yerine otomatik baskın bant seçimi ve otomatik pervane gürültü analizi önerilmektedir.
-
ÖgeDerin öğrenme ile süper çözünürlüklü radar görüntüleme(Lisansüstü Eğitim Enstitüsü, 2022-11-04) Erim, İrem Fadime ; Erer, Işın ; 504191323 ; Telekomünikasyon MühendisliğiRadarlar (Radio Detection and Ranging), genellikle doğal afetler, hava trafik kontrolü, hedef arama, bulma ve takip etme gibi alanlarda kullanılan bir gözlem aracıdır. Radar görüntüleme sistemleri, günün her saatinde ve her türlü hava koşulunda görüntüleyebilme gibi avantajları nedeniyle uzaktan algılama uygulamalarında optik görüntüleme sistemlerinden üstündür. Radar anteninden yayınlanan elektromanyetik sinyal darbelerinin yansıyan tepkileri işlenerek, birçok uzaktan algılama uygulaması için önemli olan hedef nesneye ilişkin mesafe, açı ve hız gibi bilgiler elde edilebilmektedir. Bu tezde de ele alındığı gibi radarlarda en önemli uygulamalardan biri görüntülemedir. Görüntüleme radarlarının en önemli faktörü ise çözünürlüktür. En önemli faktör olmasının yanı sıra başarılması zor bir eylemdir çünkü yüksek çözünürlüklü radar görüntüsünün başarılması yüksek bant çözünürlüklüğü ve açısal genişliğe bağlıdır. Yüksek bant genişliği kademeli frekans veya doğrusal frekans kullanılarak başarılabilse de açısal genişlik antenin boyunun büyük olması ile alakalıdır. Bu durum gerçek hayatta mümkün olamadığı için yapay açıklıklı radarlar devreye girer. Sonuç olarak yüksek çözünürlük, gerçekten anten boyutunu büyütmektense radarın hareketli olmasından yararlanılarak yapay açıklık elde edilmesiyle yapılır. Yapay açıklıklı radar sistemlerinde, radar antenini belirli bir yönde sabit bir hızda hareket ettirerek, genellikle radar antenini bir uçağa entegre ederek yapay bir açıklık oluşturulur. Bu hareket sırasında antenden hedef alana veya nesneye doğru elektromanyetik sinyaller gönderilir ve aynı anda geri saçılan sinyaller toplanır. Yapay açıklıklı radar sayesinde antene gelen sinyallerle görüntü oluşturulur. Hedef hareketli ve radar sabitse ters yapay açıklıklı radar, radar hareketli hedef sabitse yapay açıklıklı radardır. Radarlarda tek bir bakış açısı ile gönderilen işaretten 1 B radar görüntüleri, farklı bakış açılarından toplanan işaretlerin gönderilmesiyle de 2 B radar görüntüleri oluşturulur. Radar görüntüsü oluşturabilmek için menzil ve çapraz menzil profillerine ihtiyaç vardır. Menzil profili oluşturmak için Fourier dönüşümünden yararlanılır. Fourier tabanlı yöntemde sınırlı bant ve açı aralığında çalışıldığı için spektral sızıntı ile karşılanır bu da yan lob problemine sebep olur. Yan lob problemi pencereleme teknikleri ile çözülmeye çalışılsa da bunu yaparken çözünürlük daha da azalır. Bu sorunları çözmek için farklı yöntemler geliştirilmiştir. Fourier dönüşümü yanında spektral kestirim yöntemleri ile de yüksek çözünürlüklü radar görüntüsü elde etmek mümkündür. Bunlara örnek olarak MUSIC VE AR modelleri verilebilir. Bu iki yöntem benzer olsa da yapılan çalışmalar sonucu MUSIC spektral kestirim yönteminin kompleks hedefleri görüntüleme de daha başarılı olduğu bulunmuştur. Başka bir TYAR görüntüleme tekniği ise sıkıştırılmış algılama tabanlı yöntemlerdir. Sıkıştırılmış algılama yöntemi ile daha az veri kullanılır. Ancak, normal Fourier dönüşümü tabanlı yöntemlere göre daha yavaştır. Ayrıca hedefin seyrek temsil edebileceği varsayımına dayanır. Bu sorunlar sebebiyle evrişimli sinir ağ metodları daha başarılı bulunmuştur. Son zamanlarda gelişen derin öğrenme metotları ile yüksek çözünürlüklü görüntüler elde edebilmekte de büyük rol oynar. Bu evrişimli sinir ağları, çok sayıda yüksek çözünürlüklü görüntü kullanarak ağ eğitip bu verileri kullanarak süper çözünürlük işlemini gerçekleştirir. Fakat radar görüntüleme ile çok sayıda görüntü elde etmek çok zor ve maliyetlidir. Bu sebeple bu sorunu çözmek için eğitim gerektirmeyen yeni bir derin ağ literatüre tanıtılmıştır. Önerilen Deep image prior ağında eğitim yapmak yerine ağın içindeki evrişimli sinir ağlarından yararlanılarak bu ağın girişine verilen gürültüyü prior bilgi olarak kullandığı düşük çözünürlüklü görüntü ile referans olarak verilen yüksek çözünürlüklü görüntüye yakınsamaya çalışır. Diğer ağlarda ağ eğitmek için veriler üretilirken veri setini büyütmek için verilere gürültü ekleme, döndürme, çevirme vb. veri çoğaltma fonksiyonları uygulanmıştır. Bu uygulanan görüntüler toplanıp bazı metrikler dahilinde karşılaştırılmıştır. Görsel karşılaştırılmaların yanı sıra elde edilen sonuçlar literatürde radar görüntüleme için kullanılan kabul görmüş bazı metrikler kullanılarak karşılaştırılmıştır. Bu metrikler psnr, entropi, ssim'dir. Sonuç olarak, düşük çözünürlüklü görüntüleri iyileştirip yüksek çözünürlüklü radar görüntüleri elde etmek için 5 farklı derin öğrenme modeli sunulmuştur. Bu ağlar PFA sonuçlarını iyileştirmek için kullanılmıştır. Eğitim gerektiren ağlarda çok sayıda veri ve uzun süreli eğitim yapılmadığı için PFA'yı geçememiş fakat DIP ile eğitime ihtiyaç duymadan radar görüntülerinin iyileştirilmesi başarılmıştır. Derin öğrenmede iyi sonuç almak için çok büyük verisetlerine ihtiyaç olmadığı, eldeki veriyi ve sinir ağlarını kullanarak çok daha yüksek çözünürlüklü görüntüler elde edilebileceği görülmüştür.
-
ÖgeDerin öğrenme tabanlı görevlerin kenar bilişim yöntemiyle uzak sunucuya taşınması(Lisansüstü Eğitim Enstitüsü, 2022-06-09) İlhan, Hüseyin Enes ; Çırpan, Hakan Ali ; 504191322 ; Telekomünikasyon Mühendisligiİnsansız Hava Aracı (İHA) sistemleri uzaktan veya otonom olarak kontrol edilebildikleri için erişilmesi zor ve tehlikeli durumlarda öncelikli olarak tercih edilmektedir. Uçabilmeleri, fiziksel özellikleri ve kullanım kolaylıkları sebebiyle bu cihazlar çok farklı görevlerle donatılabilmektedir. İHA sistemlerinde kameranın kullanılması ve bu cihazların havadan görüntü ve video analizi yapmaları askeri, eğlence ve gözetleme gibi bir çok alanda bu sistemlere olan ilgiyi her geçen gün artırmaktadır. Bu cihazlar sürüş kontrol ünitesi, motor, batarya, tümleşik işlemci, kamera vb. gibi birçok alt parçacıktan oluşmaktadır. Bataryalar; sürüş sistemleri ve ek uygulamalar için donatılan ekipmanların güç ihtiyaçlarının karşılanmasından sorumludur. Ergonomik koşullar ve maliyet gibi kısıtlamalar sebebiyle bataryaların mümkün olduğunca daha küçük boyutlu olması ve ucuza mal edilmesi istenmektedir. Ancak, batarya maliyetleri depolayabildikleri enerji miktarıyla orantılıdır. Ayrıca, düşük kapasiteli bataryaların kullanılması İHA'ların kısa sürede tekrar şarj edilmesi ve görevlerinin yarıda kesilmesi gibi olumsuzluklara neden olmaktadır. Çünkü, görüntü işleme temelli çalışmalarda büyük boyuttaki verilerle çalışılmaktadır. Ek olarak bu çalışmalarda kullanılan algoritmaların ağır işlem gücü gerektiren derin öğrenme tabanlı sistemlere evrilmesi sebebiyle ihtiyaç duyulan işlemci gücü ve özellikleri artmaktadır. Görüntü işleme görevi ile donatılmış İHA sistemlerinde ihtiyaç duyulan bu işlemci gücü için sürüş sistemlerine ek olarak tümleşik işlemciler (CPU veya GPU) entegre edilmiştir. Bu durum cihaz bataryalarının daha kısa sürede bitmesine ve görevlerin yarıda kesilmesine neden olmaktadır. Telekomünikasyon teknolojilerindeki gelişmeler ile birlikte büyük miktarda verinin bir noktadan diğer bir noktaya hızlı bir şekilde taşınabilmesi mümkün olmuştur. Bu gelişmeler kenar bilişim (edge computing) ve nesnelerin interneti (Internet of Things, IoT) sistemlerinin yaygınlaşmasında büyük rol oynamaktadır. Kenar bilişim, bir istemcinin kendi üzerinde, kendi kaynaklarını kullanarak veri işlemesi yerine bu istemciye yakın yerleştirilmiş sunucular üzerinde veri işlenmesi prensibine dayanan teknoloji mimarisidir. Tez çalışmasında görüntü bölütleme görevi ile donatılmış İHA sistemlerinin kenar bilişim yöntemiyle verileri uzak sunucuya iletmesi durumu analiz edilmiştir. Farklı telekomünikasyon teknolojileri (4G ve 5G) kullanılarak bu analiz senaryosu oluşturulmuş ve kablosuz haberleşme kanalındaki bozucu etkiler ve gürültü sebebiyle alınan verilerin bozulduğu gözlenmiştir. Bu gürültülerin giderilmesi için kenar bilişim sistemine gürültü arındırma bloğu eklenmiş ve temel seviye gürültü arındırma algoritmalardan ileri seviye derin öğrenme tabanlı algoritmalara kadar birçok farklı gürültü arındırma yöntemi incelenmiştir. Önerilen gürültü arındırma bloğunun bu sisteme entegre edilmesi kenar sunucuda bulunan derin öğrenme tabanlı görüntü bölütleme algoritmasının performansını büyük ölçüde artırdığı belirlenmiştir.
-
ÖgeDerin öğrenme tabanlı görüntü gürültü giderme için yoğun bağlantı kullanan yeni yaklaşımlar(Lisansüstü Eğitim Enstitüsü, 2022-06-29) Acar, Vedat ; Ekşioğlu, Ender Mete ; 504191342 ; Telekomünikasyon MühendisliğiÇeşitli kayıt cihazlarının doğasında olan fiziksel sınırlamalar nedeniyle görüntüler, görüntü edinimi sırasında bazı rastgele gürültülerin tezahürüne eğilimli hale gelir. Gürültü, temel bir sinyal bozulması olarak anlaşılabilir. Görüntü gözlem ve bilgi çıkarma sürecini engeller. Gürültü, görüntülerde kaliteyi zedeleyen ve istenmeyen bir süreçtir. Gürültü, görüntüden ayrılarak görüntü yorumlanabilirliği ve görüntüden bilgiyi elde etme işlemi kolaylaştırılmaktadır. Görüntü gürültü giderme problemi, uzun yıllardır süregelen görüntü işlemenin temel sorunlarından biridir. Gürültüsü giderilmiş görüntüyle çalışmak, görüntü işleme uygulamalarında sonraki adımlardaki işlemlerin daha yüksek başarımlı ve verimli olmasını sağlamaktadır. Gürültü, birçok farklı dağılıma sahip olabilen karmaşık bir süreçtir. Gürültünün modeli, kamera çipinde imge ayrıklaştırılıyorken bilinebilse gürültünün tamamen temizlenmesi mümkün olabilirdi. Görüntülerde gürültü genelde yüksek frekanslı kenar bölgeleri ve görüntünün doku ve ayrıntı içeren bölgelerinde ortaya çıkmaktadır. Görüntü gürültü giderme metotları, gürültüyü elimine ediyorken bazı ayrıntıları da istenmedik biçimde yok edebilmektedir. Bu durum görüntülerdeki kaliteyi düşürebilmektedir. İyi bir görüntü giderme algoritması gürültüyü giderirken imgenin doğasına ve ayrıntılarına mümkün olduğunca az zarar verendir. Günümüzde yeni nesil yüksek performanslı metotlar bu özelliğe çok özen göstermektedir. Yapılan çalışmalarda niteliksel sonuçların yanı sıra niceliksel olarakta görüntülerin zarara uğrayıp uğramadıkları görsel olarak paylaşılmaktadır. Bu bağlamda yapısal benzerlik indeksi literatürde oldukça fazla işlenmiş ve görüntülerdeki ayrıntıların onarımı bu indekse bakılarak ölçülmüştür. Görüntü gürültü giderme kötü pozlanmış ve tersine bir problemdir. Giriş sinyali genellikle yetersiz bilgiye sahipken, çıktının sonsuz sayıda çözümü vardır. Görüntülere rastgele olarak eklenmiş gürültü değerlerinin ayıklanması, gürültülü görüntülerden gürültü değerlerinin çıkarılması tersine işlemiyle mümkün olacaktır. İşlem esnasında görüntüdeki detayların korunulması gerektiği unutulmamalıdır. Gürültünün rastgeleliği ve çeşitliliği bu işlemin önündeki en büyük engeldir ve modeli bilinmeyen gerçek dünya gürültüleri problemi iyice zorlaştırmaktadır. Görüntülerde gürültü giderme işlemi, pek çok uygulama alanı bulmaktadır. Tıbbi görüntüleme, uzaktan algılama, askeri ve gözetleme, robotik ve yapay zeka gibi çeşitli uygulama alanlarında değerli bilgiler sağlayan çeşitli sayısal görüntüler mevcuttur. Bu görüntülerin kirlenmesi, görüntünün yorumlanabilirliğini geri dönülemez biçimde yok eder. Görüntü gürültü giderme işleminden genellikle ilk adım olarak görüntülerin daha temiz ve yorumlanabilirliği yüksek hale getirilmesinde yararlanılır. Burada yapılan işlemler gelecek adımları da etkileyeceği için görüntü gürültü gidermenin doğruluğu ve kalitesi büyük önem arz etmektedir. Görüntü gürültü giderme uzun yıllardır işlenen ve klasik bir yöntem olmasına karşın halen aktif olarak çalışılan bir problemdir. Problemin benzersiz çözümünün olmayışı ve farklı görüntü restorasyonu ve derin öğrenme problemlerinden direkt olarak etkileniyor oluşu bunu sağlamaktadır. Tez çalışmasında görüntü gürültü giderme problemi derinlemesine incelenmiş olup bu alanda yapılmış çalışmalar detaylıca gösterilmiştir. Klasik yöntemlerden günümüzde sıkça kullanılan ve işlenen derin öğrenme metotlarına kadar geniş bir perspektif göz önüne alınmıştır. Derin öğrenmeye dayalı görüntü gürültü giderme tarafında görüntü sınıflandırma ve görüntü bölütleme gibi farklı derin öğrenme alanlarında kullanılıp iyi sonuç gösteren derin öğrenme blok yapıları incelenip, çeşitli görüntü gürültü giderme ağları önerilmiştir. Uygulama kısmında, derin öğrenme yaklaşımlı yöntemler olan görüntü gürültü giderme ağı DnCNN, hızlı ve esnek görüntü gürültü giderici ağ FFDNet, kalıcı hafıza ağı MemNet, yoğun bağlı hiyerarşik görüntü giderme ağı DHDN, literatüre yeni kattığımız yenilikçi bir derin öğrenme yaklaşımı olan SADE Net ve yine kendi ürünümüz yoğun bağlı genişleme ağı DDR-Net gerçeklenmiştir. Sonuçları karşılaştırmalı olarak sergilenmiştir. Klasik yöntemlerden olan blok uyumlamalı 3-boyutlu filtreleme görüntü içindeki blokları kayan bir şekilde işler ve referans bloklara benzer blokları arayarak blok eşleştirme konseptini kullanır. Uyum kriterini gerçekleştiren bloklar üç boyutlu olarak gruplandırılır. Üç boyutlu dönüşüm tekniği bu blokları dönüşüm uzayına aktarır. Ardından dönüşüm bölgesi filtreleme işlemi sert eşikleme kullanılarak yapıldıktan sonra yeniden üç boyutlu ters dönüşüm bloklara uygulanır ve bloklar dönüşüm uzayından görüntü uzayına aktarılır. Wiener filtreleme işlemin ikinci adımını oluşturur bu adımdan sonra blokların uygun şekilde birleştirilmesi ile işlem tamamlanmış olur. Tez kapsamında karşılaştırılan tüm yöntemler yöntemler derin evrişimsel sinir ağlarını kullanır. Bu ağlar öznitelik çıkarımı yapar ve bu öznitelikleri kullanarak temiz görüntüyü oluşturmaya çalışır. Öznitelik çıkarımının kalitesi ve bu özniteliklerin ağın sonuna kadar kayıpsız taşınması işlemleri çok kritiktir. Bu ağlar öznitelikleri filtre çekirdekleri kullanarak çıkartır. Bir evrişimsel sinir ağında her bir çekirdek, imge üzerinden farklı öznitelikler çıkartır. Evrişim işlemi her ayrı filtre için gerçekleşir ve öznitelik haritaları oluşturulur. Bu haritalar her bir katmanda değiştirilerek gürültü her bir katmanda azaltılır. Evrişim işlemi giriş öznitelik haritası ya da imge ile filtre çekirdeklerinin çarpımı olarak algılanabilir. Burada çekirdeklerin boyutları büyük önem taşımaktadır. Literatürde en çok kullanılan çekirdek boyutu 3x3'tür. Filtreleme sonrası giriş imgesinin boyutunun azalmaması için imgenin köşelerine piksel ekleme işlemi sıklıkla yapılır. Bu sayede imgenin katmanlar boyunca küçülmesinin ve piksel kaybı yaşanmasının önüne geçilir. Bu işlem genellikle sıfır değerli piksellerin eklenmesiyle gerçekleşir. Aynı piksel değerlerinin kopyalanması ya da ortalama piksel değerlerinin eklenmesi gibi çeşitli yollar da mevcuttur. Bu noktada filtre kaydırma katsayısı da boyutun değişimini etkilemektedir. Çekirdek, imge üzerinde birer piksel kayarak tarama yaparsa ve yeterli piksel ekleme sağlanırsa katmanın çıkışında boyut değişimi olmaz fakat 3x3 ya da daha büyük bir çekirdek kullanılıp piksel ekleme yapılmamışsa ya da çekirdeğin imge üzerinde kayması bir pikselden fazla ise katman çıkışında küçülme gözlenir. Çekirdeğin öznitelik haritası üzerinde birden fazla atlamayla kaymasına adımlı evrişim denir ve oto kodlayıcı tipi bazı yapılar alt örneklem esnasında bu işlemi kullanır. Açılmış filtre yöntemi ise çekirdeğin arasına sıfırlar eklenmesi ve böylece filtrenin imge üzerinde daha geniş bir alanı taraması işlemi olarak düşünülebilir. Ağ boyunca uygulanan bu evrişimsel işlemlerin yanı sıra derin öğrenmeden uyarlanan ve bu derin ağlar içerisinde kullanılınca iyi sonuçlar alınmış yığın normalizasyonu, artık öğrenme, doğrusal olmayan aktivasyon fonksiyonları gibi teknikler olmazsa olmazdır. Yığın normalizasyonu eğitim işleminin ivmelenmesini sağlarken, aktivasyon fonksiyonları ise ağın belli değerler aralığında kısıtlanmasını ve doğrusal olmamasını sağlar. Artık öğrenme tekniği direkt olarak temiz görüntü yerine gürültünün öğrenilmesi yöntemidir. Temiz görüntü girişteki gürültülü görüntüden ağın çıkışında elde edilmiş gürültünün çıkarılmasıyla sağlanır. Bu yöntemin aşırı büyük ağların eğitiminde doğruluğu arttırdığı gözlemlenmiştir. Ağların eğitiminde çeşitli veri setlerinden yararlanılır. Bu veri setlerinden elde edilen görüntülerden yama çıkarılır ve bu yamalar ağa beslenir. Kayıp fonksiyonu bu temiz yama ile ağın çıkışındaki yamaları girdi olarak alıp bir kayıp değeri hesaplar. Bu değer, optimize edici tarafından ağa yayılır ve çekirdeklerin yeni değerleri hesaplanır. İstenilen noktada ağın eğitimi kesilebilir. Epok değeri verisetinin ağ üzerinde kaç kez bir tam tur attığını gösterir. Veri setinin büyük olması ağın daha farklı imgeleri tanıyıp daha geniş bir kümeyi öğrenmesini sağlar. Fakat eğitim süresini de uzatabilmektedir. Çeşitli varyanslardaki gürültülü görüntülerle eğitilmiş ağ, sonrasında test veri setine tabi tutularak ağın gürültüyü ne kadar temizlediği ve görüntüyü ne kadar onardığı saptanmaktadır. Bu sonuçlardan hareketle, derin öğrenme tabanlı yaklaşımların klasik yöntemlere göre daha iyi sonuçlar sergilediği gözlenmiştir.
-
ÖgeDerin öğrenme tabanlı yöntemlerle düşük ışıklı görüntü iyileştirme(Lisansüstü Eğitim Enstitüsü, 2024-07-04) Us, Emin Cihangir ; Ekşioğlu, Ender Mete ; 504211306 ; Telekomünikasyon MühendisliğiBu çalışmada, düşük ışık koşullarında görüntü iyileştirme yöntemleri incelenmektedir. Geleneksel yöntemlerden başlayarak, makine öğrenimi ve derin öğrenme tabanlı modern tekniklere kadar geniş bir yelpazede ele alınan yöntemler, detaylı tez başlıkları altında incelenmiştir. Çalışmanın diğer nihai amacı, tekil ve çiftli düşük ışıklı görüntülerin kalitesini artırmak için yeni yöntemlere yol açmaktır. İlk olarak, tekil görüntülerde geleneksel yöntemler teorik ve deneysel olarak incelenmiştir. Bu yöntemler arasında histogram eşitleme, retinex yöntemleri ve çeşitli filtreleme gibi yöntemler bulunmaktadır. Bu yöntemlerin düşük ışık koşullarında görüntülerin parlaklık ve detay seviyesini artırma konusundaki etkinlikleri değerlendirilmiştir. Makine öğrenimi ve derin öğrenme tabanlı yöntemlerin incelenmesine geçilmiştir. Bu bölümde, genel derin öğrenme ağı teorik bilgisi kullanılarak önemli yöntemler değerlendirilmiştir. Bu kapsamda, MSR-Net, SID ve Zero-DCE gibi popüler olarak atıf alan teknikler üzerinde çalışılmıştır. MSR-Net (Multi-Scale Retinex Network) yönteminde, farklı ölçeklerdeki retinex teorisini kullanarak görüntü iyileştirme yapar. Düşük ışık koşullarında detayları ve kontrastı artırarak görüntü kalitesini iyileştirir. SID (See-in-the-Dark) yönteminde, düşük ışıklı görüntüleri iyileştirmek için özel olarak tasarlanmış bir derin öğrenme modelidir. Bu model, düşük ışıklı görüntüleri yüksek ışıklı versiyonlarına dönüştürmede oldukça etkilidir. Zero-DCE (Zero-Dark Channel Enhancement) yönteminde, tamamen öğrenme tabanlı bir yöntem olup, düşük ışık koşullarında görüntü iyileştirme işlemlerini gerçekleştirmek için derin evrişimsel sinir ağlarını kullanır. Özellikle belli görüntü gruplarında parlaklık ve renk iyileştirme konusunda başarılıdır. Bu çalışmanın bir diğer önemli yönü, mevcut çiftli görüntüleme çözünürlük sistemlerinin düşük ışıklı çiftli görüntülere uyarlanmasıdır. Geleneksel olarak, çiftli görüntüleme yöntemleri derinlik tahmini yapmaya odaklanmıştır, ancak bu çalışmada çiftli görüntülerin düşük ışık koşullarında geliştirilmesi hedeflenmiştir. Sol ve sağ görüntüler arasındaki farklılık, düşük ışık koşullarında belirgin zorluklardan biridir. Bu zorlukları aşmak için, uçtan uca bir evrişimli sinir ağı olan MC-CNN önerilmektedir. MC-CNN iki aşamalı bir yapıya sahiptir: İlk aşama parlaklık iyileştirme aşamasıdır. İlk aşamada, ağ çiftli görüntülerin parlaklık durumunu iyileştirmeyi öğrenir. Bu sekilde, görüntülerin düşük ışık koşullarında daha fazla ayrıntı ve netlik kazanması hedeflenir. İkinci aşama ise renk restorasyonu aşamasıdır. İkinci aşamada, ağ geliştirilmiş parlaklık ve renk bilgisini kullanarak giriş görüntüsünün normal ışıkta tam renkli bir görüntüsünü derin öğrenme yardımıyla yeniden oluşturur. Geliştirilmiş çiftli görüntülerin orijinal renklerine daha yakın bir sekilde sunulmasını sağlar. Kullanılan MC-CNN yöntemi, düşük ışık koşullarındaki çiftli görüntüleri tek bir görüntü düşük ışık geliştirme yöntemlerinden daha etkili bir şekilde geliştirmektedir. Bu yaklaşım, çiftli görüntülerin kalitesini artırırken aynı zamanda disparite tahminine dayanmadığı için daha hızlı ve daha etkili bir çözüm sunmaktadır. Sonuç olarak, sunulan yöntem düşük ışık koşullarında çiftli görüntülerin kalitesini artırmak ve tekil görüntü iyileştirme yöntemlerinde detaylı inceleyerek tez için yenilikçi bir yaklaşım sunmaktadır. Bu çalışma, görüntü işleme alanında düşük ışık koşullarında tekil ve çiftli görüntülerin geliştirilmesi konusunda yapay zeka tabanlı yüksek doğruluklu yeni kapılar açabilmektedir. Özellikle MSR-Net, SID ve Zero-DCE gibi yöntemlerin de kullanılması, sunulan yaklaşımın etkinliğini ve geçerliliğini artırmaktadır ve çiftli düşük ışıklı görüntü iyileştirmede iyi sonuçlar elde edilerek gelecekteki çalışmalar için giriş niteliği taşımaktadır.
-
ÖgeDerin sinir ağları ile modülasyon sınıflandırma(Lisansüstü Eğitim Enstitüsü, 2023-07-06) Aras, Yusuf ; Çelebi, Mehmet Ertuğrul ; 504181348 ; Telekomünikasyon MühendisliğiHaberleşme sistemleri, farklı modülasyon türlerinin kullanımıyla günden güne gelişmektedir. Geliştirilen her modülasyon türünün kendine özgü kullanım alanı ve kendine ait özellikleri olmaktadır. Etkin, kaliteli ve sürdürülebilir bir haberleşme alt yapısı için kullanılan modülasyon türleri araştırmacılar için hep çalışma konusu olmuştur. Araştırmacılar, modülasyon türlerinin sınıflandırılması için çeşitli yöntemler kullanmıştır. Bu yöntemler, teknolojinin gelişimine göre de sürekli gelişmiştir. Teknolojinin gelişme aşamasında, modülasyon sınıflandırma olasılık tabanlı yöntemlerle yapılmaya çalışılıyordu. Olasılık tabanlı yöntemler, yoğun matematiksel hesaplama gerektiren işlemlere dayanıyordu. Bu yöntemlerin kullanılabilmesi için de sınıflandırılacak modülasyon türü hakkında ön bilgiye gereksinim duyulmaktadır. Ancak günümüzde, oyun bilgisayarlarının, önceki nesillere göre çok daha hızlı olması ve grafik işlemcilerle donatılması modülasyon türlerinin sınıflandırılması için yeni yöntemler sunmuştur. Modülasyon türleri, makine öğrenmesi algoritmaları ile sınıflandırılmaya başlanmıştır. Makine öğrenmesi algoritmaları ile modülasyon sınıflandırma yaparken, sınıflandırılacak modülasyon türü hakkında ön bilgiye ihtiyaç duyulmamaktadır. Makine öğrenmesi algoritmaları kullanılarak, çok kısa sürede ve yüksek doğruluk değerleri ile sınıflandırma yapılabilmesi araştırmacıları bu alana yöneltmiştir. Araştırmacılar, modülasyon sınıflandırma işlemleri için makine öğrenmesi algoritmalarını benimsemiş, özellik çıkarımına gerek kalmadan modülasyon sınıflandırma yöntemlerine katkıda bulunmuşlardır. Hızlı ve yüksek başarımlı algoritmalar geliştirmişlerdir. Bu algoritmalar da yapılan yeni çalışmalarla daha da ileriye taşınmaktadır. Bu tez çalışmasında, makine öğrenmesi algoritmaları kullanılarak modülasyon sınıflandırma işlemleri yapılmaya çalışılmıştır. Yapılan çalışmada 8 sayısal modülasyon türü, ikili faz kaydırmalı anahtarlama (BPSK), dörtlü faz kaydırmalı anahtarlama (QPSK), 8 faz kaydırmalı anahtarlama (8-PSK), 16 karesel genlik modülasyonu (16-QAM), 64 karesel genlik modülasyonu (64-QAM), 4 darbe genlik modülasyonu (PAM4), gauss frekans kaydırmalı anahtarlama (GFSK), sürekli fazlı frekans kaydırmalı anahtarlama modülasyonu (CPFSK) ve 3 analog modülasyon türü çift yan bant modülasyonu (DSB-AM), tek yan bant modülasyonu (SSB-AM), geniş bant frekans modülasyonu (WB-FM) sınıflandırılmaya çalışılmıştır. Tez kapsamında, modülasyon sınıflandırma işlemleri için kullanılan olasılık tabanlı ve makine öğrenmesi algoritmaları ile sınıflandırma yöntemleri tanıtılmıştır. Yapılan sınıflandırma çalışmaları güncel sınıflandırma çalışmaları yöntemlerine göre seçilmiştir. Sınıflandırma işlemleri için evrişimli sinir ağları (CNN), artık sinir ağları (ResNet), özyineli sinir ağları (RNN) modelleri olan, uzun kısa vadeli bellek (LSTM), geçitli tekrarlayan ünite (GRU) ve çift yönlü bilgi akışı sağlayarak sınıflandırma yapabilen, çift yönlü uzun kısa vadeli bellek (Bi-LSTM), çift yönlü geçitli tekrarlayan ünite (Bi-GRU) yöntemleri kullanılmıştır. Yapılan çalışmalarda, GNU Radio (ücretsiz ve açık kaynaklı bir yazılım geliştirme platformu) tarafından oluşturulan, yapay veri seti RadioML2016.10a kullanılmıştır. Bu yapay veri seti, 11 modülasyon türüne ait zaman alanında örneklenmiş verileri içermektedir. Tez kapsamında oluşturulan modellere giriş verisi olarak RadioML2016.10a verisi kullanılmıştır. Tez çalışmasında, yüksek doğruluk ve hızlı sınıflandırma konularına yoğunlaşılmıştır. Bu bağlamda, yüksek doğruluk ve hızlı sınıflandırma sağlayan modeller oluşturulmaya çalışılmıştır. Tez çalışmasında, her biri özgün olan 12 modülasyon sınflandırma benzetimleri kullanılmıştır. Yüksek doğruluk ve hız açısından, paralel modeller oluşturulmuştur. Paralel modellerle veri öğrenmesinin iki farklı kolda ayrı ayrı yapılıp, sınıflandırma işlemlerinde öğrenilen özelliklerin paylaşılarak yüksek doğruluk ve hızlı sınıflandırma amaçlanmıştır. Yapılan sınıflandırma çalışmalarında, Paralel CNN, ResNet, Paralel ResNet, LSTM, Paralel LSTM, GRU, Bi-LSTM, Bi-GRU modelleri oluşturulmuş ve bu modellerler sınıflandırma çalışmaları tekrar tekrar denenmiştir. Elde edilen en yüksek doğruluk değerleri tez kapsamında dâhil edilmiştir. Yapılan tüm çalışmalarda elde edilen en yüksek doğruluk değerleri %93 olmuştur. Tez çalışmasında ResNet modeli ile de %92 oranında bir doğruluk değeri sağlanmıştır. ResNet Modeli ile yapılan sınıflandırma için yüksek bir sınıflandırma başarımıdır. Yapılan önceki modülasyon sınıflandırma çalışmalarında, ResNet ile yüksek doğruluk değerleri sağlanamamışken, bu tez çalışmasında %92 gibi bir başarım sağlanmıştır. Bu başarımın arttırılması için Paralel ResNet modeli oluşturulmuştur. Ancak, oluşturulan Paralel ResNet modeli beklenen başarımı sergileyememiştir. Paralel ResNet modelinin, sadece faz kaydırmalı anahtarlama modülasyonları için uygun olduğu görülmüştür. LSTM modelleri ile yapılan sınıflandırmalar, diğer çalışmalarda olduğu gibi yüksek doğruluk değerleri sağlamıştır. LSTM ile oluşturulan modeller %93 gibi bir başarım sağlamıştır. Yapılan önceki çalışmalar, LSTM modelinin GRU modeline göre daha iyi bir sınıflandırma sonucu sağladığı algısını değiştirmiştir. Yapılan çalışmalarda GRU modelleri, hem yüksek doğruluk hem hızlı sınıflandırma açısından daha iyi bir başarım sağlamıştır. Yapılan çalışmalar sonucunda GRU modelinin LSTM modeline göre üstünlüğü kurulmuştur. LSTM ve GRU modelleri farklı katman sayıları ile oluşturulmuş ve bu iki yöntem arasında hız ve doğruluk denemeleri yapılmıştır. Yapılan denemeler sonucunda, elde edilen başarım değerleri tek tek karşılaştırılmıştır. Yapılan tüm çalışmalarda, elde edilen sonuçlar tarafsız bir şekilde değerlendirilmeye çalışılmış, savunulan düşünceler de yeni oluşturulan modellerle de desteklenmeye çalışılmıştır. Tez kapsamında yapılan çalışmalar sonucunda, kullanılan yöntemlere göre modülasyon türlerinin doğruluk tahminleri tek tek analiz edilmeye çalışılmıştır. Kullanılan modellerin başarımları modülasyon türlerine göre ayrı ayrı değerlendirilmiş ve her modülasyon türüne en uygun olacak sınıflandırıcı model belirtilmiştir. Derin sinir ağları ile yapılan tüm modülasyon sınıflandırma benzetimleri özgün bir şekilde, bu tez çalışmasına dâhil edilmiştir. Yapılan tez çalışması, modülasyon sınıflandırma, ses tanıma, haberleşme sistemlerinin iyileştirilmesi gibi konularda yapılacak sonraki çalışmalara kaynak teşkil edecek ve yol gösterici bir çalışma olarak gerçekleştirilmiştir.