LEE- Elektronik Mühendisliği-Doktora
Bu koleksiyon için kalıcı URI
Gözat
Çıkarma tarihi ile LEE- Elektronik Mühendisliği-Doktora'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeSpintronic devices for wireless communication,memory, and analog applications( 2020) Atasoyu, Mesut ; Özoğuz, İsmail Serdar ; 629126 ; Elektrik ve Elektronik Mühendisliği ; Electrical and Electronics EngineeringSon on yılda spintronik elemanlar, bellek, analog devre tasarımında, ve kablosuz iletişim alanlarındaki güncel uygulamalarda önemli sınırlamaları olan CMOS teknolojisinin yerini alabilecek aday bir teknoloji olarak karşımıza çıkmıştır. Spintronik elemanın manyetik durumun geleneksel elemanlara göre çok daha az enerji ile değiştirilebilir olmasının hız verdiği araştırmalarla, bu elemanın yukarıdaki uygulamalarda nasıl kullanılabileceğini gösteren yeni yöntemler geliştirilmiştir. Ferromagnetin spin-tork anahtarlaması, bellek, analog ve kablosuz iletişim uygulamaları için çok yararlı bir özellik olarak kabul edilmektedir. Bununla birlikte, hala spin-tork cihazlarının bu uygulamalar için daha etkin nasıl kullanılabileceğini gösteren yeni araştırmalara ihtiyaç bulunmaktadır. Literatürde spintronik elemanların bellek, ayarlanabilir direnç, ve osilatör uygulamalarında, manyetik tünel jonksiyonun spin tork anahtarlama modeli için çeşitli modeller ve devre tasarım teknikleri önerilmiştir. Bu tezde, bellek, analog ve kablosuz iletişim alanlarına yönelik olarak spintronik cihazların matematiksel modellemesi ve olası uygulamaları incelenmiştir. Temel olarak bu uygulamalarda, ofset iptali, BER performansının iyileştirilmesi ve faz gürültüsünün azaltılması için yeni devre teknikleri önerilmiştir. Bu tezde sunulan çalışmalar özet olarak: Bölüm 1 Bu tezin motivasyonu ve araştırma katkıları bu kısımda derlenmiştir. Bölüm 2 Spintronik aygıtların iyi anlaşılması için, manyetik teoremler açıklanmıştır. Spintronik aygıtların kapsamlı bir şekilde anlaşılması, manyetik malzemelerin fiziksel prensipleri hakkında kapsamlı bir bilgiye dayanır. Bu bölümde, elektromanyetik teoremlerin önemli sonuçlarının bir özetini ve bu tür aygıtların anahtarlama sistemleri için ilgili manyetik teorilerin bir özeti sunulmuştur. Sonuç olarak, bu manyetik bilgi temeli üzerine spintronik aygıtların modellenmesi incelenmiştir. Bölüm 3: analog devre uygulaması Yeni nesil devre elemanı olarak memristörler bir analog uygulamada ilk önce değişken kazan kuvvetlendirici yapısında kullanılmıştır. Ancak memristörleri düşük gerilim seviyelerinde çalıştırmak zordur. Spintronik devre elemanları düşük gerilim seviyelerinde çalıştırılabilir ve ilk uygulama olarak bir işlemsel geçişiletkenliği kuvvetlendirici (OTA) yapısında yerleşme zamanı kompanzasyonu için ayarlanabilir direnç olarak kullanılmıştır. Çünkü spintronik aygıtların çoklu hücresel fabrikasyonu düşük maliyetli olduğu ve CMOS teknolojisine entegrasyonu tasarım alanı verimliliği sağladığı için, analog uygulamalarda tercih edilmektedir. Bu bölümde spintronik aygıtlar pratik programlanabilir direnç olarak bir analog uygulama yapısında gerçeklenmiştir. Bu aygıtların programlanabilir direnç uygulaması, spin tork anahtarlama mekanizması yardımıyla gerçekleştirilir. Ayrıca, bir spintronik aygıtın direnci uygulanan darbe gerilim kaynağının darbe genişliğine ve uygulanan kutuplama akımın yönüne bağlıdır. Bu amaçlanan ayarlanabilir direnç yapısı karşılaştırıcı yapısında ön kuvvetlendiri ofsetinin azaltılması için uygulanmıştır. Çok hücreli spintronik aygıtlarin üretimi ucuz olduğundan, bu ofset azaltma yöntemi düşük maliyetli bir tasarımdır. Bu amaçlanan programlanabilir direnç yapısında, spintronik aygıtların direnç değeri sapmalarını azaltmak için bu aygıtlar birbirlerine seri olarak bağlanmıştır. Bölüm 4: bellek uygulaması Modern yüksek hızlı sayısal sistemlerde yonga önbelleği olarak statik rastgele erişim belleği (SRAM) kullanılır. Bununla birlikte, CMOS teknoloji nodu küçüldükçe, SRAM'ın statik enerji tüketimi artar. Yeni teknoloji bellek elemanları, SRAM'ın yerini almak için geliştirilmektedir. Bunlar arasında rastgele manyetik bellek elemanları (STT-MRAM) özellikle caziptir. STT-MRAM' in avantajları arasında: CMOS tasarım uyumluluğu, hızlı okuma ve yazma işlevselliği, ve dayanıklılığı yüksektir. Bir STT-MRAM'in ana bellek işlemleri yazma ve okumadır. Bu işlemler arasında bellek hücresi akımı açısından bir ödünleşim vardır. Yazma işlemleri için daha düşük hücre akımları tercih edilir, ancak okuma işlemleri için daha yüksek hücre akımları tercih edilir. Aygıt geliştirme seviyesindeki araştırmalar, manyetik tünel jonksionu (MTJ) anahtarlama akımını yazma operasyonlarında azaltmayı ve devre seviyesindeki araştırmalar bit hata oranı (BER) performansını bu bellek elemanının okuma operasyonlarında arttırmayı amaçlamaktadır. Bu tezde bellek uygulamasında, STT-MRAM yapısında okuma işlemlerini iyileştirmek için çeşitli devre tasarım teknikleri sunulmuştur. Akım algılama kuvvetlendiricisine ve gerilim algılama kuvvetlendiricisine dayanan yaygın olarak kullanılan iki algılama şeması karşılaştırılmıştır. Düşük dirençli alanlarda yüksek tünelleme direnci (TMR) sağlayan MTJ ile yapılandırılmış STT-MRAM için tasarlanmış sezme şemalarının temel sınırlamaları araştırılmıştır. Sonuç olarak, tek bir referans MTJ hücresi ile önerilen algılama şeması, yüksek hızlı ve düşük güçlü STT-MRAM okuma işlemleri için iyi bir çözüm sunmaktadır. Önerilen algılama şeması, veri ve referans hücrelerinin direnç varyasyonlarına ve latch deki parazitik kapasitanslara daha az duyarlıdır. Önerilen tasarım, literatürdeki benzerlerine kıyasla hızlı okuma, BER performansı, ve güç tüketimini açısından daha iyi bir çözüm sunmaktadır. Bölüm 5: kablosuz haberleşme uygulaması Nano aygıt araştırmaları, frekans sentezleyicilerinin indükleyici olmadan tasarımı açısından büyük önem taşımaktadır. Araştırmacılar, yeni nesil frekans sentezleyici için yeni grafen tabanlı cihazlar ve spintronik cihaz teknolojileri üzerinde aygıt araştırmalarına ağırlık vermektedirler. Spintronik osilatör teknolojisindeki son gelişmeler, küçük çip boyutu (100 nm veya daha küçük çaplı), kompaktlığı, CMOS işlem uyumluluğu, yüksek çalışma frekansları, gelecekteki kablosuz iletişim ve ayrıca milimetre kablosuz iletişiminde yani 65 GHz'in üzerinde frekanslarda çalışabiliyor olması nedeniyle bu osilatör teknolojisi önem arzetmektedir. Çoklu RF vericileri özellikle VCO'lar yapılarındaki LC tabanlı osilatörler nedeniyle çok fazla alan kaplamaktadırlar. Bu nedenle spintronik osilatörlerin çoklu RF vericisinde uygulaması, LC tabanlı bir VCO'dan kompakt alan tasarım açısından daha caziptir. Bununla birlikte, STO'ların bazı ana dezavantajları vardır. Bunlar, düşük çıkış gücü, düşük frekans çözünürlüğü ve doğrusal olmayan genlik-faz kuplajıdır. Bu aygıt araştırmalarında, bu dezavantajların çözümüne odaklanılmıştır. Kablosuz uygulamada, spintronik osilatör tabanlı frekans sentezleyici yapısı tasarlanmıştır. Bu tezde geliştirilen devre teknikleri spintronik osilatörün spektral çözünürlüğünü geliştirmeye odaklanmıştır. Sonuç olarak, spintronik osilatörün spektral çözünürlüğü iyileştirilmiştir. Entegre devre yaklaşımındaki spintronik osilatörün faz gürültü seviyeleri, bu araştırma alanındaki gelecekteki çalışmalar için simülasyon sonuçlarıyla belirlenmiştir.
-
ÖgeDesign and implementation of a novel physically unclonable function with a new cellular automata model(Fen Bilimleri Enstitüsü, 2020) Göncü, Emre ; Yalçın, Müştak Erhan ; 657021 ; Elektronik ve Haberleşme Mühendisliği Ana Bilim DalıThe number of devices in network increases continuously by the Internet of things (IoT) paradigm. It is expected that there will be over 25 billion devices connected to the internet, by 2025. Furthermore, IoT applications can be encountered in almost every part of our lives such as at homes, in vehicles, in human bodies. Obviously, most of those devices store sensitive data. In addition, because of the rapid increase of e-business practices, the devices realizing secure transactions of huge sensitive data are essential. Therefore, security and trustworthy of that kind of devices become more and more important. Secure transactions are realized with strong cryptographic systems. True Random Number Generators (TRNG) are essential for these systems in order to source the inputs such as keys, initialization vectors and challenges. Statistical quality of the TRNG is one of the metrics determining the security level of the system. Therefore, designing and implementing a TRNG of high quality is vital for a strong cryptographic system. Nowadays, threats of counterfeit integrated circuits (IC) arise around the world. Therefore, Intellectual Property (IP) protection of the hardware designs is one of the major challenges of IC designers. They want their hardware to run on a limited number of ICs because of commercial reasons. Physical Unclonable Functions (PUF) are another security primitives extracting the unique identity of devices from the physical characteristics. In fact, this identity is a trust anchor in higher-level security architectures. Therefore, they can answer the security challenges mentioned above. Cellular Automata (CA) are discrete dynamical systems used in many different fields like modelling, pseudo-random generation, image processing, \textit{etc.}. Since standard CA are deterministic systems, it is not possible to obtain random bit sequence at the output. However, a new CA model proposed in the thesis makes it possible by adding some physical noises to the model. Introduced model is also realized on FPGA. It is empirically proved in thesis that the output of the system is random. Employing the randomness of the new CA model, a TRNG and a PUF design are proposed in order to address the solutions for given problems above. The proposed TRNG, without any post-processing block, passes all the statistical tests provided by NIST. Furthermore, it has a higher speed regarding the other TRNG implementation on FPGAs given in the literature. PUF design is also promising by the terms of security and reliability regarding the other PUF implementations on FPGA in the literature. Finally, at the end of the thesis, a novel Application Specific Integrated Circuit (ASIC) implementation of Advanced Encryption Standard (AES) block cipher is introduced. The AES hardware is asynchronous in order to have reduced power consumption and throughput improvements regarding the other AES hardware realizations given in the literature. Furthermore, the IC is fabricated using TSMC-65 nm standard cells.
-
ÖgeEmbedded vision system designed on a heterogeneous computing platform and applied to semen analysis(Lisansüstü Eğitim Enstitüsü, 2021) Şavkay, Osman Levent ; Yalçın, Müştak Erhan ; 709922 ; Elektronik ve Haberleşme MühendisliğiImage and video inspections in the medical field require intelligent systems in addition to microscopes for more accurate and detailed analyses. In this study, a reliable, reconfigurable, and compact intelligent analyzer system is proposed using a hybrid platform comprising a field programmable gate array (FPGA) and central processing unit (CPU) as the embedded video processing system. Computer assisted semen analysis (CASA) is then developed as an application on the proposed system. The developed system architecture can also be utilized in biological imaging and video applications, which require accurate and detailed analysis. Relevant semen analysis algorithms were constructed specially for the proposed architecture; however, the algorithms may also be used with similar existing embedded system platforms and newly developed hardware. As the speeds and performances of CPUs have approached their technological limits, a newer trend has evolved toward parallel computing; more recently, the use of heterogeneous computing platforms have also increased as they have attracted the interest of scientists and system developers owing to their operating performances. They surpass conventional general-purpose CPU-based architectures in terms of capacity, speed, and performance characteristics. The proposed system utilizes a heterogeneous computing platform combining the CPU and FPGA, thereby providing enhanced performance compared to conventional systems. Using a high-definition camera, actual sperm movements could be traced with high fidelity. The FPGA provides very high execution speeds necessary for recursive and expensive image preprocessing tasks. The CPU connects the camera to the devised system and is also responsible for performing calculations. The processing algorithms are executed mainly on the CPU, and the embedded system provides compact structure; moreover, the physical footprint of the system is smaller, which is advantageous in laboratory environments. Consequently, the proposed architecture is considered to be a step ahead of third-generation CASA systems, which is the primary novelty of this work. The proposed semen analysis system is implemented on a real-time operating system (RTOS) that also manages the embedded system with reconfigurable hardware for preprocessing and CPU for processing the executable parts of the algorithm. For sperm detection and tracking, the multiple moving object tracking system (MMOTS) algorithm is developed, which is the second novelty of this work. In terms of object detection, the background subtraction method is used for segmentation in MMOTS. The MMOTS approach is suitable for the selected architecture and imposes less computing load to achieve fast responses, which are crucial for real-time processing. Cellular neural network templates are used and experimented in the preprocessing part of the proposed system, where image-processing steps such as convolution, segmentation, and point representation are applied. This thesis begins with a brief introduction to sperm biology, semen analysis, sperm morphology and motility, and evolution of CASA systems. While the proposed work addresses motility analysis, the developed software also allows segmentation of static images to specify the head, nucleus, mitochondrial part, head shape, and size of the sperm as medical parameters. The algorithms, which are designed by considering computations on heterogeneous computing platforms, was next implemented on recent and state-of-the-art reconfigurable hardware. These hardware are commercially available and contain up-to-date components with reasonable prices. The complete system was realized on an NI CompactRIO 9030 hardware integrated with a microscope and available for medical tests as a prototype. The experimental work on human sperm samples were conducted at the Ege University Faculty of Medicine, İzmir, Turkey and Gelişim Tıp Laboratory, İstanbul, Turkey. The existing CASA system in Gelişim Tıp Laboratory was examined, and some experiments were carried out; the videos of these samples were obtained and examined in our preliminary and simulation studies. With respect to Ege University, the results of the proposed system are compared with those from manual inspections. In the manual assessments, the classifications were performed using the Makler camara (counting chamber), and the results of the proposed system were found to be 100% similar to those from manual assessments. The motility parameters, such as average progressive velocity VAP and curvilinear velocity VCL, can only be estimated roughly from manual assessments, but the results from the proposed system were deemed to be acceptable by the biologists in the laboratory. Experimental investigations were also performed on animal sperm samples at İstanbul University's Faculty of Veterinary Medicine, and the results of the proposed system were found to be approximately 80% compliant with those of the existing system in the laboratory. These variations are attributed to parameter settings; the parameters were roughly set to enable inspection of the effects of parameter values on the results, besides test result comparisons. The proposed system is flexible and hardware-based, so that different biological imaging applications could be deployed on it in the future. Eventually, the goal of this study is to achieve an intelligent biological analysis system.
-
ÖgeDerin obje sezicilerle tümleştirilmiş bayesçi filtreleme ile videoda obje izleme(Lisansüstü Eğitim Enstitüsü, 2021) Gürkan Gölcük, Filiz ; Günsel Kalyoncu, Bilge ; 691735 ; Elektronik ve Haberleşme MühendisliğiGüvenlik, hareket ve aktivite tanıma, robotik uygulamaları ve daha birçok uygulamada gerek duyulan obje izleme, belirlenen bir veya daha fazla hedef objenin konumunun video boyunca kestirilmesi olarak tanımlanır. Uzun yıllardır bu alanda yapılan çalışmalar, izleme başarımını arttırmanın yanı sıra, örtüşme, deformasyon, ölçek ve görünüm değişimi gibi izlemeyi zorlaştırıcı etkilere karşı gürbüz algoritmalar geliştirmeyi amaçlamaktadır. Tez çalışması kapsamında, üretici ve ayırıcı yöntemlerin entegre edilmesine olanak sağlayan obje-sezme-ile-obje-izleme (tracking-by- detection - TBD) yaklaşımı altında, IDPF-RP, L1DPF-M ve TDIOT olarak adlandırılan, üç farklı obje izleyici önerilmiştir. Önerilen tüm izleyicilerde, tek obje izleme problemi üzerinde yoğunlaşılmakta ve objenin son konumu, Bayesci filtreleme tabanlı bir obje izleyici bir derin obje sezici ile tümleştirilerek kestirilmektedir. Derin obje sezici olarak yüksek lokalizayon doğruluğuna sahip Mask R-CNN sezici kullanılırken, Bayesçi filtrelemede hedef obje modellemede başarılı olduğu gösterilen renk-tabanlı parçacık filtreleme ve seyrek parçacık filtreleme kullanılmaktadır. İzleyicilerin bir diğer ortak noktası, kullanılan derin obje sezicinin izleme amacıyla yeniden eğitilmesini, ya da izleyicinin uçtan-uca yeniden eğitimini gerektirmemeleridir. Böylelikle etiketlenmiş izleme verisi olmaması durumunda çalışabilen, çevrim dışı eğitim yükünü en aza indiren, çok farklı derin obje sezicilerin farklı omurga mimarileri ile tümleştirilebilmesine olanak sağlayan obje izleyicilerin gerçeklenmesi hedeflenmiştir. IDPF-RP (Interleaving deep learning and particle filtering by region proposal suppression), VRCPF obje izleyici ile senkronize çalışan Mask R-CNN obje sezici kararlarını tümleştiren yeni bir karar tümleştirme mekanizması sunmakta, bu sayede objenin son konumu, izleyici ve sezici arasındaki karar birliğini enbüyükleyecek şekilde belirlenmektedir. IDPF-RP lokalizasyon hizalama katmanı (LH), Mask R-CNN sezicinin ölçek değişimlerine uyumluluk ve lokalizasyon doğruluğu avantajı ile VRCPF izleyicinin hedefe lokalize olma özelliğinden yararlanan bir tümleştirme gerçekler. Bu sayede izleme performansını doğrudan etkileyen aday obje BB'lerinin, içeriğe bağlı olarak değişen sayıda ve yüksek lokalizasyon doğruluğu ile örneklenmesi sağlanabilmekte, böylelikle izleme sürekliliği arttırılmaktadır. IDPF-RP, derin obje seziciden alınan geri besleme ile, hedef obje modelini güncelleyerek ölçek, ışıklılık ve görünüm değişimleri gibi obje izlemeyi zorlaştıran problemlere karşı gürbüzlüğü arttırmaktadır. Tez kapsamında önerilen bir diğer obje izleyici, L1DPF-M, Mask R-CNN derin obje sezici ve seyrek parçacık filtresini TBD yaklaşımı altında entegre eden yeni bir model sunmaktadır. Hedef obje modellemede kullanılan seyrek gösterim, derin obje sezicinin kılavuzluğunda güncellenerek, örtüşme, bakış-açısı değişimi gibi etmenlerden kaynaklanan obje görünüm değişikliklerine karşı gürbüzlük arttırılmaktadır. L1DPF-M, önerilen yeni PF gözlem modeli sayesinde, sezici ve izleyici arasında fikir birliğini ön plana çıkararak hedef objenin son konumunun daha doğru kestirilmesine olanak tanımaktadır. Bunun yanı sıra, L1DPF-M kapsamında önerilen yeni durum vektörü ile, obje hareketinin öteleme, dönme, ölçekleme ve kırpma olarak farklı komponentlerle modellenebilmesi bu sayede obje sınırlarının deforme BB'ler ile izlenebilmesi ve lokalizasyon doğruluğunun arttırılması sağlanmıştır. L1DPF-M, Mask R-CNN çıkışında elde edilen ve objeye piksel bazında erişim sağlayan bölütleme maskelerini kullanarak, izlemenin afin dönüşümlere gürbüzlüğünü arttırmaktadır. Tez kapsamında geliştirilen üçüncü obje izleyici, TDIOT, videodaki zamansal bilginin 3B CNN, LSTM ve benzeri mimariler kullanılmaksızın, işlem yükü çok arttırılmadan modele katılmasını amaçlamaktadır. IDPF-RP ve L1DPF-M den farklı olarak mimarisinde yalnızca PF izleyicinin parçacık örnekleme modülünü içerir ve hedefin son konumunun kestiriminde derin obje seziciye öncelik verir. Literatürdeki birçok derin izleyiciden farklı olarak, sezici eğitiminde kullanılan mimarinin izleme amacıyla transfer öğrenme ile yeniden eğitilmesini, ya da uçtan-uca yeniden eğitimini gerektirmez. Önerilen çıkarım mimarisinde Mask R-CNN aday bölge öneri katmanına eklenen parçacık örnekleyici, objenin geçmiş çerçevelerdeki konum bilgisini kullanarak, objeye uyumlu ölçek ve boyutlarda aday obje bölgelerinin önerilmesine olanak vermektedir. Öte yandan tepe katmanına eklenen "Benzerlik Eşleme" ve "Yerel Arama ve Eşleme" katmanları ile siyam benzerlik kriterine dayalı veri ilişkilendirme gerçeklenir. TDIOT obje izleyicinin obje giriş çıkışlarının da olduğu uzun süreli izleme isterlerini karşılaması amacıyla, yerel ikili örüntü tabanlı bir hedef-obje-doğrulama katmanı izleme mimarisine eklenmiş, uzun süreli izleme başarımının arttırıldığı gösterilmiştir. TDIOT doğrulama katmanının, insan, araba ve benzeri belirli objeler için eğitilmiş yeniden yakalama ağları ile değiştirilmesiyle, daha yüksek işlemsel karmaşıklığa karşın, obje doğrulama başarımının arttırılması olanaklıdır. Önerilen yöntemlerin başarımı literatürde sıklıkla kullanılan VOT ve VOT-LT veri tabanlarına ait videolar üzerinde raporlanmaktadır. Her üç yöntem için güncel izleyiciler ile karşılaştırmalı olarak sunulan izleme performansları, önerilen izleyicilerin lokalizasyon doğruluğunu önemli ölçüde arttırdığını göstermektedir. VOT2016 veri setine ait videolarda yapılan performans raporlamaları, IDPF-RP ve L1DPF-M ile güncel izleyicilere kıyasla sırasıyla \%7 ve \%6 daha yüksek başarım oranına (IoU-th=0.5) ulaşıldığını göstermektedir. Ayrıca, TDIOT ile lokalizasyon doğruluğunun (accuracy), VOT2016'nın en yüksek başarımlı izleyicisine göre \%3 oranında arttırıldığı, TDIOT-LT ile uzun süreli videolarda, literatür ile karşılaştırılabilir izleme performansına ulaşıldığı raporlanmaktadır. Bunun yanı sıra, izleme performansı her bir zorluk kategorisi için ayrı olarak analiz edilmiş ve önerilen izleyicilerin birçok zorluk durumunda izleme performansını arttırdığı gösterilmiştir. VOT2018 veri setine ait videolarda yapılan testler, IDPF-RP izleyicinin, ölçek değişimi içeren videolarda başarım oranını \%4, L1DPF-M izleyicinin, ışıklılık değişimi içeren videolarda başarım oranını \%5 oranında arttırdığını göstermektedir (IoU-th=0.5). Öte yandan, TDIOT obje izleyici, özellikle ışıklılık ve ölçek değişimine karşı gürbüzlüğü arttırarak, izleme doğruluğunu sırasıyla \%4 ve \%2 oranında iyileştirmektedir. TDIOT-LT ise bakış açısı değişiminin olduğu uzun süreli videolarda en yüksek izleme başarımına ulaşmaktadır.
-
ÖgeGörüntü işlemede yama sıralama tabanlı yaklaşımlar(Lisansüstü Eğitim Enstitüsü, 2021) Çolak, Özden ; Ekşioğlu, Ender Mete ; 692961 ; Elektronik ve Haberleşme MühendisliğiGörüntülerde gürültünün en temel bozucu etki olması, gürültü gidermeyi görüntü işleme problemlerinin en önemlilerinden ve üzerinde en çok çalışılanlarından birisi haline getirmektedir. Bu tez çalışmasında öncelikle, literatüre yakın zamanda girmiş olan yama sıralama işlemi ve seyrekleştirici üç boyutlu dönüşümlerin ilk defa sunulan öncül bir birleşimi geliştirilmiştir. Sunulan yeni yaklaşımı kullanan yeni bir görüntü gürültüsü giderme algoritması geliştirilmiştir. Ayrıca tez çalışmaları kapsamında yama sıralama işleminin ve bilinen üstün başarımlı çevrimiçi sözlük öğrenme algoritmalarından olan RLS-DLA algoritmasının özgün bir birleşimi ile yeni bir yaklaşım geliştirilmiştir. Bu yeni yaklaşımı esas alan yeni bir gürültü giderme algoritması geliştirilmiştir. Böylelikle yama sıralama yaklaşımının kullanımının görüntü işleme uygulamaları arasında bu alanda da başarım performansına katkı sağladığı gösterilmiştir. Günümüz teknolojisinde dijital kameralar ve görüntüleme özelliğine sahip cep telefonları görüntü elde etmede kullanılan teknolojik cihazların başında gelir. Bu cihazlardaki dijital kameralar ile görüntü oluşturulurken hem görüntünün alındığı ortamdaki ışıktan kaynaklı hem de ilgili teknolojik cihazların elektronik donanımlarından kaynaklı gürültüler bozucu etki olarak görüntülere eklenirler. Bu gürültüleri birkaç ana başlık altında inceleyebilmek mümkündür. Dijital kameralar ile görüntüsü oluşturulacak objeden yansıyan ışık demetleri toplanıp elektriksel işarete dönüştürülürken çeşitli gürültüler meydana gelir. Bunlardan bir tanesi kameranın elektronik devresinde kullanım süresine bağlı olarak artan ısıl gürültüdür ve bu gürültünün şiddeti ihmal edilebilir derecede düşüktür. Görüntü oluşturma sürecinde ortaya çıkan bir diğer gürültü ise saçma gürültüsüdür. Bu gürültü, görüntüsü elde edilmek istenen nesneden yansıyan ışık demetlerinin kamera sensörlerine eşit şekilde saçılmamasından dolayı oluşur ve etkisi ihmal edilemeyecek kadar yüksektir. Bu sebepten dolayı kameralar ile elde edilen görüntüler mutlaka gürültülü olacaktır. Saçma gürültüsü Poisson dağılımına sahip olsa da kamera sensörüne çok fazla sayıda foton gelmesi durumunda bu dağılım Gauss dağılımının olasılık yoğunluk fonksiyonuna yakınsar ve böylece görüntülerdeki gürültünün Gauss dağılımlı olduğu varsayılır. Ayrıca kamera sensörlerinin her birinde yığınlanan foton sayısı birbirinden bağımsız olacağından dolayı görüntülerdeki gürültü uzaysal olarak ilintisiz olur. Sonuç olarak elde edilen görüntülerdeki gürültü sıfır ortalamalı, birbirinden bağımsız ve özdeş dağılmış Gauss olarak bir başka deyişle beyaz Gauss gürültüsü (white Gaussian noise-WGN) olarak kabul edilir. Son yıllarda seyreklik tabanlı işaret işleme oldukça aktif bir araştırma konusu olmuştur. Kötü koşullu ters problemlerin çözümünün doğrudan bulunamadığı pek çok uygulamada, çözüme olanak veren bir düzenleyici olarak seyreklik öncül bilgisi başarıyla kullanılmaktadır. Seyreklik düzenlemeli işaret gösterilimi probleminin çözümünde etkin yeni algoritmaların geliştirilmesi sayesinde, seyreklik odaklı işaret işleme ve sıkıştırılmış algılama yaygınlaşmakta ve kullanım alanları genişlemektedir. Seyrek işaret gösterilimini kullanan uygulamalar arasında görüntü işleme problemleri önemli yer tutmaktadır. Görüntülerde gürültü giderme seyrek işaret işlemedeki gelişmelerden önemli ölçüde faydalanmaktadır. Görüntü işleme literatüründe tüm görüntüyü tek seferde işleyen birçok çalışma sunulmuştur. Global görüntü işleme yaklaşımlarının baskın doğası gereği tüm görüntüyü bir seferde işlerken görüntüdeki yerel detaylar kaybolur. Bundan dolayı da işlenmiş görüntülerde bazı sahte periyodik desenler oluşabilir. Bu probleme engel olmak için görüntüyü kayan pencereler şeklinde ele alan yerel filtreler kullanılır. Bu sayede görüntünün tümü aynı anda işlenmektense yalnızca pencere boyutu kadarlık kısmı aynı anda işlenir ve sonuç olarak görüntüdeki yerel detaylar korunmuş olur. Bu yaklaşımda görüntünün her bir pencere boyutu kadarlık kısmı birbirinden ayrı olarak ele alınır ve çoğu zaman kayma miktarı örtüşmeli yamalar oluşturacak şekilde seçildiğinden bir pikselin birden fazla sayıda kestirimi oluşabilir. Dolayısıyla bir piksele uygulanan en son güncellemeden sonra daha eski kestirimlerdeki bilgiler kaybedilmiş olur. Yerel filtreler kullanılırken bir piksele ait son kestirim oluşturulurken o piksele ait her bir kestirimin ortalaması alınarak bu sorun giderilmiş olur. Doğal görüntülerdeki birçok piksel birbirine benzer olduğundan dolayı bu piksellerden oluşan küçük boyutlu yamaların da birbirine benzer olduğu varsayılır. Bu öz-benzerlik özelliğinin kullanımı ile görüntü işleme uygulamalarının temiz görüntünün dokusunu kestirme performansı önemli ölçüde artmıştır. Bundan dolayı bu performans artışından yararlanmak için birçok yama tabanlı gürültü giderme algoritmaları geliştirilmiştir. Bu performans artışının temelinde görüntünün farklı yamaları arasındaki ilişkiden doğan bilgileri kullanmak yatar. Yaroslavsky filtre, ikili filtre gibi piksel komşuluklarını kullanan klasik yerel filtrelerde bir referans yamanın merkezindeki pikselin yeni değeri kestirilirken bu pikseli çevreleyen pikselleri merkez alan yamalar kullanılır. Yerel metodların aksine yerel olmayan metodlarda ele alınan referans yamanın çevresinde olmasa dahi görüntünün belli bir komşuluğundaki diğer yamalarda kullanılır. Görüntülerde yerel olmayan fakat birbirine benzer olan yamaları bir arada işleyebilme yetisi performansta oldukça yüksek artış sağlar. Son yıllarda yama tabanlı metodların oldukça yeni sayılabilecek bir örneği olan yama sıralama yaklaşımı farklı görüntü işleme uygulamalarında kullanılmıştır. Bu yaklaşım bir görüntüdeki yamaların belli bir örtüşme miktarına göre çıkarılıp bir benzerlik kriterine göre art ardına sıralanmasına dayanır. Kullanılacak olan benzerlik kriteri olarak birçok farklı metrik vardır. Yine de en çok tercih edilen benzerlik kriteri Öklid uzaklığıdır. Birçok çalışmada referans bir yamaya benzer olan diğer yamaları arama işlemi belli bir alanda olacak şekilde kısıtlanmıştır. Yama sıralama yaklaşımında bir benzerlik kriterine göre benzer bulunan yamalar art ardına dizilerek bir 3B yama dizisi oluşturulur. Ardından elde edilen bu 3B yama dizisine basit bir 1B filtresi uygulanır. Literatüre son yıllarda girmiş olan ve performans olarak son teknoloji sayılan gürültü giderme algoritması BM3D (Block Matching-3D Transformation) sunulmuştur. Bu yöntemde seyrekleştirici 3B dönüşümlerin benzerliklerine göre gruplanmış yama gruplarına uygulanması önerilmiştir. Görüntüden çıkarılan her bir yama için bu referans yamaya benzeyen yamalardan oluşan bir grup oluşturulur. Bu yaklaşımdaki üstün seyrekleştirme gücü birbirine benzer olan 2B yamaların bir grupta biraraya getirilerek 3B yama dizisi oluşturulmasından gelir. Buradaki üçüncü boyut yamalar arasındaki benzerlik bilgisini taşır. Algoritma bu 3B yama dizisinin 3B dönüşümü, elde edilen dönüşüm katsayılarının dönüşüm bölgesinde eşiklenmesi ve ters dönüşüm işlemleri ile devam eder. Bu işlemler sonunda elde edilen ara kestirimi bir Wiener filtreleme adımında kullanarak gürültüsü giderilmiş görüntünün son kestirimi elde edilir. Burada Wiener filtreleme adımının kullanımı ile performansta önemli ölçüde gelişme sağlanmıştır. Fakat her bir yamanın benzerlerinin bulunup gruplandığı benzerlik araması adımı oldukça yüksek hesapsal karmaşıklığa sahiptir. Bu tez çalışmasında ilk olarak, yama sıralama ile seyrekleştirici dönüşümlerin birleştirilmesi ile yerel olmayan görüntü işleme için yeni bir yaklaşım geliştirilmiştir. Literatürdeki öncül çalışmalarda, sıralama sonrası yamalar üzerinde sıradan süzgeçleme işlemleri yapılarak gürültü giderilmesi önerilmiştir. Bu yeni yaklaşımda ise gürültü gidermede literatürde önerilen sıradan süzgeçleme yerine, 3B seyrekleştirici dönüşümlerin kullanılması önerilmiştir. Bu yaklaşımda, yama sıralamanın getirdiği yerel olmayan işlem yapma yetisi, 3B dönüşümlerin üstün seyrekleştirme gücüyle birleştirilmiştir. Yapılan çalışmalarda bu birleştirici yaklaşımın görüntü gürültüsü giderme uygulamasında öncül algoritmalara göre daha iyi sonuçlar verdiği görülmüştür. Ayrıca bu tez çalışmaları kapsamında yama sıralama işlemi bir çevrimiçi sözlük öğrenme yaklaşımına adapte edilerek yeni bir gürültü giderme algoritması daha geliştirilmiştir. Literatürde sunulan çoğu çalışmada çevrimiçi sözlük öğrenme algoritmaları gürültü giderme problemine genellikle daha yüksek performans sergilediğinden dolayı yamalar üzerinden uygulanmıştır. Bu çalışmalarda yamalar ele alınırken görüntü içerisindeki doğal sıraları esas alınmıştır. Bu tez çalışmasında önerilen yeni yaklaşımda ise, yamaların görüntüdeki konumlarından gelen doğal sırasından ziyade bir kısıta göre sıralanmasından elde edilen yeni bir sıralama esas alınarak özgün bir çevrimiçi sözlük öğrenme gerçekleştirilmiştir. Önerilen bu algoritmadaki bir diğer yenilik ise sözlük öğrenme işlemi ile yamaların gürültü giderme işleminin eşzamanlı olarak gerçekleştirilmesidir. Böylelikle, öğrenilen sözlüğün yerel yamalara daha iyi adapte olması sağlanmış ve bu yaklaşımın görüntü gürültüsü gidermede daha iyi sonuçlar elde ettiği gösterilmiştir.
-
ÖgeApproximate artificial neural network hardware aware synthesis tool(Lisansüstü Eğitim Enstitüsü, 2021) Nojehdeh, Mohammadreza Esmali ; Altun, Mustafa ; 692582 ; Elektronik ve Haberleşme MühendisliğiIn the previous decade, artificial neural networks (ANNS) have attracted considerable attention from researchers in many areas and have become a favorite method; from business to aerospace applications. We live in the information age where this information feeds artificial intelligence (AI). According to Forbes' estimate, over the last two years alone 90 percent of the data in the world was generated. At first glance, processing more information may seem like a dissipation of more power in central processing units(CPUs) and graphic processing units (GPUs) or spending more time to obtain the results, but for the portable systems due to limitations in battery capacity, power, and hardware area limitations, different concerns emerge. For example, less consumption of energy is vital to extend the battery supporting time for mobile devices. The problem starts to be bold when software engineers regardless of the hardware sources (especially for portable devices) develop different ANNs architecture, where they intend to achieve a network with the best performances. Similarly, hardware engineers' AI knowledge is limited and any change within hardware design in lack of this knowledge may yield a catastrophic defect in the expected performance. As a result, this uninformed state yields a gap between the hardware and software sides of ANNs. The emerged gap provides a pitch to hardware and software researchers to play their best performance, where more information about the rival side makes their performance more eye-catching. By obtaining this gap, the co-design method or hardware-aware training methods become prevalent recently. The object of this dissertation is also to develop a methodology to realize the ANNs with minimum hardware cost by regarding the software performance. Limitation in hardware cost, consumed energy, and dissipated power for devices leads designers to find new architectures and approaches. Approximate computing is one of them, where this method is an useful technique for error essence systems. By leveraging the approximate level, a trade-off between the output accuracy and hardware cost is attainable. For example, assume a 1-bit exact adder costs 18 transistors, and by removing 3 transistors, a new approximate adder by 15 transistors is achievable, but the new approximate adder generates inexact results when the input is $(0,0)$, and suppose that the results for the rest set of the inputs$((0,1),(1,0),(1,1))$ are correct. Therefore, the approximate adder saves 3 transistors at the cost of 1 inexact result. Generally, approximate computing is apple of designers' eye in applications with error tolerance capability, consequently, error tolerance inherence of ANNs nominates approximate computing as a potential method to reduce the hardware complexity of ANNs. Since multipliers and adders are fundamental building blocks of ANNs, in this thesis, by introducing novel approximate multipliers and adders we replace them with exact adders and multipliers. As mentioned earlier, approximate computing is a trade-off between accuracy and hardware cost, to adjust this trade-off, we synthesized the proposed approximate blocks based on the desired error metric. Also, we proposed an equation to calculate the mean absolute error of the introduced approximate multiplier and adders. Based on our best knowledge, the proposed approximate blocks are the only ones which are synthesized based on the mean error value. In next step, we introduced a new error metric called the approximate level to evaluate the performance of the proposed approximate blocks in ANNs. On the other hand, ANNs are made up of a lot of multipliers and adders, where the search space for the best combination of these blocks grows with the increase of bit-width or neuron numbers. To tackle this problem and by exploiting the proposed error metric, we introduce a new search algorithm to find the appropriate combination of the approximate and exact versions of the arithmetic blocks by taking into account the expected accuracy of ANNs. Also, in this thesis we realized ANNs under different synthesis techniques to obtain the pros and cons of each approach. Since the parallel architecture requires a large area we considered the time-multiplexed architecture as the main architecture method, where computing resources are re-used in the multiply-accumulate (MAC) blocks. As an application, the MNIST and Pen-digit database are considered. To examine the efficiency of the proposed method, various architectures and structures of ANNs are realized. Our experimental results show that exploiting the proposed approximate multipliers yields smaller area and power consumption compared to those designed using previously proposed prominent approximate multipliers. Also, according to these results, concurrent use of approximate multipliers and adders provides remarkable results in terms of hardware cost, where we obtain $60\%$ and $40\%$ reduction in energy consumption and occupied area of the ANN design with the same or better hardware accuracy compared to the exact adders and multipliers. To demonstrate the proposed method's scalability, we propose an efficient method to realize a convolution layer of convolution neural networks (CNNs). Inspired by the fully-connected neural network architecture, we introduce an efficient computation approach to implement convolution operations.
-
ÖgeDesign and implementation of high power GaN amplifiers with nonlinear optimization techniques(Lisansüstü Eğitim Enstitüsü, 2021) Kouhalvandi, Lida ; Özoğuz, İsmail Serdar ; 671561 ; Elektronik ve Haberleşme MühendisliğiIn this thesis new and novel optimization methodologies will be prepared to design nonlinear circuits operating at high frequencies. These novel methods can be used to optimize circuits with realistic models and process design kits (PDKs). Thus, nonlinear and complex power amplifiers with wide-band and high-efficient specifications can be designed by applying the proposed optimization algorithms. The developed script runs on a computer and manages the nonlinear simulator and numerical analyzer to optimize the challenging nonlinear circuit design problems regarding the design rules and conditions set by the designer and requirements. The proposed optimization algorithms are implemented in an automated environment with the combinations of electronic design automation (EDA) tool such as ADS and numeric analyzer as MATLAB. This process decreases the dependency to any designer's experience and without any human interruption all the optimization process is performed automatically. Power amplifiers (PAs) consisting of Gallium Nitride (GaN) high electron mobility transistors (HEMTs) will be designed with the proposed optimization algorithms. The PAs' efficiency, gain response, linearity, and bandwidth will be optimized to achieve high performance results regarding the reported studies. The PAs operate at saturation mode and nonlinear region; hence, high dimensions of variables are achieved. EDA tools such as ADS, AWR, etc. include nonlinear optimizations and are successful tools in optimizing circuits; however, additional powerful optimizations are required to deal with large amount of data. Also, the commercial EDA tools face with the problems when the unreliable nonlinear models are used during the optimization process.Therefore, a need for the new simulation environment that is the combination of the EDA tool and numerical analyzer becomes essential. Regarding to the difficulties in commercial EDA tools, it becomes necessary to propose an optimization strategy suitable for nonlinear circuits to be reliable for simulating nonlinear models and also able to challenge many trade-offs of high power amplifiers (HPAs) such as efficiency, linearity and gain flatness. The scope of the proposed methods are based on scrip development for two processes: i) a scrip to control nonlinear simulator (ADS) and numerical analyzer (MATLAB), ii) algorithms to optimize the circuit parameters. These algorithms result in high performance PAs in terms of efficiency, output power, gain, and linearity. The used transistor model is GaN technology due to the several advantages for radio frequency (RF) circuits such as high power density, high thermal conductivity, large breakdown voltage, and good reliability. This technology is suitable for future applications of radar and fifth generation (5G) systems. The importance of this work is divided in to four sections: 1) Providing an automated environment that is a reliable simultaneous co-operation of EDA tool (ADS) and mathematical analyzer (MATLAB); 2) Proposing novel optimization strategy based on intelligent algorithms for RF nonlinear circuits results in best high performance; 3) Substituting the proposed novel optimization technique to the automated environment; and 4) Optimizing the whole PA designs automatically and comparing the results of fabricated PAs with the simulation outcomes.
-
ÖgeMicrowave dielectric property characterization with open-ended coaxial probe and sensing depth analysis of the probes for biological tissues(Lisansüstü Eğitim Enstitüsü, 2022) Aydınalp, Cemanur ; Abdolsaheb, Tuba Yılmaz ; 725335 ; Elektronik ve Haberleşme MühendisliğiInherent dielectric property discrepancy at microwave frequencies between the healthy and malignant tissues enabled many different microwave diagnostic technologies among these microwave breast cancer imaging, microwave hyperthermia, and microwave ablation are popular research topics. To develop and test such technologies the dielectric properties of the biological tissues must be quantified. This is mostly done with the open-ended coaxial probes in the laboratory environment due to advantages of the technique including but not limited to minimal sample preparation requirements, commercial availability and broadband measurement capabilities. Despite being commercially available, the technique suffers from high error rates and remains overlooked as a potential diagnostic technology. The error sources can be categorized as the sample and equipment related complications. The sample related error sources can be mitigated via the selection of an appropriate probe for dielectric property characterization. Particularly, biological tissues are known to be heterogeneous contributing to the high measurement error due to sample. Hence, it is important to analyze the sensing depth of the probes under different conditions including using samples with varying dielectric properties and probes with different aperture diameters. Next, the equipment related errors mostly due to the mathematical approach which can potentially be diminished via the introduction of new retrieval methodologies. Towards this end, in an attempt to enable diagnostics applications of the open-ended coaxial probe technique, this thesis focuses on the improvement of the two shortcomings by sensing depth characterization and introducing a deep learning based model for dielectric property retrieval. In the first part of the thesis, sensing depth analysis of the 2.2 mm diameter open-ended coaxial probe was performed using two different double-layered configurations to mimic the tissue heterogeneity. The double-layered configurations are used to mimic the heterogeneous skin tissue in order to establish the potential use of the open-ended coaxial probe method for skin cancer diagnosis. To this end, the sensing depth analysis was performed via simulations and measurements. The double-layered sample configurations are composed using skin-mimicking phantom and olive oil or triton X-100 liquids. In addition, the experiments were carried out by following a newly proposed measurement protocol, which can be easily applied to any tissue type. The results show that the sensing depth was independent of the frequency of operation (0.5-6 GHz) and was affected by the following conditions: by the material located immediately at the probe tip, and by the dielectric property contrast between the two layers. Thus, in order to accurately obtain dielectric property measurement results using the open-ended coaxial probe method, there is a need to establish a pre-measurement protocol to minimize the error due to the skin tissue diversity. The second part of thesis reports the sensing depth analysis of the open-ended coaxial probe for ex vivo experiments on real heterogeneous tissue. The knowledge on the sensing depth of the probe can help eliminate the errors due to tissue heterogeneity. Accurate classification of tissues with similar dielectric properties can be obtained by minimizing the measurement errors. Therefore, this method can be applied in practical applications, such as microwave biopsy. In this work, double-layered sample configuration consisting of an ex vivo rat's breast or wet skin as first layer and pure liquids olive oil or triton X-100 as second layer was utilized to perform the sensing depth analysis of the probe from 0.5 to 6 GHz frequency range. A straight forward, adoptable experimental protocol was established and employed in this study. The analysis was performed by determining five different the percent change in measured dielectric property values. The results indicate a discrepancy of 52%-84% of the measured dielectric property when a membrane layer (between 0.4-0.8 mm thickness) was present on the wet skin tissue and breast tissue. The aim of the third part of this thesis is to analyze and to specify the sensing depth of the open-ended coaxial probe in order to employ the appropriate probe aperture dimension for any given measurement set-up. The proposed method has the potential to reduce the errors due to tissue heterogeneity for skin cancer diagnosis. This work presents the sensing depth comparison of three different probes with different aperture sizes. Simulations of the probes with 0.5, 0.9 and 2.2 mm-diameters terminated with a double-layered skin tissue and olive oil sample configuration were performed. It should be noted that probes with different aperture diameters were investigated in the literature but no information was reported on probes with small aperture sizes. An experimental validation of the simulated scenario was performed with the 2.2 mm-diameter probe and the fully developed double-layered configuration. The acquired simulations and experimental results indicate a proportional relation between the sensing depth and the aperture of the probe. From this relation, it can be concluded that probes with smaller aperture size can possibly help to obtain more precise results from the heterogeneous tissues which can lead to the accurate characterization of thin skin tissue layers. In order to obtained more accurate results especially for tissues with multi-layered structures or membrane-like layers, it is recommended to a establish measurement protocols to prepare the surface of the tissue. In the fourth and last part of the thesis, a novel approach for the determination of material dielectric properties from the reflection coefficient response of the open-ended coaxial probe is proposed. This technique retrieves the Debye parameters of the material under test using a deep learning model which is trained with numerically generated data. The ability to train the deep learning model with synthetic data provide the advantage of rapid generation of a large variety of materials as a dataset. Additionally, the presented method can be easily adapted to any type of probe with desired dimensions and materials. An experimental verification of the trained deep learning model was performed by testing the network with measured reflection coefficients obtained from five different standard liquids, four mixtures, and a gel-like material. A comparison of the acquired results from the deep learning model with literature values is also performed. Finally, a large-scale statistical verification of the retrieved dielectric property from the proposed technique is presented.
-
ÖgeDevelopment of application specific transport triggered processors for post-quantum cryptography algorithms(Graduate School, 2022-10-18) Akçay, Latif ; Yalçın Örs, Sıddıka Berna ; 504152210 ; Electronics EngineeringAlthough initially only at the level of theoretical studies, many quantum computer development projects have been carried out in recent years. The promising results so far and the competition among companies indicate that number of such studies will increase even more. Quantum computers are not yet close to becoming a part of our daily lives in the near future. However, it is most likely that they will be used much more widely in certain areas. In particular, search, optimization and factorization problems can be solved by quantum computers much more faster than classical computers. Thus, operations such as big data analysis, machine learning or multivariate simulations can be performed in reasonable time. This is a valuable process for the advancement of science and technology. On the other hand, public key cryptography is under serious threat against quantum computer attacks. Because most of the commonly used algorithms are based on the hardness of the factorization problem. However, this may not be the case for quantum computers. Therefore, NIST initiated Post-Quantum Cryptography Standardization Process to develop quantum-resistant algorithms. Currently, this process has reached the final stage and there are four key encapsulation mechanisms and three digital signature methods. Just as important as the security of an algorithm is that it can be implemented and run efficiently. Especially in embedded systems, low power consumption and small chip area are fundamental requirements that must be met for a sufficient performance level. Application-specific processor designs are often needed to accomplish such demands. This study proposes suitable processor architectures for quantum-resistant Lattice-based Cryptography algorithms in the final stage of the NIST standardization process. For this purpose, it compares widely used Reduced Instruction Set Computing methodology with Transport-Triggered Architecture. Strengths and weaknesses of the both techniques are analyzed through test results of open source sample designs. This work also suggests application-specific cores with various custom operations. In addition, the difficulties in processor development process and possible solutions are evaluated. In the introduction, the mathematical background of the lattice-based algorithms and the principal computation approaches of the both architectures are presented. Several comparisons for various cores are shared in the next sections. After that, the design methodology of custom operations and obtained FPGA and ASIC results are given. Finally, possible future improvements are evaluated.
-
ÖgeStochastic bitstream-based vision and learning machines(Graduate School, 2022-10-21) Aygün, Sercan ; Güneş, Ece Olcay ; 504152207 ; Electronics EngineeringStochastic computing (SC), a paradigm that dates back to the 1960s, has re-emerged in the last decade by being a tool for emerging technology development. SC adopts unconventional data representation encoding scalars (X) into binary streams. Unlike conventional binary radix, the cumulative values of the logic-1s and logic-0s in the bitstream with a probability Px are evaluated free from the bit position. Thus, SC provides simple circuits of complex functions (e.g., multiplication with a single AND gate) and soft error-tolerant (e.g., robust to bit-flips) systems. However, latency inevitably occurs because SC expresses bitstreams in long sequences size of N (512 bits, 1024 bits, etc.) for high accuracy. Although several solutions for latency in SC hardware systems have been described in the literature, the software simulation of the SC framework falls behind. Therefore, this doctoral thesis proposes the general framework of software-based SC simulations considering both latency and memory issues. This study also discusses the systematic view of SC-based image processing and proposes a new concept, namely the bitstream processing binarized neural network. The dissertation begins with an introduction presenting a short literature check, the purpose of the thesis, and the hypothesis with the major and minor contributions. Then, the background part presents basic SC concepts such as bitstream structure, scalar encoding techniques, correlation, random bitstream generation, SC building block elements, and arithmetic. A cascaded multiplexer (MUX) optimization algorithm is proposed for scaled additions of multiple operands. Also, a comprehensive survey on vision and learning machines is presented, examining previous efforts and exploring the dissertations in the last decade. The software-driven SC is further discussed by proposing the utilization of a contingency table (CT). The generation and processing of the lengthy SC bitstreams pose the simulation runtime and memory occupation problems. Considering that applications require intensive arithmetic operations such as artificial neural network (ANN), the problems become significant. To tackle these, scalar-only processing of CT is proposed. CT is set by two input scalars (X1, X2), bitstream cross-correlation, and bitstream length (N). The main objective is to reach the desired logic output using only the scalar values instead of generating bitstreams and processing bit-by-bit with logical operators. The CT holds the cumulative values of four logic pairs, 11, 10, 01, and 00, for any overlapping bits of the two bitstream operands. These cumulative values denoted as a, b, c, and d, respectively, are the CT primitives. The correlation value of the two non-generated bitstream operands sets the prior CT primitive, a, based on the stochastic cross-correlation (SCC) metric. CT is established for maximum (SCC = 1, a is maximum), minimum (SCC = -1, a is minimum), or near-zero (SCC ≈ 0, a is based on the proposed algorithm) correlation. Zero correlation is vital for the accuracy of some SC-based arithmetic operations (e.g., multiplying bipolar encoded bitstreams by XNOR). Therefore, three methods are proposed to set the 'a' prior primitive for near-zero correlation with an algorithm. After the determination of a, the proposed formulas define b, c, and d. The linear combination of CT primitives obtains each logical operator. (e.g., XNOR is a + d.) The CT emulates the entire hardware system in software via the proposed model of random number generators by including SC's built-in random fluctuation error. The random source models imitate Sobol low-discrepancy sequences, linear-feedback shift register (LFSR), and the binomial distribution. Also, CT can simulate all 2^(2N) Cartesian combinations of two input bitstreams; therefore, there is no need for random sampling like in the Monte Carlo simulation. Next, several image processing techniques on behalf of SC-based vision machines are discussed. The first is the reinterpretation of SC-based mean filtering for noise removal. The second is the Prewitt edge detector, a case study for inspecting the different levels of hardware approximations based on the MUX scaling factor. The plain design (PD) exhibits remarkable edge detection performance in the case of excessive noise. The third technique is template matching to detect finder patterns of quick response (QR) codes in a noisy environment. Pattern matching is accomplished by feeding a single AND gate with bitstreams, and SC achieves slight outperformance compared to the deterministic counterpart. As the first study of its kind, to the best of our knowledge, the two other algorithms, bilinear interpolation and image compositing, are synthesized with SC. Bilinear interpolation is a method of scaling the dimensions of images. It is proven that the hardware equivalent can be a simple 4-to-1 MUX fed by bitstreams. The last technique, image compositing, outputs a new composited image by combining the background and foreground images. It is proposed to obtain the composited image utilizing a simple 2-to-1 MUX via SC. Both techniques are verified with the help of CT. Bilinear interpolation and image compositing highlight another contribution in validating different random number generator models (Sobol, LFSR, and binomial distribution) on behalf of CT. Finally, this dissertation focuses on the adaptation of SC to learning systems. First of all, a single stochastic neuron is designed, and higher classification accuracy is achieved in early epochs when the neuron is trained with noisy data. Then, the mathematics behind the learning procedure of conventional multi-layer neural network architecture is reviewed. A fully-bitstream processing binarized neural network (BSBNN) is proposed in comparison with the traditional binarized neural network (BNN) architecture. BNNs express network weights and neuron activations with one bit; however, this causes a fragile structure against soft errors such as bit-flips occurring on emerging hardware and memory technologies. In traditional BNN, the neuron activation is +1 or -1, decided by subtraction from a threshold value (+1 is logic-1 and -1 is logic-0 in hardware). In our proposal, the power of bipolar encoding is used, and the neuron output is decided by checking the majority-minority balance of logic-1s or logic-0s in the pre-activation (S) bitstream. Since this control is performed simultaneously during accumulation (counter) via a masking logic, an additional activation module is not required. Thus, less hardware resource utilization is achieved (30% per neuron basis). In addition, a more efficient architecture against bit-flip errors is provided. The proposed architecture proves superior robustness over the conventional fragile BNN regarding image- and weight-based bit-flips. All four different networks are then tested: BNN, BSBNN, stochastic computing-based neural network (SCNN), and full-precision neural network (FPNN), having no quantization. Considering image-based corruptions (contrast, Gaussian blur, fog, speckle noise, zoom blur, etc.), different training scenarios are compared with and without the awareness of corruption in network training. The proposed BSBNN architecture exhibits comparable classification accuracy, and the importance of error-sensitive training in binary networks (BNN and BSBNN) is underscored. In the last section, the performance of the CT-based network simulation is finally unveiled. SC-based XNOR multiplications are present in the classifier part of a convolutional neural network (CNN) architecture. Emulating multiplication via CT results in a faster training runtime than the counterpart with actual bitstream processing. Training a bitstream processing neural network with actual bitstreams (with bit-by-bit processing) shows an exponentially increasing runtime as N increases. Conversely, CT-based simulation provides linear training runtime independent of bitstream length.
-
ÖgeEnergy-efficient hardware design of artificial neural networks for mobile platforms(Graduate School, 2023-03-09) Karadeniz, Mahmut Burak ; Altun, Mustafa ; 504162211 ; Electronics EngineeringDeep Neural Networks (DNNs), which have recently improved in accuracy and usefulness, are becoming more and more common in autonomous systems and diagnostic tools. These enhancements cost money, though. DNNs' exponential increase in energy consumption necessitates the development of novel methods for enhancing their energy effectiveness. Modern approaches to energy optimization combine the traditional computing paradigm with a variety of performance enhancement strategies. Memory partitioning, spatial mapping, energy-efficient multiplication, weight and input precision optimization, bit-serial computation, and MAC-based processing element management are a few of these methods. Although these strategies help with the energy crisis to some level, their complexity of use negates any benefits. An energy-efficiency solution can be using unary number system which simplifies arithmetic operations of the hardware processor such as multiplication and addition. However this representation has certain drawbacks for the hardware processor such as having shortage of rich random sources and latency problem. A real-time stochastic signal generator called STAMP is built to overcome the issues. STAMP has features of low hardware cost and generates high quality of random stochastic bit streams at high speeds in unary format. A new hybrid bit serial-parallel most significant bit (MSB-first) number representation is proposed, which is different from traditional techniques. Finding a number system that enables each parallel or serial line of the number, designated by m and n, to be handled separately or independently is the driving force behind the new number representation. The hardware space won't change with n and will only depend on m if the serial lines can run independently. If they do, the same hardware can be used repeatedly for each serial line. For use in DNNs, a brand-new hybrid processor dubbed TALIPOT is being proposed. When the desired accuracy is achieved, TALIPOT optimizes operational accuracy/energy point by chopping out bits at the output. Simulations using the MNIST and CIFAR-10 datasets show that TALIPOT outperforms the state-of-the-art computation techniques in terms of energy consumption. After developing TALIPOT, a computer aided design tool called TAHA is built to employ TALIPOT easily and efficiently on DNNs. TAHA presents an interface and complete guide for the users from training, testing and optimizing DNN hardware until prototyping it into SoC efficiently. Utilizing the algorithm/hardware cooperation and integrating TALIPOT hybrid processor, TAHA can readily offer a number of optimized DNN hardware deployment solutions for the user to select the optimal hardware configuration which maximizes the energy saving under accuracy constraint.
-
ÖgePerformance assessment of nonlinear active devices to design broadband microwave power amplifiers via virtual gain optimization(Graduate School, 2023-04-26) Kılınç, Sedat ; Özoğuz, İsmail Serdar ; Yarman, Bekir Sıddık Binboğa ; 504152206 ; Electronics EngineeringIn this thesis, we proposed a structured set of sequential procedures to design broadband microwave power amplifiers. A power amplifier is a major building block in transceivers for wireless communications. The output stage of a transmitter, amplifies the modulated electrical signal over a power amplifier connected to an antenna. To design solid-state microwave power amplifiers, active devices such as radio frequency (RF) power transistors are used. Nowadays, it is a common practice to employ Gallium Nitrate (GaN) transistors in RF power amplifier designs due to their high electron mobility and high-power delivering capacity. In practice, power amplifier design process starts with careful selection of the power transistor considering the design parameters such as the required output signal power to be delivered, drain/power-added efficiency of the amplifier, transducer power gain over the specified bandwidth, etc. Once the power transistor is selected, its nonlinear behavior is characterized by determining the optimum source-pull (SP) and load-pull (LP) impedances to design an RF power amplifier for optimum gain and efficiency. As they are obtained, these impedances may not be realizable network functions over the desired frequency band to yield the input and the output matching networks for the amplifier. Therefore, in this thesis, first, we introduce a new method to test if a given impedance is realizable. Then, a novel "Real Frequency Line Segment Technique" based numerical procedure is introduced to assess the gain-bandwidth limitations of the given source and load impedances, which in turn results in the ultimate RF power-intake and power-delivery capacity of the amplifier. During the numerical performance assessment process, a robust tool called "Virtual Gain Optimization" is presented. In the course of performance assessment process, a new definition called "Power-Performance-Product" is introduced to measure the quality of an active device. Examples are presented to test the realizability of the given source/load-pull data and to assess the gain-bandwidth limitations of the given source/load-pull impedances for a 45W-GaN power transistor, over 0.8-3.8 GHz bandwidth. In the second part of the thesis, we present the actual design and implementation of the novel methods in a sequential manner. As the result of the proposed methods, firstly, the power intake and power-delivery capacity of the active device are assessed for a 10W-GaN power transistor over 800 MHz-3.0 GHz bandwidth. We determined the optimum realizable source and load impedance data via the virtual gain optimization. Then, the optimum source and load impedance data is modelled as realizable network functions. Generated realizable network functions are synthesized using the Darlington synthesis which in turn yields optimum input and output matching network topologies with component values. Eventually, the designed power amplifier is manufactured. It is shown that the computed and the measured performance of the amplifier agrees within acceptable limits. Hence, we obtained an avaragre of 10 Watts output power with 11.4±0.6 dB gain and 49% to 76 % power added efficiency. In the third part, we introduce a new matching concept, so-called Virtual or interchangebly Fictitious Matching (FM), which may be defined between the artificially generated non-Foster passive immittances, over a lossless equalizer [E]. These immittances may not necessarily belong to physical devices, rather, they are fabricated like a source-pull or load-pull impedances to maximize the gain, the output power, the efficiency, and to minimize the output harmonics of the nonlinear-active device under consideration. In Fictitious Matching problems, equilezer [E] is constructed between the virtually produced generator immittance data K_GF and the load immittance data K_LF to optimize the power transfer in the passband. In this regard, [E] is described by means of its back-end driving point input immittance in the Darlington sense, and it is determined as the outcome of the optimization process. The input and the output impedances are synthesized as commensurate transmission lines as they are cascaded. It is demonstrated that the new concept of virtual matching can be utilized to build broadband power amplifiers. In this part, solving the virtual matching problem successively, the input and the output matching networks of a power amplifier are designed over 500 MHz-3 GHz with an average gain of 11.5dB, an output power of 40.5 dBm, and an average drain efficiency of 61.7%.
-
ÖgeRefocusing of moving targets in spotlight sar raw data(Graduate School, 2023-05-17) Papila, İbrahim ; Paker, Selçuk ; 504002201 ; Electronics EngineeringSynthetic Aperture Radar (SAR) requires specialized image formation Algorithms, which has capabilities like detection of moving targets, and highly focused vehicle identification. However, when it comes to large image scenes, the computational cost increases significantly. Basically, there are two approaches to solve large image formation issue. First technique is to use the exact algorithms like Match filter and Backprojection Algorithm (BPA). In this technique the calculation is done individually in every pixel and every pulse which requires a high performance of computing. The advantage of this technique is the new recorded samples can be integrated easily and there is also no phase error. Second technique uses the fast image algorithms like Polar Format Algorithm (PFA). But this technique introduces geometric dislocation of the target and the defocusing target artifacts when they are located away from the scene center. In literature two approaches is mainly used to minimize the effect of these image artifacts: In the first approach the large scene is divided into small patches and each patch (sub-image) is processed relatively to patch scene center instead of using the whole scene center. At the second approach instead of dividing smaller image subpatches, the phase corrections are applied after the image formation. A new target-refocusing technique based-on re-centering phase computation of previously recorded moving target raw data is implemented to the Spotlight SAR data in order to obtain refocused moving targets. The technique is tested on the integrated simulated data; background real spotlight SAR Raw data with the synthetically generated data domes of civilian moving targets. First Polar Format Algorithm is applied to detect and estimate the speed of ground-moving targets on the integrated raw data. At the next step, re-organize the integrated raw data by selecting and arranging target focusing center with a new technique based on re-centering phase computation to each moving target speed. At the third step re-organize the raw data by re-centering the phase computation to each moving target location. Finally, Polar Format Algorithm is applied to each re-organized raw data to obtain highly focused moving targets individually. To evaluate the performance of the proposed algorithm two parameters are considered. The overall image quality of the focused target and the blurrness metric of the focused target. The mean square error (MSE) and peak signal-to-noise (PSNR) ratio is used to evaluate the image quality and variation of the Laplacian is used to compute the blurriness metric. Proposed algorithm result on the moving targets is compared with the conventional PFA result on the stationary targets. By using the %100 accuracy on the target velocity estimation the proposed algorithm gives smaller MSE values for moving targets comparing even with the stationary target results using conventional PFA. Highest variation of the Laplacian values is also achieved by using the proposed algorithm, meaning defocusing artifacts are minimized comparing with even the stationary target conventional PFA result. Proposed algorithm performance is also tested by using different target velocity estimation accuracy. For this purpose 95%, 90% and 85% velocity estimation accuracies are used. The results show that algorithm performance is still better in sense of image quality (lower MSE and higher PSNR) even using the lower estimation accuracies. However velocity estimation error causing smeaiing which leads the final target image blurry. But it is also shown that by using the 95% velocity estimation accuracy variance of Laplacian value of the focused target is close to the stationary target result where is located away from the scene center. For smaller targets (less scatterer from the scenario) the effects will be less visible but the proposed algorithm will still give the better performance for both visually and for quality evaluation parameters perspective by using the higher velocity estimation accuracy results.