Elektronik ve Haberleşme Mühendisliği

Bu koleksiyon için kalıcı URI

Gözat

Son Başvurular

Şimdi gösteriliyor 1 - 5 / 35
  • Öge
    Görüntü işlemede yama sıralama tabanlı yaklaşımlar
    (Lisansüstü Eğitim Enstitüsü, 2021) Çolak, Özden ; Ekşioğlu, Ender Mete ; 692961 ; Elektronik ve Haberleşme Mühendisliği
    Görüntülerde gürültünün en temel bozucu etki olması, gürültü gidermeyi görüntü işleme problemlerinin en önemlilerinden ve üzerinde en çok çalışılanlarından birisi haline getirmektedir. Bu tez çalışmasında öncelikle, literatüre yakın zamanda girmiş olan yama sıralama işlemi ve seyrekleştirici üç boyutlu dönüşümlerin ilk defa sunulan öncül bir birleşimi geliştirilmiştir. Sunulan yeni yaklaşımı kullanan yeni bir görüntü gürültüsü giderme algoritması geliştirilmiştir. Ayrıca tez çalışmaları kapsamında yama sıralama işleminin ve bilinen üstün başarımlı çevrimiçi sözlük öğrenme algoritmalarından olan RLS-DLA algoritmasının özgün bir birleşimi ile yeni bir yaklaşım geliştirilmiştir. Bu yeni yaklaşımı esas alan yeni bir gürültü giderme algoritması geliştirilmiştir. Böylelikle yama sıralama yaklaşımının kullanımının görüntü işleme uygulamaları arasında bu alanda da başarım performansına katkı sağladığı gösterilmiştir. Günümüz teknolojisinde dijital kameralar ve görüntüleme özelliğine sahip cep telefonları görüntü elde etmede kullanılan teknolojik cihazların başında gelir. Bu cihazlardaki dijital kameralar ile görüntü oluşturulurken hem görüntünün alındığı ortamdaki ışıktan kaynaklı hem de ilgili teknolojik cihazların elektronik donanımlarından kaynaklı gürültüler bozucu etki olarak görüntülere eklenirler. Bu gürültüleri birkaç ana başlık altında inceleyebilmek mümkündür. Dijital kameralar ile görüntüsü oluşturulacak objeden yansıyan ışık demetleri toplanıp elektriksel işarete dönüştürülürken çeşitli gürültüler meydana gelir. Bunlardan bir tanesi kameranın elektronik devresinde kullanım süresine bağlı olarak artan ısıl gürültüdür ve bu gürültünün şiddeti ihmal edilebilir derecede düşüktür. Görüntü oluşturma sürecinde ortaya çıkan bir diğer gürültü ise saçma gürültüsüdür. Bu gürültü, görüntüsü elde edilmek istenen nesneden yansıyan ışık demetlerinin kamera sensörlerine eşit şekilde saçılmamasından dolayı oluşur ve etkisi ihmal edilemeyecek kadar yüksektir. Bu sebepten dolayı kameralar ile elde edilen görüntüler mutlaka gürültülü olacaktır. Saçma gürültüsü Poisson dağılımına sahip olsa da kamera sensörüne çok fazla sayıda foton gelmesi durumunda bu dağılım Gauss dağılımının olasılık yoğunluk fonksiyonuna yakınsar ve böylece görüntülerdeki gürültünün Gauss dağılımlı olduğu varsayılır. Ayrıca kamera sensörlerinin her birinde yığınlanan foton sayısı birbirinden bağımsız olacağından dolayı görüntülerdeki gürültü uzaysal olarak ilintisiz olur. Sonuç olarak elde edilen görüntülerdeki gürültü sıfır ortalamalı, birbirinden bağımsız ve özdeş dağılmış Gauss olarak bir başka deyişle beyaz Gauss gürültüsü (white Gaussian noise-WGN) olarak kabul edilir. Son yıllarda seyreklik tabanlı işaret işleme oldukça aktif bir araştırma konusu olmuştur. Kötü koşullu ters problemlerin çözümünün doğrudan bulunamadığı pek çok uygulamada, çözüme olanak veren bir düzenleyici olarak seyreklik öncül bilgisi başarıyla kullanılmaktadır. Seyreklik düzenlemeli işaret gösterilimi probleminin çözümünde etkin yeni algoritmaların geliştirilmesi sayesinde, seyreklik odaklı işaret işleme ve sıkıştırılmış algılama yaygınlaşmakta ve kullanım alanları genişlemektedir. Seyrek işaret gösterilimini kullanan uygulamalar arasında görüntü işleme problemleri önemli yer tutmaktadır. Görüntülerde gürültü giderme seyrek işaret işlemedeki gelişmelerden önemli ölçüde faydalanmaktadır. Görüntü işleme literatüründe tüm görüntüyü tek seferde işleyen birçok çalışma sunulmuştur. Global görüntü işleme yaklaşımlarının baskın doğası gereği tüm görüntüyü bir seferde işlerken görüntüdeki yerel detaylar kaybolur. Bundan dolayı da işlenmiş görüntülerde bazı sahte periyodik desenler oluşabilir. Bu probleme engel olmak için görüntüyü kayan pencereler şeklinde ele alan yerel filtreler kullanılır. Bu sayede görüntünün tümü aynı anda işlenmektense yalnızca pencere boyutu kadarlık kısmı aynı anda işlenir ve sonuç olarak görüntüdeki yerel detaylar korunmuş olur. Bu yaklaşımda görüntünün her bir pencere boyutu kadarlık kısmı birbirinden ayrı olarak ele alınır ve çoğu zaman kayma miktarı örtüşmeli yamalar oluşturacak şekilde seçildiğinden bir pikselin birden fazla sayıda kestirimi oluşabilir. Dolayısıyla bir piksele uygulanan en son güncellemeden sonra daha eski kestirimlerdeki bilgiler kaybedilmiş olur. Yerel filtreler kullanılırken bir piksele ait son kestirim oluşturulurken o piksele ait her bir kestirimin ortalaması alınarak bu sorun giderilmiş olur. Doğal görüntülerdeki birçok piksel birbirine benzer olduğundan dolayı bu piksellerden oluşan küçük boyutlu yamaların da birbirine benzer olduğu varsayılır. Bu öz-benzerlik özelliğinin kullanımı ile görüntü işleme uygulamalarının temiz görüntünün dokusunu kestirme performansı önemli ölçüde artmıştır. Bundan dolayı bu performans artışından yararlanmak için birçok yama tabanlı gürültü giderme algoritmaları geliştirilmiştir. Bu performans artışının temelinde görüntünün farklı yamaları arasındaki ilişkiden doğan bilgileri kullanmak yatar. Yaroslavsky filtre, ikili filtre gibi piksel komşuluklarını kullanan klasik yerel filtrelerde bir referans yamanın merkezindeki pikselin yeni değeri kestirilirken bu pikseli çevreleyen pikselleri merkez alan yamalar kullanılır. Yerel metodların aksine yerel olmayan metodlarda ele alınan referans yamanın çevresinde olmasa dahi görüntünün belli bir komşuluğundaki diğer yamalarda kullanılır. Görüntülerde yerel olmayan fakat birbirine benzer olan yamaları bir arada işleyebilme yetisi performansta oldukça yüksek artış sağlar. Son yıllarda yama tabanlı metodların oldukça yeni sayılabilecek bir örneği olan yama sıralama yaklaşımı farklı görüntü işleme uygulamalarında kullanılmıştır. Bu yaklaşım bir görüntüdeki yamaların belli bir örtüşme miktarına göre çıkarılıp bir benzerlik kriterine göre art ardına sıralanmasına dayanır. Kullanılacak olan benzerlik kriteri olarak birçok farklı metrik vardır. Yine de en çok tercih edilen benzerlik kriteri Öklid uzaklığıdır. Birçok çalışmada referans bir yamaya benzer olan diğer yamaları arama işlemi belli bir alanda olacak şekilde kısıtlanmıştır. Yama sıralama yaklaşımında bir benzerlik kriterine göre benzer bulunan yamalar art ardına dizilerek bir 3B yama dizisi oluşturulur. Ardından elde edilen bu 3B yama dizisine basit bir 1B filtresi uygulanır. Literatüre son yıllarda girmiş olan ve performans olarak son teknoloji sayılan gürültü giderme algoritması BM3D (Block Matching-3D Transformation) sunulmuştur. Bu yöntemde seyrekleştirici 3B dönüşümlerin benzerliklerine göre gruplanmış yama gruplarına uygulanması önerilmiştir. Görüntüden çıkarılan her bir yama için bu referans yamaya benzeyen yamalardan oluşan bir grup oluşturulur. Bu yaklaşımdaki üstün seyrekleştirme gücü birbirine benzer olan 2B yamaların bir grupta biraraya getirilerek 3B yama dizisi oluşturulmasından gelir. Buradaki üçüncü boyut yamalar arasındaki benzerlik bilgisini taşır. Algoritma bu 3B yama dizisinin 3B dönüşümü, elde edilen dönüşüm katsayılarının dönüşüm bölgesinde eşiklenmesi ve ters dönüşüm işlemleri ile devam eder. Bu işlemler sonunda elde edilen ara kestirimi bir Wiener filtreleme adımında kullanarak gürültüsü giderilmiş görüntünün son kestirimi elde edilir. Burada Wiener filtreleme adımının kullanımı ile performansta önemli ölçüde gelişme sağlanmıştır. Fakat her bir yamanın benzerlerinin bulunup gruplandığı benzerlik araması adımı oldukça yüksek hesapsal karmaşıklığa sahiptir. Bu tez çalışmasında ilk olarak, yama sıralama ile seyrekleştirici dönüşümlerin birleştirilmesi ile yerel olmayan görüntü işleme için yeni bir yaklaşım geliştirilmiştir. Literatürdeki öncül çalışmalarda, sıralama sonrası yamalar üzerinde sıradan süzgeçleme işlemleri yapılarak gürültü giderilmesi önerilmiştir. Bu yeni yaklaşımda ise gürültü gidermede literatürde önerilen sıradan süzgeçleme yerine, 3B seyrekleştirici dönüşümlerin kullanılması önerilmiştir. Bu yaklaşımda, yama sıralamanın getirdiği yerel olmayan işlem yapma yetisi, 3B dönüşümlerin üstün seyrekleştirme gücüyle birleştirilmiştir. Yapılan çalışmalarda bu birleştirici yaklaşımın görüntü gürültüsü giderme uygulamasında öncül algoritmalara göre daha iyi sonuçlar verdiği görülmüştür. Ayrıca bu tez çalışmaları kapsamında yama sıralama işlemi bir çevrimiçi sözlük öğrenme yaklaşımına adapte edilerek yeni bir gürültü giderme algoritması daha geliştirilmiştir. Literatürde sunulan çoğu çalışmada çevrimiçi sözlük öğrenme algoritmaları gürültü giderme problemine genellikle daha yüksek performans sergilediğinden dolayı yamalar üzerinden uygulanmıştır. Bu çalışmalarda yamalar ele alınırken görüntü içerisindeki doğal sıraları esas alınmıştır. Bu tez çalışmasında önerilen yeni yaklaşımda ise, yamaların görüntüdeki konumlarından gelen doğal sırasından ziyade bir kısıta göre sıralanmasından elde edilen yeni bir sıralama esas alınarak özgün bir çevrimiçi sözlük öğrenme gerçekleştirilmiştir. Önerilen bu algoritmadaki bir diğer yenilik ise sözlük öğrenme işlemi ile yamaların gürültü giderme işleminin eşzamanlı olarak gerçekleştirilmesidir. Böylelikle, öğrenilen sözlüğün yerel yamalara daha iyi adapte olması sağlanmış ve bu yaklaşımın görüntü gürültüsü gidermede daha iyi sonuçlar elde ettiği gösterilmiştir.
  • Öge
    Approximate artificial neural network hardware aware synthesis tool
    (Lisansüstü Eğitim Enstitüsü, 2021) Nojehdeh, Mohammadreza Esmali ; Altun, Mustafa ; 692582 ; Elektronik ve Haberleşme Mühendisliği
    In the previous decade, artificial neural networks (ANNS) have attracted considerable attention from researchers in many areas and have become a favorite method; from business to aerospace applications. We live in the information age where this information feeds artificial intelligence (AI). According to Forbes' estimate, over the last two years alone 90 percent of the data in the world was generated. At first glance, processing more information may seem like a dissipation of more power in central processing units(CPUs) and graphic processing units (GPUs) or spending more time to obtain the results, but for the portable systems due to limitations in battery capacity, power, and hardware area limitations, different concerns emerge. For example, less consumption of energy is vital to extend the battery supporting time for mobile devices. The problem starts to be bold when software engineers regardless of the hardware sources (especially for portable devices) develop different ANNs architecture, where they intend to achieve a network with the best performances. Similarly, hardware engineers' AI knowledge is limited and any change within hardware design in lack of this knowledge may yield a catastrophic defect in the expected performance. As a result, this uninformed state yields a gap between the hardware and software sides of ANNs. The emerged gap provides a pitch to hardware and software researchers to play their best performance, where more information about the rival side makes their performance more eye-catching. By obtaining this gap, the co-design method or hardware-aware training methods become prevalent recently. The object of this dissertation is also to develop a methodology to realize the ANNs with minimum hardware cost by regarding the software performance. Limitation in hardware cost, consumed energy, and dissipated power for devices leads designers to find new architectures and approaches. Approximate computing is one of them, where this method is an useful technique for error essence systems. By leveraging the approximate level, a trade-off between the output accuracy and hardware cost is attainable. For example, assume a 1-bit exact adder costs 18 transistors, and by removing 3 transistors, a new approximate adder by 15 transistors is achievable, but the new approximate adder generates inexact results when the input is $(0,0)$, and suppose that the results for the rest set of the inputs$((0,1),(1,0),(1,1))$ are correct. Therefore, the approximate adder saves 3 transistors at the cost of 1 inexact result. Generally, approximate computing is apple of designers' eye in applications with error tolerance capability, consequently, error tolerance inherence of ANNs nominates approximate computing as a potential method to reduce the hardware complexity of ANNs. Since multipliers and adders are fundamental building blocks of ANNs, in this thesis, by introducing novel approximate multipliers and adders we replace them with exact adders and multipliers. As mentioned earlier, approximate computing is a trade-off between accuracy and hardware cost, to adjust this trade-off, we synthesized the proposed approximate blocks based on the desired error metric. Also, we proposed an equation to calculate the mean absolute error of the introduced approximate multiplier and adders. Based on our best knowledge, the proposed approximate blocks are the only ones which are synthesized based on the mean error value. In next step, we introduced a new error metric called the approximate level to evaluate the performance of the proposed approximate blocks in ANNs. On the other hand, ANNs are made up of a lot of multipliers and adders, where the search space for the best combination of these blocks grows with the increase of bit-width or neuron numbers. To tackle this problem and by exploiting the proposed error metric, we introduce a new search algorithm to find the appropriate combination of the approximate and exact versions of the arithmetic blocks by taking into account the expected accuracy of ANNs. Also, in this thesis we realized ANNs under different synthesis techniques to obtain the pros and cons of each approach. Since the parallel architecture requires a large area we considered the time-multiplexed architecture as the main architecture method, where computing resources are re-used in the multiply-accumulate (MAC) blocks. As an application, the MNIST and Pen-digit database are considered. To examine the efficiency of the proposed method, various architectures and structures of ANNs are realized. Our experimental results show that exploiting the proposed approximate multipliers yields smaller area and power consumption compared to those designed using previously proposed prominent approximate multipliers. Also, according to these results, concurrent use of approximate multipliers and adders provides remarkable results in terms of hardware cost, where we obtain $60\%$ and $40\%$ reduction in energy consumption and occupied area of the ANN design with the same or better hardware accuracy compared to the exact adders and multipliers. To demonstrate the proposed method's scalability, we propose an efficient method to realize a convolution layer of convolution neural networks (CNNs). Inspired by the fully-connected neural network architecture, we introduce an efficient computation approach to implement convolution operations.
  • Öge
    Microwave spectroscopy based classification of rat hepatic tissues: On the significance of dataset
    (BAJECE, 2020-10) 0000-0003-3052-2945 ; Elektronik ve Haberleşme Mühendisliği
    With the advancements in machine learning (ML) algorithms, microwave dielectric spectroscopy emerged as a potential new technology for biological tissue and material categorization. Recent studies reported the successful utilization of dielectric properties and Cole-Cole parameters. However, the role of the dataset was not investigated. Particularly, both dielectric properties and Cole-Cole parameters are derived from the S parameter response. This work investigates the possibility of using S parameters as a dataset to categorize the rat hepatic tissues into cirrhosis, malignant, and healthy categories. Using S parameters can potentially remove the need to derive the dielectric properties and enable the utilization of microwave structures such as narrow or wideband antennas or resonators. To this end, in vivo dielectric properties and S parameters collected from hepatic tissues were classified using logistic regression (LR) and adaptive boosting (AdaBoost) algorithms. Cole-Cole parameters and a reproduced dielectric property data set were also investigated. Data preprocessing is performed by using standardization a principal component analysis (PCA). Using the AdaBoost algorithm over 93% and 88% accuracy is obtained for dielectric properties and S parameters, respectively. These results indicate that the classification can be performed with a 5% accuracy decrease indicating that S parameters can be an alternative dataset for tissue classification.
  • Öge
    Multiclass classification of hepatic anomalies with dielectric properties: From phantom materials to rat hepatic tissues
    (MDPI, 2020-01) Yılmaz, Tuba ; Elektronik ve Haberleşme Mühendisliği ; Electronics and Communication Engineering
    Open-ended coaxial probes can be used as tissue characterization devices. However, the technique suffers from a high error rate. To improve this technology, there is a need to decrease the measurement error which is reported to be more than 30% for an in vivo measurement setting. This work investigates the machine learning (ML) algorithms’ ability to decrease the measurement error of open-ended coaxial probe techniques to enable tissue characterization devices. To explore the potential of this technique as a tissue characterization device, performances of multiclass ML algorithms on collected in vivo rat hepatic tissue and phantom dielectric property data were evaluated. Phantoms were used for investigating the potential of proliferating the data set due to difficulty of in vivo data collection from tissues. The dielectric property measurements were collected from 16 rats with hepatic anomalies, 8 rats with healthy hepatic tissues, and in house phantoms. Three ML algorithms, k-nearest neighbors (kNN), logistic regression (LR), and random forests (RF) were used to classify the collected data. The best performance for the classification of hepatic tissues was obtained with 76% accuracy using the LR algorithm. The LR algorithm performed classification with over 98% accuracy within the phantom data and the model generalized to in vivo dielectric property data with 48% accuracy. These findings indicate first, linear models, such as logistic regression, perform better on dielectric property data sets. Second, ML models fitted to the data collected from phantom materials can partly generalize to in vivo dielectric property data due to the discrepancy between dielectric property variability.
  • Öge
    In vivo dielectric properties of healthy and benign rat mammary tissues from 500 MHz to 18 GHz
    (MDPI, 2020-04) Yılmaz, Tuba ; Ateş Alkan, Fatma ; Elektronik ve Haberleşme Mühendisliği ; Electronics and Communication Engineering
    This work investigates the in vivo dielectric properties of healthy and benign rat mammary tissues in an attempt to expand the dielectric property knowledge of animal models. The outcomes of this study can enable testing of microwave medical technologies on animal models and interpretation of tissue alteration-dependent in vivo dielectric properties of mammary tissues. Towards this end, in vivo dielectric properties of healthy rat mammary tissues and chemically induced benign rat mammary tumors including low-grade adenosis, sclerosing adenosis, and adenosis were collected with open-ended coaxial probes from 500 MHz to 18 GHz. The in vivo measurements revealed that the dielectric properties of benign rat mammary tumors are higher than the healthy rat mammary tissues by 9.3% to 35.5% and 19.6% to 48.7% for relative permittivity and conductivity, respectively. Furthermore, to our surprise, we found that the grade of the benign tissue affects the dielectric properties for this study. Finally, a comparison with ex vivo healthy human mammary tissue dielectric properties revealed that the healthy rat mammary tissues best replicate the dielectric properties of healthy medium density human samples.