LEE- Bilgi ve Haberleşme Mühendisliği-Yüksek Lisans
Bu koleksiyon için kalıcı URI
Gözat
Son Başvurular
1 - 5 / 6
-
ÖgeDerin öğrenme tabanlı süper çözünürlük teknikleri kullanarak JPEG sıkıştırma kaybının iyileştirilmesi(Lisansüstü Eğitim Enstitüsü, 2024-01-29)Bilgisayar biliminde bant genişliğinin etkin kullanımı, özellikle resim, video, ses gibi büyük verilerin iletilmesiyle giderek daha fazla önem kazanmaktadır. Bant genişliği, iletim hattı üzerinden bir saniyede iletilen maksimum veri miktarını temsil eden bir terimdir. Aynı zamanda, belirli bir iletim ortamında bir işaretin kapladığı frekans aralığı olarak da tanımlanır. Bu bakış açısıyla, bant genişliği, veri iletimi için kullanılabilen spektrumu temsil eder. Bant genişliği genellikle bit/saniye (bit per second, bps) veya daha yüksek birimlerle ölçülür. Büyük boyutlara sahip verilerin iletilmesi, iletişim kanalının kapasitesini önemli ölçüde meşgul etmektedir. Bir internet kullanıcısı, yüksek kaliteli bir video izlerken kesinti ve veri kaybı yaşamamak için geniş bant genişliğine ihtiyaç duyar. Ancak bir e-posta gönderirken, veriyi iletmek için daha düşük bir bant genişliği yeterli olabilir. MRI taramalarında bir hastanın binlerce görüntüsü çekilir ve bu görüntüler birleştirilerek üç boyutlu sonuçlar elde edilir. Ancak bu görüntüleri bir yerden başka bir yere iletmek, veri boyutu büyüdükçe gereken iletim kapasitesini artırır ve bu durum zorlu ve maliyetli bir görev haline gelir. Bu nedenle, veri iletimi sırasında gecikmeleri ve kayıpları önlemek için bant genişliği kullanımının optimize edilmesi gerekmektedir. Bant genişliğinin etkin kullanılması amacıyla veri sıkıştırma teknikleri büyük önem taşımaktadır. Sıkıştırmanın performansı, iletilecek veri miktarını, dolayısıyla kullanılacak bant genişliğini doğrudan etkilemektedir. Veri sıkıştırma, bilgisayar üzerinde saklanan verilerin, tekrarlanan ve gereksiz bilgilerini ortadan kaldırıp kodlama işlemi yaparak kapladığı alanı azaltma işlemidir. Bu işlem, dosya boyutlarını düşürerek daha verimli bir şekilde depolamak ve iletim hattını verimli bir şekilde kullanmak için tercih edilir. Veri sıkıştırma, iki farklı tekniği içerir: kayıplı ve kayıpsız. Kayıplı sıkıştırma, kullanıcının tercihine göre sıkıştırma oranının özelleştirilebileceği bir veri sıkıştırma tekniğidir. Bu teknik, veri boyutunu azaltmak için önemsiz, tekrarlı veya insan algısına etkisi düşük olan belirli veri parçalarının atılması veya kodlanması yoluyla gerçekleşir. Kayıplı sıkıştırma algoritmaları kullanıldığında, bazı veri parçaları kalıcı olarak kaybolur ve geri getirilemez. İnsan gözü ve kulağı, veri kaybını her zaman fark edemeyebilir, ancak özellikle yüksek sıkıştırma oranları kullanıldığında kayıplar daha belirgin hale gelebilmektedir. Bu nedenle, kayıplı sıkıştırma genellikle görüntü, video ve ses dosyalarını sıkıştırmak için kullanılır. Kayıpsız sıkıştırma, kullanıcının tercihine bırakılmayan, özelleştirilemeyen bir sıkıştırma tekniğidir. Bu teknik, veri boyutunu azaltmak için tekrarlı olan verileri azaltıp kodlama yöntemiyle sıkıştırma yapmasıyla sağlanır. Bu yöntemde herhangi bir veri kaybolmaz. Verinin kaybolacağı noktada sıkıştırma devam etmez ve orijinal veri geri elde edilmeye çalışıldığında herhangi bir kayıp söz konusu olmaz. Kayıpsız sıkıştırma, tüm verinin önemli olduğu ve asla kaybolması beklenmediği durumlarda kullanılır. Bu yöntem, metin gibi önemli verilerin olduğu alanlarda kullanılır. Metin verileri, orijinal biçiminde kurtarılmalıdır. Kayıp oluştuğunda ise anlamını kaybeder. Kayıplı ve kayıpsız tüm sıkıştırma teknikleri veri boyutunu belirli bir oranda azalttığından dolayı bant genişliğini daha efektif kullanılmasına olanak tanımaktadır. Bu nedenle, bant genişliğinin etkin kullanılması adına sıkıştırma teknikleri önemini korumaktadır. Web sayfaları ve diğer dijital platformlarda görüntülerin daha hızlı yüklenmesi adına sıkıştırılması gerekmektedir. Bu yüzden kayıplı sıkıştırma tekniği olarak Birleşmiş Fotoğraf Uzmanları Grubu (Joint Photographic Experts Group, JPEG), kayıpsız olarak Taşınabilir Ağ Grafikleri (Portable Network Graphic, PNG) gibi teknikler tercih edilmektedir. PNG, JPEG'e kıyasla görüntü kalitesini korurken belirli oranda sıkıştırma yapar. Ancak bu tür algoritmaların dosya boyutları genellikle JPEG ile kıyaslandığında daha büyük olmaktadır. Bu nedenle, web üzerinde hızlı yükleme ve daha az bant genişliği kullanımı gibi faktörler göz önünde bulundurulduğunda, JPEG sıkıştırması tercih edilmektedir. Sonuç olarak, web tabanlı uygulamalarda daha küçük dosya boyutları ve hızlı yükleme süreleri elde etmek adına bir miktar görüntü kalitesi kaybı kabul edilmektedir. Işık koşulları, donanım yetersizliği, kayıplı veri sıkıştırma veya haberleşme kanallarında maruz kalınan gürültüler gibi faktörlerden dolayı görüntüler düşük çözünürlüklü olabilmektedir. Süper çözünürlük problemi, bilgisayar biliminde düşük çözünürlüklü bir görüntüyü yüksek çözünürlüklü bir görüntüye dönüştürmeyi amaçlamaktadır. Günümüzde, uydu görüntüleri, uzaktan algılama, tıbbi görüntüleme gibi bir çok alanda yüksek çözünürlüklü görüntüler elde etmek için kullanılır. Herhangi bir sebepten dolayı kalite kaybı yaşayan görüntüler, süper çözünürlük yöntemleri kullanılarak görüntü kalitesi belirli bir oranda arttırılabilmektedir. Son yıllarda, süper çözünürlük alanında derin öğrenme tabanlı bir çok çalışma yapılmış ve bir çok model ortaya atılmıştır. Bu modellerin performansları, kalite (benchmark) veri kümelerinde yüksek başarılara imza atmıştır. Derin öğrenme, makine öğreniminin bir uzantısı olan yapay sinir ağlarına dayalı olarak geliştirilmiş bir kavramdır. Yapay sinir ağları, hesaplama birimleri olarak kullandığı yapay nöronlarla insan beyninin düşünme biçimini taklit eder; yapay sinir ağı yapısı, bu nöronların bağlanma şeklini yansıtır. Derin öğrenmenin amacı, altta yatan özelliklerin hiyerarşik bir temsilini öğrenerek verilerin özellik dağılımını belirlemektir. Süper çözünürlük problemini derin öğrenme ile inceleyen çalışmalarda interpolasyon tabanlı düşük çözünürlüklü görüntüler üzerinde iyileştirme sağlamayı konu almaktadır. Ancak, sıkıştırılmış ve kayıp yaşanmış düşük çözünürlüklü görüntüler üzerinde herhangi bir etkisi incelenmemiştir. Derin öğrenme tabanlı yaklaşımlarda elde edilen sonuçlar, farklı türdeki görüntülerin geri kazanımları için araştırma konusu olmaktadır. Süper Çözünürlük Evrişimli Sinir Ağ (Super Resolution Convolutional Neural Network, SRCNN) modeli, süper çözünürlük problemini derin öğrenme yaklaşımıyla inceleyen ilk çalışması olarak kabul edilir. İlkel olarak tanımlanabilecek bu modelin içerisinde 3 katmanlı evrişimli sinir ağı bulunmaktadır. Çok Derin Süper Çözünürlük (Very Deep Super Resolution, VDSR) modeli , SRCNN modelinin daha derin öğrenme yapısına sahip ve artık blok eklenmiş versiyonu olarak geliştirilmiştir. Derin ağ yapısı sayesinde daha yüksek çözünürlüğe sahip sonuçlar üretmektedir. VDSR, süper çözünürlük alanındaki araştırmalarda ve uygulamalarda büyük bir etki yaratmış ve bu alanda bir dönüm noktası olarak kabul edilmiştir. Süper Çözünürlük Yoğun Ağ (Super Resolution Dense Network, SRDenseNet) modeli, içerisinde barındırdığı yoğun bloklar sayesinde çok fazla sayıda özellik çıkarımı yapabilmektedir. Ayrıca bu blokların her birinin birbirleri arasında artık öğrenme tekniğinin kullanılması model performansını daha başarılı hale getirmiştir. SRDenseNet modeli bu yüzden SRCNN ve VDSR modellerine göre daha karmaşık ve daha fazla matematiksel işlemi barındırmaktadır. Bu tez kapsamında, görüntü sıkıştırma işlemi için en çok tercih edilen JPEG yönteminden kaynaklanan kayıpların, derin öğrenme tabanlı süper çözünürlük modellerinden olan SRCNN, VDSR ve SRDenseNet kullanılarak geri kazanımı incelenmiştir. Farklı kalite seviyelerinde sıkıştırılmış görüntülerle bir eğitim veri kümesi oluşturularak inceleme gerçekleştirilmiştir. Eğitim aşamasında ImageNet veri kümesi kullanılırken, test aşamalarında ise süper çözünürlük problemlerinde kullanılan kalite test (benchmark) verilerinden olan SET5, SET14, BSDS100, BSDS200 ve General100 veri kümeleri kullanılmıştır. Çalışmanın sonucunda süper çözünürlük yöntemlerinin JPEG sıkıştırma kayıplarını geri kazanma potansiyeline sahip olduğunu göstermektedir. Ayrıca, süper çözünürlük yöntemlerinin görüntü kalitesini artırmada ve sıkıştırma kayıplarını azaltmada etkili bir çözüm olabileceğini vurgulamaktadır. Gelecekteki çalışmalarda farklı veri kümesi ve modellerin kullanılmasıyla daha ayrıntılı analizler yapılabilir ve bu konuda daha fazla bilgi sağlanabilir.
-
ÖgeHavayolu yolculuk deneyimini iyileştirmek için makine öğrenmesi yöntemleriyle uçuş gecikmesi tahmini(Lisansüstü Eğitim Enstitüsü, 2024-01-30)Havacılık endüstrisi, milyonlarca insanın seyahat etmesine olanak sağlayan önemli bir sektördür. Havaalanları, hava trafik kontrolü, hava koşulları, uçak bakımı, personel düzenlemeleri gibi faktörler, uçuşların planlandığı gibi gerçekleşmesini etkileyebilir. Uçuş gecikmeleri ve iptalleri, havayolu şirketlerini maliyet artışı, operasyonel sıkıntılar ve müşteri memnuniyetsizliği ile karşı karşıya bırakabilir. Yolcular ise zaman kaybı, alternatif ulaşım arayışı ve planlarının aksaması gibi sorunlarla karşılaşabilirler. Bu çalışmada, Amerika Birleşik Devletleri Ulaştırma Bakanlığı tarafından paylaşılan uçuş verileri kullanılarak uçuş aksaklıklarının çeşitli makine öğrenmesi teknikleri ile tahmin edilmesi hedeflenmektedir. Bu tahminlerin yolculara sunulması ile doğru uçuş zamanı ve havayolu seçimi konusunda yol gösterici olacaktır. Bu çalışma, yolcular için bir uygulama geliştirilmesine olanak sağlarken, havayolu ve havaalanlarının operasyonel süreçlerini optimize etmelerine de yardımcı olabilir. Ayrıca, aksaklıkları öngörüp önleyerek havayolu şirketlerinin tazminat ödemelerinden tasarruf etmelerine de katkıda bulunabilir. Bu çalışmada uçuş ve hava durumu verileri birleştirilerek kullanılmıştır. Uçuş verisi Amerika Birleşik Devletleri Ulaştırma Bakanlığı'nın halka açık olarak paylaşılan "Airline On Time Performance" isimli veri tabanından, hava durumu verisi de Ulusal Okyanus ve Atmosfer İdaresi Servisi(NOAA)'nden elde edilmiştir. Amerika Birleşik Devletleri'nin en yoğun havaalanlarından biri olan John F. Kennedy Uluslararası Havalimanı (New York, JFK) seçilmiş ve bu havalimanından kalkan uçuşlar incelenmiştir. Veri önişleme adımında, elde edilen veriler modellerin eğitiminde kullanılmak üzere hazırlanmıştır. Bu hazırlık sürecinde korelasyonların incelenmesi, veri tamamlama, ayrıştırma, öznitelik seçimi, öznitelik birleştirme, örnek seçimi gibi birçok önişleme tekniği kullanıldı. Veri kümesinde pozitif örneklerin sayısı negatif örneklerin sayısından çok daha fazla olduğu için veri dengeleme amacıyla SMOTE ve aşağı örnekleme(Undersampling) yöntemleri uygulandı. Makine öğrenmesi, sınıflandırma ve regresyon yöntemlerinden L-GBM, SVM, MLP, Naives Bayes, Lojistik Regresyon, KNN yöntemleri kullanılmıştır. Bu modellerde parametre optimizasyonunu sağlamak üzere Grid Search CV metodu çapraz doğrulama yöntemi ile uygulandı. Değerlendirme metrikleri olarak sınıflandırma tekniklerinde kullanılan Doğruluk, Kesinlik, Duyarlılık ve F1-Skoru üzerinde duruldu. Modellerin birbirleriyle karşılaştırılması için ROC Eğrileri ve ROC-AUC kriteri kullanıldı. Tüm modeller ve örnekleme metotları arasında en iyi AUC değerini L-GBM'in orijinal dengesiz veri kümesinde verdiği görüldü. F1-Skor açısından incelendiğinde de en yüksek skorun 0,567 ile SVM'de olduğu ve 0,003 farkla 0,564 değeri ile de L-GBM'in onu takip ettiği görüldü. Çalışma zamanları açısından incelendiğinde ise L-GBM'in 0.3 saniye değeri ile diğer modellerden çok daha hızlı olduğu görüldü. Bu çalışmada, çeşitli sınıflandırma teknikleri kullanıldı ve bu tekniklerin performansı incelendi. L-GBM Modeli, hesaplama hızı açısından en etkili bulundu, SVM ise genel doğruluk açısından en başarılı yöntem olarak belirlendi. Sonuçların kalitesini artırmak amacıyla, Grid Search ve 8 katlı Çapraz Doğrulama gibi yöntemlerle parametre optimizasyonu gerçekleştirildi. Ayrıca, SMOTE ve aşağı örnekleme gibi teknikler arasında yapılan karşılaştırmada, aşağı örnekleme yönteminin bu veri kümesinde daha iyi sonuçlar verdiği tespit edildi. Geliştirilen algoritma aracılığıyla modeli rota bilgileri ve zaman aralığı ile besleyerek, belirli bir rota için kullanıcıya en uygun uçuş tarihlerini ve havayolu seçeneklerini öneren bir yapı oluşturuldu.
-
ÖgeKesirli kalkülüs ile G-8 ülkeleri ve Türkiye'nin ekonomik verileri kullanılarak gayrisafi yurt içi hasıla büyüme oranlarının iki değişkenli fonksiyon olarak modellenmesi(Lisansüstü Eğitim Enstitüsü, 2024-07-04)Kesirli kalkülüs, klasik kalkülüsün bir uzantısı olarak kabul edilen, reel veya karmaşık mertebelerle karakterize edilen, diferansiyel ve integral operatörlerin özelliklerini inceleyen bir matematik dalıdır. Kesirli kalkülüs, geleneksel kalkülüs gibi üç asırlık bir geçmişe sahiptir, ancak bilim ve mühendislik alanlarında kullanımı çok yaygın değildi. Bu nedenle geçtiğimiz üç yüzyıl boyunca bu konu daha çok matematikçilerin ilgi alanındaydı. Ancak son yıllarda kesirli kalkülüsün fizik, mühendislik, biyoloji ve ekonomi dahil olmak üzere birçok bilimsel alanda uygulanmasına yönelik araştırma faaliyetlerinde belirgin bir artış yaşanmıştır. Bunun nedeni, kesirli mertebeden diferansiyel ve integral denklemlerin, tamsayı mertebesi ile sınırlı olanlara kıyasla doğa ve toplum olgularını matematiksel olarak daha iyi modelleyebilmesidir. Kesirli analiz yöntemleri, hafızalı ve yerel olmayan süreçleri ve sistemleri tanımlamak için güçlü araçlardır. Bu nedenle kesirli analiz yöntemleri, ekonomi ve finans alanlarında uygulanmakta ve geliştirilmektedir. Ekonomik büyüme, gayrisafi yurt içi hasılanın büyüme oranındaki artışı göstermektedir. Ekonomik büyümeyi belirleyen birçok faktör bulunmaktadır. Bu faktörler hem tek başına hem de karşılıklı etkileşim ile ekonomik büyümeyi etkilemektedir. İhracat, ithalat, doğrudan yabancı yatırımlar ve enflasyon değişkenleri, ekonomik büyümenin değerlendirilmesi için istatistiksel olarak anlamlı etkiye sahip olan ekonomik faktörlerdir. Bu tezde kesirli kalkülüs ve en küçük kareler yöntemi kullanılarak iki değişkenli fonksiyon ile matematiksel modelleme çalışması yapılmıştır. Matematiksel modellemede Caputo tipi kesirli türevden faydalanılmıştır. Matematiksel modellerin uygulamasında MATLAB kullanılmıştır. Bu çalışmada 1998-2022 yılları arası, G-8 ülkeleri ve Türkiye'nin genel ekonomik durumunun değerlendirilebileceği ekonomik faktörler olarak İhracat (yıllık büyüme %), İthalat (yıllık büyüme %), GSYİH Büyüme Oranı (yıllık %), Doğrudan Yabancı Yatırım, net girişler (% GSYİH), Enflasyon (% yıllık) ve İşsizlik Oranı verileri kullanılarak uygulamalar gerçekleştirilmiştir. (Rusya için veri eksikliği nedeniyle 1998-2021 yılları arası veriler kullanılmıştır). Veriler Dünya Bankası'ndan alınmıştır. Çalışmada iki degişkenli fonksiyonun parametreleri, ekonomik faktörlerin çeşitli kombinasyonları şeklinde verilerek GSYİH Büyüme Oranı (yıllık %) modellenmiştir. Modellemede fonksiyon parametreleri olarak ülkelerin ilgili ekonomik faktörleri sırasıyla şu şekilde kombine edilmiştir: ithalat-ihracat, ithalat-doğrudan yabancı yatırım, ithalat-işsizlik oranı, ithalat-enflasyon, ihracat-enflasyon, ihracat-doğrudan yabancı yatırım, ihracat-işsizlik oranı, enflasyon-doğrudan yabancı yatırım, enflasyon-işsizlik oranı ve işsizlik-doğrudan yabancı yatırım. Modelleme performansı Ortalama Yüzdesel Mutlak Hata (Mean Absolute Percentage Error – MAPE) ile değerlendirilmiştir. Modellemede kesme sayısı M = 7 olarak alınmıştır. Sonuç olarak çalışma genelinde tüm ülkeler için yüksek modelleme başarısı elde edilmiştir. En düşük modelleme hatası %1.0252 × 10⁻⁸ değeri ile Japonya için ihracat-enflasyon ekonomik faktörlerinde elde edilmişken, en yüksek modelleme hatası %3.6727 × 10⁻¹ değeri ile Rusya'nın enflasyon-işsizlik oranı ekonomik faktörleri ile elde edilmiştir. Genel olarak işsizlik oranı ve enflasyon ekonomik faktörlerinde diğer faktörlere kıyasla daha düşük modelleme başarısı gözlemlenmişken, ithalat ve ihracat ekonomik faktörlerinde daha yüksek modelleme başarısı gözlemlenmiştir. Ancak çalışma sonuçları genel olarak değerlendirildiğinde tüm ülkeler için ekonomik faktör kombinasyonlarının tamamında yüksek modelleme başarısı elde edilmiştir.
-
ÖgeModeling spike-band extracellular background activity using Johnson's Su Distribution(Graduate School, 2022)Extracellular neural recordings are collected in awake behaving subjects (e.g. rats) via microelectrode arrays that are chronically implanted into the brain. These recordings contain important information about the activity of individual neurons and the functioning of the brain. In order to detect the action potentials, or spikes, in the recordings, the recordings are first bandpass filtered with cut-off frequencies that are appropriate for spike detection. Now the signal consists of spikes and background activity. Here, background activity is produced by neurons relatively far from the electrode. It is critical to distinguish the spikes from the background activity. In the literature, this problem is usually solved by amplitude thresholding. However, currently, the threshold value is usually determined by multiplying a coefficient determined subjectively by the researcher by the estimated standard deviation of the data under an assumption of Normality. By contrast, purely data-driven thresholding can be performed with truncation thresholds calculated with the truncated Normal distribution, truncation thresholds calculated with the truncated Johnson's SU (JSU) distribution, and an Otsu-based method. In the present study, completely data-driven amplitude thresholding methods are examined and compared against each other. Realistic simulated extracellular neural recording data having 21 different firing rate levels were used in the analyses. The methods were compared in terms of the accuracy with which they allowed the standard deviation of the background activity to be estimated. The best method was found to be the Otsu-based method. In addition, the distribution of the data encompassed by the Otsu-based threshold values was examined. It was found that the truncated Normal distribution could pass the Kolmogorov-Smirnov (KS) test only at two firing rates, while the truncated JSU distribution could pass the test at all firing rates tested. JSU is a distribution with 4 parameters (γ, δ, ξ, and λ) and therefore provides more flexibility in modeling than the Normal distribution. However, when computational costs are compared, the JSU method has the highest computational cost. Reducing the cost is important in terms of being useful for real-time applications. Therefore, four different parameter-fixed JSU distributions (JSU γ, JSU δ, JSU ξ, and JSU λ) are proposed in this study, in which each parameter is fixed to its initial value (estimated before any truncation) and the other three different parameters are estimated after truncation. By fixing one parameter (except for ), the calculation time can be reduced to approximately 1/7 of JSU all. The thresholding performance of these methods has been studied and JSU ξ has been shown to give better results than JSU all. However, the parameter-fixed models were not as successful as JSU all in fitting the data encompassed by the Otsu-based threshold values. All the analyses were also performed on a real data segment of 1 second duration.
-
ÖgeEfficient super-resolution and MR image reconstruction networks(Graduate School, 2023-01-30)The process of generating a high-resolution image from a low-resolution image is known as image super-resolution. From a low-resolution image, many high-resolution images can be produced. Therefore, super-resolution is a difficult problem with ill-posed nature. In recent years, many deep neural networks were suggested to retrieve missing high-frequency features. Models started to get deeper to enhance performance. But, using these models in devices with limited resources is challenging due to their high computational complexity and memory requirement. Therefore, in this thesis, different knowledge distillation schemes are suggested to compress super-resolution networks. Offline- and self-distillation frameworks are used to decrease the number of repeating residual blocks in SRResNet and EDSR networks. Test results are obtained on benchmark datasets for scale factor four. After many experiments, results show that previous layers learn to produce similar outputs to following layers. However, when redundant layers are removed, performance of the compressed networks are less than their vanilla trained versions. Therefore, further study on this subject is required to prevent performance decrease. Magnetic resonance imaging is a valuable tool in medicine to identify diseases. To obtain a high quality image, enough $k$-space data is needed. This increases the necessary scan time. As in other image processing fields, deep neural networks are also used in magnetic resonance image reconstruction task from undersampled data. Since super-resolution also aims to restore missing information, using some concepts from super-resolution can help improve reconstruction performance. In this study, Iterative Up and Down Network is proposed to solve this problem. Network benefits from iterative up and down sampling framework and multiple scale factors. Training of the network is done using fastMRI dataset. Test results are obtained on two datasets which are fastMRI and IXI. Proposed network has processing units and test results show that increasing the number of these units improve the performance of the network. Also, using multiple scale factors further increased the performance. Quantitative results show that suggested approach is superior than some well-known state-of-the-art networks. When qualitatively compared to other methods, suggested model performs favorably.