LEE- Bilgisayar Bilimleri-Yüksek Lisans
Bu koleksiyon için kalıcı URI
Gözat
Son Başvurular
1 - 5 / 12
-
ÖgeComparative analysis of deep learning components on compressed domain action recogniton framework(Graduate School, 2022)Size of digital information have been increasing with developing technologies in last two decades. Today, the size of data that people obtain by using digital tools is quite high. This data can be categorized to different branches: Text, sound, image etc. Although it was quite difficult to process the obtained data manually at the past, it becomes almost impossible at the moment. For these reasons, it is necessary to use automated systems during the processing of data. Artificial intelligence systems are important automated tools for processing data and extracting meaning from it. Extraction of the information in images by performing different operations on images is called image processing. Processing can be done on a single image or on video images. Video images contain time information in addition to single image. Based on the time information, it is possible to have knowledge about the motion information of the objects in the images. Understanding of a movement, motion in images by using some image processing operators is called activity recognition in computer vision field. The operators used during activity recognition differ according to the methods used. In addition to traditional feature extraction methods, Convolutional Neural Networks are frequently used recently. Convolutional Neural Networks are very effective for solving problems such as classification of images, tracking objects and activity recognition in computer vision. No manual operation is performed during the feature extraction process. The whole process is automated by the CNN. However, the number of operations performed during the process of CNN is quite high. In addition, the training required for these systems to give proper results requires a high number of labeled data. Data processing can be performed on raw data as well as on compressed data. The most successful examples of data compression methods can be found in video compression techniques. As a result of video compression processes, it is ensured that the repetitive information in the videos is extracted and removed from the video. Thus, as a result of the compression process, only necessary and simple information is obtained. Raw videos and compressed videos can be used for the activity recognition problem. Activity recognition on data obtained from compressed videos is faster and more effective. In the light of the information and methods mentioned above, a study was carried out on the comparison of activation functions and neural network types on the compressed domain activity recognition system. According to this study, a low cost but effective neural network was sought instead of the backbone neural network used on the system. Trainings were carried out with different neural networks. When the results were examined, the advantages and weaknesses of the neural networks relative to each other were seen. ResNeXt neural network's number of parameter - training success data was sufficient according to the backbone neural network ResNet. A different study was carried out by expanding the analysis studies on activation functions. During the analysis, trainings were conducted with 5 different activation functions and the results were reported. Among the activation functions, those belonging to the ReLU family of functions showed a more successful result.
-
ÖgeScene change detection with triplet loss network using self-supervised learning(Graduate School, 2024-07-17)Scene transition detection, one of the most critical topics in image processing, has attracted considerable attention in recent research initiatives. Detecting scene transitions is essential in various fields, including video editing, search algorithms, and analytical applications. The demand for automatic scene change detection has increased among many users, especially with the rapid increase in social media content. Various methodologies for scene transition detection include neural networks, classical audio processing techniques, and image processing algorithms. In this study, we created a CNN model called FraSim and a new dataset to train it, and combined it with classical image processing method Structural Similarity (SSIM). The process of creating the dataset involved enriching the transitions of scenes with frames taken from movie scenes collected over the internet. The same dataset is available in both grayscale and RGB format and also includes audio. A unique algorithm was designed to extract frames and associated audio during dataset creation, ensuring that only the most notable frames are retained. The frames in the dataset were carefully categorized per scene and per movie. Training the model was carried out using a self-supervised approach. For this purpose, we utilized powerful techniques like Triple Loss and Siamese Network architecture. Triple loss, in particular, played a crucial role in improving the model's effectiveness by optimizing distance measurements between similar and dissimilar samples. This research effort significantly contributes to the field of automatic video analysis. By introducing a new approach to scene transition detection that encompasses both the structure of the training dataset and the architecture of the deep learning model, we have opened up new possibilities for the field. The impressive accuracy rate of up to 97.84% achieved using FraSim with the RGB Dataset clearly indicates this research's potential impact. The integration of classical image processing techniques with the development of an intelligent system using FraSim further strengthens the effectiveness of scene transition detection, underlining the versatile nature of this innovative research effort.
-
Ögeİnsan gen yolaklarında ikâme modelleme ve makine öğrenmesi kullanarak varyant analizi(Lisansüstü Eğitim Enstitüsü, 2024-07-01)Son yıllarda, genetik kompleks hastalıkların incelenmesi ve doğru bir şekilde tahmin edilebilemesi için birden fazla gen verisinin birleştirilmesini içeren kapsamlı bir analiz gerektiği anlaşılmıştır. Bu kapsamda, Genom Çapında İlişkilendirme Çalışmaları ve Poligenik Risk Skorları, kompleks hastalıkların genetik temellerini anlamamızda önemli ilerlemeler sağlamıştır. Genom Çapında İlişkilendirme Çalışmaları, birçok bireyin genomlarını analiz ederek belirli hastalıklarla ilişkili genetik ayrımları tanımlar ve kompleks özelliklerin genetik yapısına dair fikir sunar. Poligenik Risk Skorları ise Genom Çapında İlişkilendirme Çalışmaları tarafından tanımlanan birçok genetik varyantın etkilerini birleştirerek, bireyin belirli bir hastalığa olan genetik yatkınlığını ölçer. Ayrıca, çok boyutlu gen yolaklarını analiz edebilecek ve eğitilebilir hale getirecek güçlü matematiksel modeller geliştirilmiştir. Makine öğrenmesi ve yapay zeka alanında geliştirilen yeni yöntemler ise gen yolaklarının eğitimi ve test edilmesi için önemli olanaklar sunmaktadır. Bu çalışmada, birden çok gen tarafından etki edilen kalıtımsal hastalıkların belli bir birey için var olup olmadığına karar verecek bir model geliştirilmiştir. Modeli eğitmek ve doğruluğunu test etmek amacıyla iki farklı gen yolağı kullanılmıştır. Bunlar mTOR ve TGF-β gen yolaklarıdır. Tezde kullanılan gen yolakları, gerçek hastalıklara karşılık gelen gen yolaklarının analizleri sonucunda elde edilen verilerin kullanımı ile oluşturulan yapay gen yolaklarıdır. Sırasıyla 31 ve 93 gen içeren bu gen yolakları, insan verisi kullanılmadığı için herhangi bir izne ihtiyaç duymadan kullanılabilir durumdadır. Çalışmada önerilen modelle, gen yolakları öncelikle ön işleme adımına tabi tutulmuştur. Bu adım, özellik çıkartma ve boyut indirgeme olmak üzere iki aşamadan oluşmaktadır. Özellik çıkartma aşamasında, her bir gen için Kaos Oyunu Temsili metodu uygulanmış ve her bir gen, iki boyutlu bir desen ile ifade edilebilir hale getirilmiştir. Daha sonra, bu iki boyutlu desenler gen sırası dikkate alınarak bir Kaos Oyunu Temsilinin kübü oluşturulmuştur. Kaos Oyunu Temsili yöntemi, gen verilerini görselleştirmek ve analiz etmek için güçlü bir araçtır ve gen yolağı analizi gibi çeşitli uygulamalarda yaygın olarak kullanılmaktadır. Ardından, Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösterimi tekniği kullanılarak, üç boyutlu olan Kaos Oyunu Temsili kübü daha düşük boyutlu bileşenlere indirgenmiştir. Bu bileşenler arasından iki boyutlu olanlar seçilerek birleştirilmiştir. Ortaya çıkan Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösteriminin bileşenleri, tüm bir gen yolağını temsil eden bir resim oluşturmuştur. İkinci olarak boyut indirgeme aşaması uygulanmıştır. Boyut indirgeme aşamasında, özellik seçme aşamasıyla oluşturulan ve gen yolağını temsil eden iki boyutlu resim, Temel Bileşen Analizi yöntemi kullanılarak bir vektöre indirgenmiştir. Bu işlem sırasında, temsil resminin her bir satırı bir girdi gibi koordinat düzlemine verilerek Temel Bileşen Analizi yöntemi uygulanmıştır. Bu yöntem sonucunda ortaya çıkan Temel Bileşen Analizinin bileşenleri bu verilerin bir temsili kabul edilmiştir. Bu yaklaşım sayesinde, iki boyutlu bir resim Temel Bileşen Analizinin bileşenleri ile ifade edilebilen bir vektöre dönüştürülmüştür. Vektörün temsildeki tutarlılığını ölçmek için her bileşen seçimi için ayrı ayrı testler yapılmıştır. Ön işleme adımı tamamlandıktan sonra, makine öğrenmesi aşamasına geçilmiştir. Bu aşamada, Destek Vektör Makinesi algoritması kullanılmıştır. Her bir gen yolağı için oluşturulan vektör, algoritmaya girdi olarak verilmiş ve 5-katlı Çapraz Doğrulama yöntemi ile eğitim ve testler gerçekleştirilmiştir. 5-katlı Çapraz Doğrulama yöntemi sayesinde, sağlıklı ve hasta grupları bağımsız iki alt gruba ayrılarak eğitim ve test veri setlerinin ayrılması sağlanmıştır. 5-katlı olduğu için bu işlem birbirinden bağımsız beş farklı şekilde gerçekleştirilmiştir. Bu yöntemle elde edilen sonuçlar, eğitim ve test kümelerinin seçiminden kaynaklı hataları minimize etmiştir. Elde edilen sonuçlar grafiklerle gösterilmiş ve analiz edilmiştir. Python ve MATLAB, çalışmada çeşitli hesaplama tekniklerini ve algoritmaları uygulamak için kullanılmıştır. Python, NumPy, Pandas ve Scikit-learn gibi geniş kütüphaneleriyle veri manipülasyonu, istatistiksel analiz, Kaos Oyunu Temsili yöntemi ve makine öğrenmesi uygulamaları için kullanılmıştır. MATLAB ise güçlü matematiksel ve görselleştirme araçlarıyla karmaşık sayısal hesaplamalar ve Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösterimi yönteminin sonuçlarının görselleştirilmesi için kullanılmıştır. Bu iki güçlü programlama ortamının kombinasyonu, genetik verilerin etkin bir şekilde işlenmesi ve analiz edilmesini sağlamış, doğru ve tekrarlanabilir sonuçlar elde edilmesine yardımcı olmuştur. Geliştirilen model ile mTOR ve TGF-β gen yolakları için sırasıyla \%99 ve \%90'ın üzerinde doğruluk elde edilmiştir. Sonuç olarak, önerilen model, karmaşık gen yolakları için sağlam ve tutarlı bir sınıflandırma sağlamış, genotipe dayalı hasta ve sağlıklı gruplar arasında ayrım yapmada umut verici sonuçlar elde etmiştir. Bu bulgular, genetik hastalıkların tahmini ve teşhisi açısından önemli sonuçlar içerir. Gelecekte, modelin daha büyük ve çeşitli veri setleriyle uygulanması, farklı makine öğrenmesi algoritmalarının entegrasyonu, modelin performansını daha da artırabilir ve genetik biliminin daha geniş bir alanınında uygulanabilirliğini sağlayabilir. Bu iyileştirmeler, daha doğru ve kapsamlı modellerin geliştirilmesine katkıda bulunabilir, böylece sağlık sonuçlarını iyileştirme ve genetik hastalıkları anlama konusundaki bilgi birikimimizi artırabilir.
-
ÖgeZamanında performansı artırmak için makine öğrenme yaklaşımı ile blok süre tahmini(Lisansüstü Eğitim Enstitüsü, 2024-02-05)Havacılık sektörü günümüzde hızla büyüyen ve gelişen bir endüstri olup, operasyonel verimlilik ve zaman yönetimi bu endüstri için büyük önem taşımaktadır. Özellikle on-time performansı, havayolu şirketleri ve havaalanları için oldukça öenmli bir başarı metriği haline gelmiştir. Müşteri memnuniyeti, operasyonel verimlilik, maliyet etkinliği ve rekabet avantajı gibi birçok faktörü etkileyerek havacılık sektöründeki tüm paydaşlar için kritik bir yere sahiptir. Bu bağlamda, bu çalışma havacılıkta on-time performansın artırılması amacıyla blok süre tahmini üzerine odaklanmaktadır. Bu analiz, havayolu operasyonlarının zamanlama ve süreçlerin daha etkin bir şekilde yönetilmesine katkı sağlayarak hem havayolu şirketleri hem de havaalanları için önemli bir değer yaratmayı amaçlamaktadır. Amerika Birleşik Devletleri Ulaştırma Bakanlığı tarafından sağlanan Ulaştırma İstatistikleri Bürosu (BTS) veri tabanı ve Azure platformu üzerinden elde edilen hava durumu verileri birleştirilerek, modelleme aşamasında kullanılmak üzere nihai bir veri seti oluşturulmuştur. Veri seti üzerinde gerekli filtrelemeler ve analizler gerçekleştirilmiş, veri ön işleme adımında eksik değerler ile uç değerlerin analizi ve veri doldurma gereksinimleri ele alınmıştır. Çalışma kapsamında iptal edilen veya yönlendirilen uçuşlar göz ardı edilmiş ve sadece varışı gerçekleşen uçuşlara odaklanılmıştır. Yayınlanan raporlar ve veri analizleri sonucunda, on-time performansında en fazla sapmaya sahip olan Florida eyaletinde gerçekleşen uçuşlar seçilmiştir. Bu filtrelemeyle birlikte, planlanan blok süre ile gerçekleşen blok süre arasında 20 dakikadan fazla fark olan uçuşlar da filtrelemeye dahil edilmiştir. Bu şekilde, çalışmada en problemli kitle seçilerek daha anlamlı ve katma değeri yüksek bir sonuç elde etmek amaçlanmıştır. Veri seti, 2021 Ocak ayından 2023 Haziran ayına kadar olan dönemi kapsamaktadır. Bu süre zarfında, 2021-2023 arası eğitim veri seti, 2023'ün ilk üç ayı validasyon veri seti ve son üç ay ise test veri seti olacak şekilde üçe ayrılmıştır. Veri seti üzerinde yapılan analizlerde, blok süreleri, uçuş süreleri ve taksi süreleri için özellik seçimi adımında pearson korelasyonu ve ısı haritası analizleri gerçekleştirildi. Bunun yanı sıra en küçük kareler ve karar ağacı algoritmaları ile ön modeller oluşturularak, en önemli değişkenlerin belirlenmesi ve bu değişkenlerin modeli açıklama başarısı incelendi. Modelleme aşamasında, sürekli bir hedef değişkenin tahmin edilmesi gerektiği için denetimli makine öğrenmesi yöntemlerinden regresyon modelleri tercih edildi. Bu kapsamda Lineer Regresyon, Lasso, Ridge, Elastic Net, Random Forest, Bagging ve XG Boost regresyon modelleri kullanıldı. Tüm modeller için kullanılan regresyon tekniklerinde, ilk aşamada modellere varsayılan parametreler uygulandı. Daha sonra elde edilen sonuçlar, grid search ve çapraz doğrulama yöntemleri ile eğitilerek tekrar çalıştırıldı. Çapraz doğrulama sürecinde 5-katlı doğrulama modele uygulandı. Modellerin optimize edilmesi için uygulanan grid search yöntemi için değerlendirme metriği olarak ortalama mutlak hata metriği seçildi, böylece sapmaların ne kadar olduğu daha iyi analiz edilebildi. Elde edilen sonuçlar sayesinde en iyi modellerin belirlenmesi ve en iyi parametrelerin keşfi sağlanmıştır. En iyi parametrelerle tercih edilen en iyi model, validasyon setinde tekrar eğitilmiş ve ardından model sisteme kaydedilmiştir. Daha sonra kaydedilen bu model, test veri seti üzerinde çalıştırılmıştır. Optimize edilmiş model sonuçları ile test veri seti üzerinde çalıştırılan sonuçlar karşılaştırılmıştır. Ayrıca, modelin aşırı uyum ve aşırı basitleştirme problemleri incelenerek modelin genelleme yeteneği araştırılmıştır. Performans değerlendirme metrikleri olarak ortalama mutlak hata, ortalama hata kareleri, kök ortalama mutlak hata karesi, R kare ve ortalama mutlak hata yüzdesi kullanılmıştır. Modelleme adımının son aşamasında, bütünsel blok süre tahmini, parçalı blok süre toplamı tahmini, geçmişe dönük gerçekleşen bütünsel blok süre medyanı, taksi süreleri ve uçuş süresinden elde edilen medyan değerlerinin toplamından oluşan parçalı blok süre medyanı ve ilgili uçuş için daha önce planlanan blok süre sonuçları karşılaştırılmıştır. Çalışma sonuçlarına göre, bütünsel olarak ele alınan blok süre tahmini, alt bileşenlerinin tahmin toplamını ifade eden taksi süreleri tahmini ve uçuş süresi tahmini toplamıyla karşılaştırıldığında, ilk yaklaşımın daha iyi sonuç verdiği görülmektedir. Blok süre tahmini modeli, 0.95 açıklanan varyans ve 6.15 mutlak ortalama hatayla rakiplerini geride bırakmıştır. Ayrıca, alt bileşenlerin tahminlerinin toplamı için R Kare değeri 0.93 ve MAE ise 7.18 olarak gözlemlenmiştir. Geçmişe yönelik olarak, blok süre medyanı ile alt bileşenlerinin ortalamalarının toplamını ifade eden uçuş süresi medyan değeri ve taksi kalkış ve varış medyan değerlerinin toplamıyla karşılaştırıldığında, geçmişe yönelik bütünsel blok süre ortalamasının daha iyi sonuç verdiği görülmektedir. Ancak, bu medyan kıyaslamaları, makine öğrenimi yöntemleriyle tahmin gerçekleştirilen model ile karşılaştırıldığında 0.70 değerlerine düşerek önemli miktarda performans düşüklüğü göstermiştir. Sonuç olarak, bütünsel blok süre tahmini, 0.95 açıklanan varyans ve 6.15 MAE değeri ile en iyi performansı gösteren model olmuştur. Bu model, hem alt kategorilerin ayrı ayrı tahminlerinin toplamı modelinden hem de geçmişe dönük gerçekleşen blok süre medyan değerinden ve alt bileşenlerin medyan toplamlarının karşılaştırmasından daha iyi bir performans sergilemiştir. Bu çalışmanın sonuçları, havacılık sektöründe zamanında performansın artırılması ve operasyonel verimliliğin optimize edilmesi için blok süre tahmininin kritik bir öneme sahip olduğunu göstermektedir. Ayrıca, kullanılan veri kaynakları ve modelleme teknikleri, havacılık endüstrisinde verimliliği artırmak ve operasyonel süreçleri optimize etmek için potansiyel birer araç olarak öne çıkmaktadır. Bu çalışma, havacılık sektöründeki paydaşlara, on time performansın artırılması için veri odaklı ve analitik bir yaklaşımın önemini vurgulamakta ve gelecekte yapılacak çalışmalar için bir temel oluşturmaktadır.
-
ÖgeMultimodal vision-based driver monitoring system in autonomous vehicles(Graduate School, 2023-02-03)Driver fatigue and distractions are major causes of accidents and fatalities on the roads, and there is a pressing need for effective technologies to detect and mitigate these risks. In this thesis, we presented a vision-based driver monitoring system (DMS) that aims to improve road safety by detecting and alerting drivers to potential dangers or distractions, and by providing a more comprehensive and robust representation of the driver's actions and behaviors. The DMS is based on a multimodal data source, comprising a camera, vehicle CAN data, and other sensors, to provide a wide range of information about the driver and the driving environment. To improve the accuracy and reliability of the DMS, we developed a unique dataset containing synchronized output from multiple sensors in both RGB and IR formats, which can be used for training, testing, and validation of the DMS. This dataset is unique in that it contains synchronized output from multiple sensors in both RGB and IR formats, which allows for the development and evaluation of DMS modules that can operate on both types of data. To detect and classify different types of distractions and impairments, we developed a hybrid visual distraction module that combines head pose and gaze estimation. We also developed an adaptive gaze estimation model that works on both RGB and IR data, and we adapted the HourGlass CNN to work on IR data. To detect drowsiness, we used the Mediapipe framework and Empatica e4 wristband, and to detect phone usage, driver presence, and eating/drinking, we used a combination of computer vision and detection algorithms. To evaluate the performance of the DMS, we used a variety of metrics and benchmarks, including accuracy, precision, false positive rate, etc. The results showed that the DMS achieved high accuracy and reliability in detecting and classifying different types of distractions and impairments. Overall, this work makes a significant contribution to the field of driver monitoring and road safety by providing a novel and effective approach for detecting and mitigating driver fatigue and distractions using multimodal data and a hybrid visual distraction module. The unique dataset and the proposed DMS can be used as a benchmark for future research and development in this area. In addition, the results of this study have the potential to inform policy and practice related to driver monitoring and road safety, and to improve the safety and efficiency of transportation systems.