LEE- Bilgisayar Bilimleri Lisansüstü Programı
Bu topluluk için Kalıcı Uri
Gözat
Başlık ile LEE- Bilgisayar Bilimleri Lisansüstü Programı'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeA secure peer-to-peer media distribution using blockchain technology(Graduate School, 2022) Mhaish, Anas ; Özdemir, Enver ; 720170 ; Computer Science ProgrammeAs demand for online services has risen, video streaming services have scored a high share and bandwidth usage. A high proportion of these online services are users using smart devices to download and cache the streamed video segments. Collaborative video stream approaches have appeared, some of them are distributed among the internet, and others are using the wireless connection of the community to distribute the video segments. This thesis presents a method to distribute the video segments using a wireless connection to build a peer-to-peer network. It implements a method that describes the usage of Blockchain technology facilitates a secure and fast data transfer with the ability to detect and respond to malicious behaviors. Users can join and leave the network whenever they want, once the user joins the peer-to-peer network, previous streamed video segments owners will be shared with him by the Blockchain. The user can participate in the network by sharing his downloaded streamed segments to special nodes, these special nodes ensure the security of the method and are responsible for adding blocks to the blockchain. The thesis provides two layers of security, the first one is the blockchain itself which ensures the immutability and distribution of the data and the network contribution. The second layer is the Owner Hashed-Segments Table which helps to shared hashed segments among the nodes for validation and provides a dictionary of packets owners to ease request packets from their owners. It provides immutability and integrity to the segment. Inside the second layer, there is the Malware Tolerance Table which monitors the nodes for any malicious behavior and protects the system against Distributed Denial-of-service attacks. These are included inside the block of the blockchain and distributed to all nodes by the verifier nodes. These verifier nodes identities should be revealed and authenticated. \newpage A peer-to-peer network is constructed that consists of any smart devices. The smart devices represent the Nodes (peers) in the network. A special node called Verifier is responsible for the security measurements of the network, and responsible for adding blocks to the blockchain and distributing the blockchain among the nodes. A Node is going to connect to a streaming service or server to download video segments. Any node can join the network by Wifi without the need to connect to stream service or to have an internet connection. The block does not contain the segment itself but it contains the hash value of the segment, this value is fixed in size and a result of running the Message-Digest Algorithm function.
-
ÖgeAccelerating molecular docking using machine learning methods(Graduate School, 2022-09-12) Bande, Abdulsalam Yazid ; Baday, Sefer ; 704191001 ; Computer ScienceDrug discovery is a very challenging process that is not only time-consuming but also highly expensive and billions of dollars are invested in its research and development. Not only is the process expensive, the quality and safety of the final product also needs to be addressed. Computer Aided Drug Design (CADD) refers to computational techniques that are used to design and develop new compounds. An example of CADD is virtual screening (VS). VS is one of the well-established approaches in drug discovery that speeds up the search for a bioactive molecule and reduces costs associated with experiments. It is essentially a technique to search libraries of small molecules with the goal of finding the ones that bind onto a particular target biomolecule. The target can be a protein, nucleic acid etc. There are two types of VS: structure-based virtual screening (SBVS) and ligand-based virtual screening (LBVS). SBVS is used when the 3D structure of the target protein is known, in this case, usually docking calculation is used to find the complex structure of ligand with the drug target. Docking calculations are one of the commonly used and highly appreciated structure-based drug discovery methods. Moreover, different ligands can have different binding affinities when docked on receptors, so scoring functions are used in ranking the ligands during the VS process. The scoring functions take into account different factors of molecules and are categorised into knowledge-based, force-field-based and empirical based. Different scoring functions can be used in software tools like AutoDock-Vina. Moreover, for a ligand to be docked onto a receptor, there can be a high number of conformational degrees of freedom of both the molecules and computation can increase exponentially. So, sampling methods are applied to select conformations of ligands in the active site of the protein. There are a variety of algorithms used in sampling and they all have different characteristics. Genetic algorithms (GA) and Monte Carlo (MC) are some of some algorithms based on stochastic search and the different algorithms can also be accessed from software tools such as AutoDock-Vina. In docking, the flexibility of both ligand and the receptor can be taken into account. In general, there are two forms of docking, and they are flexible receptor-flexible ligand and rigid receptor-flexible ligand. When the 3D structure is not known, LBVS is used and different searching algorithms such as similarity search, pharmacophore searching can be applied to identify structures that bind onto a target. Quantitative Structure-Activity Relationships (QSAR) modelling is also a computational method that is used in LBVS and it is used in finding relationships between structural properties and bioactivities of compounds. Furthermore, VS helps to narrow down the search space of chemical space and allows the selecting fewer and more probable candidate compounds for experimental testing. Databases for chemical structures of small molecules have been growing rapidly. For example, the ZINC database contains 230 million molecules ready to purchase. However, docking millions of molecules comes with many challenges, for example a good computing infrastructure and expertise in the HPC environment are needed. The aim of this work is to accelerate molecular docking calculations by predicting docking scores without explicitly performing docking calculations. For example, instead of docking 4 million molecules onto a target, only 7k of the 4 million molecules could be docked and the docking results can be used to train a machine learning model that can be used to predict the docking results of the remaining molecules. This approach saves a significant amount of computation resources and time. This work makes use of multiple machine learning models that includes a deep neural network based model, which is a long short term memory neural network model (LSTM). Neural networks models, which were originally inspired by the biological brain, contain a series of layers and in each layer a mathematical operation is performed, and the result is fed into a subsequent layer. A final layer then outputs a single scalar. In the case of this work, the final output is a docking score. Furthermore, each layer extracts a certain information from the original input. In this work, the neural network (LSTM) is coupled with an attention mechanism which helps the model focus more on the more important part of the input. The neural network model is implemented using the popular machine learning framework which is Pytorch. Other models used in this research are XGBoost which is implemented from the XGBoost python library, decision tree regressor and stochastic gradient descent regressor from the scikit-learn python library. We worked on two datasets that were produced in our group. In one dataset a ligand library of 3.5 million molecules were docked into three different targets, in the second dataset 400.000 molecules were docked into four targets. The ligands from all the datasets are represented in Simplified molecular-input line-entry system (SMILES) and the unit of the docking scores is kcal/mol. The SMILES are converted to a numeric form using one or a concatenation of three descriptors used in the system. Molecular ACCess System (MACCS) is one of the descriptors used. This descriptor starts with a 167-bit vector of zeros and each position is indexed with one if it satisfies a condition, for example, the condition can be if the molecule contains a nitrogen atom. The second descriptor used is One Hot Encoding, it also starts with a vector of zeros and then indexed with one if a condition is satisfied at any position. The final descriptor used is Extended Connectivity Circular Fingerprints (ECFPs). This particular descriptor also encodes SMILES into bits of ones and zeros, but unlike the other ones, it uses more chemical information of molecules for the encoding process. Furthermore, concatenated descriptors have also been experimented with and it was this technique that led to the best results. We achieved an astonishing R2 of 0.90 in target two using an LSTM. In general, the results were also good in terms of the MSE and MAE metric. For example, in all the different cases of different models and different training set sizes, the average MSE was below 0.30 and the MAE was below 0.45. Furthermore, the results of the second dataset were surprising to us as training using 7k using LSTM resulted in R2 less than 0.78 in all the targets and the results of the other models were even worse. A deep analysis between the dataset was conducted in order to explain the difference of results. Furthermore, we did not encounter overfitting issues in training, in many cases results for the models training phase were the same as the ones in the testing phase. For instance, in target one, training and testing on LSTM for 7k achieved an R2 of 0.83 for both cases. Moreover, the system is designed with ease of use in mind. All the user needs to provide is a csv file containing smiles and their respective docking scores of a specific target, the system then outputs a model that the user can use for future smiles predictions. In terms of the training times of the models, apart from the LSTM model, most of the models training was in less than a minute as this was due to optimizations of the XGBoost and the scikit-learn libraries. Training on LSTM using a size of 7k was in less than 2 minutes and testing up to 3.5 molecules was accomplished in approximately an hour. In conclusion, docking of huge chemical libraries requires good computational power and coding expertise that some researchers lack. In this work, the methodology we proposed can be used to accelerate screening of very large libraries easily even on a personal computer. Using just a small percentage of millions of molecules, some of the models on some targets achieved good results. The importance of molecular descriptors was also demonstrated and even powerful models like neural networks are impacted by the descriptors.
-
ÖgeCNN-based server state monitoring and fault diagnosis using infrared thermography(Graduate School, 2022) Wiysobunri, Beltus Nkwawir ; Erden, Hamza Salih ; Töreyin, Behçet Uğur ; 714446 ; Computer Sciences ProgrammeOver the last few decades, data centers (DCs) have rapidly evolved to become the backbone of some of the world's most critical and prominent institutions such as banking, health, information and communication technology (ICT) industries. This exponential growth is triggered by the dramatic increase in the number of internet users and the high demand for diverse cloud-based applications such as Big Data, artificial intelligence (AI), internet of things (IoT), etc. As a consequence, there has been a simultaneous rise in the number of DCs and the amount of electricity consumption of DCs. This increase introduced new complex challenges in the DC facility such as thermal management, system reliability sustenance and server failure minimalization. To tackle these challenges, computational fluid dynamic (CFD) models have been proposed in the literature. The CFD models are capable of accurately describing the DC thermal dynamics and temperature distributions although they are computationally expensive. The availability of huge data and computational power has introduced machine learning (ML) data-driven approach as a promising method. Data-driven techniques have the ability to find complex patterns and relationships in data between system parameters without explicit knowledge of the physical behaviour of the system. However, their performance is limited by several factors including the type of data, feature extraction methods, and choice of algorithm. A hybrid approach that integrates CFD models with data-driven models provides an attractive alternative solution. However, it suffers from the drawbacks of both CFD and ML data-driven methods. In this study, we evaluate for the first time in the literature, seven state-of-the-art deep pretrained convolutional neural network (CNN)-based architectures and two shallow CNN-based architectures applied on server surface infrared thermography (IRT) images for the automatic diagnosis of five server operation conditions. These conditions include partial processor (CPU) load, maximum CPU load, main fan failure, CPU fan failure, and server entrance blockage. Our approach is a supervised learning approach based on the concept of transfer learning which involves two main stages. First, a CNN model classifier pretrained on the large ImageNet dataset is used to extract lower level features. Second, the IRT images are used to fine-tune the higher levels of the CNN model classifier. A stratified five-fold cross-validation resampling method is used to evaluate the effectiveness and generalization of the shallow and deep model architectures for five data sample split ratios. Results suggest that the CNN architectures achieve high prediction performance accuracies, with the majority having above 98% test accuracies across multiple split ratios. These results are significantly higher than those obtained using a traditional support vector machine classifier trained on handcrafted features. The effectiveness and robustness of the CNN-based algorithms can provide DC operators with an alternative approach to improve thermal management, energy efficiency, and system reliability of servers in DCs.
-
ÖgeDetection of local structural distortions in skin due to skin cancer by raman spectroscopy and machine learning(Graduate School, 2024-05-31) Güler, Muhammet Melih ; Kurt, Onur ; 704211018 ; Computer SciencesA significant portion of the global population is increasingly affected by skin cancer, particularly basal cell carcinoma (BCC), which is common and often appears on sun-exposed skin areas. BCC typically grows slowly and invades locally but can metastasize. In the U.S., BCC has an incidence rate of 300 per 100,000 people, with a 30% lifetime risk and an annual increase of over 10%. BCC significantly impacts healthcare systems. Modern biomedical research, using technologies like Raman spectroscopy combined with machine learning (ML), offers new ways to accurately diagnose skin malignancies. This study used Raman spectroscopy and supervised ML algorithms to identify structural irregularities in tumor-affected tissues and differentiate between nodular and infiltrative BCC, aiming to speed up diagnosis and reduce mortality. Approved by the ethics committee of Şisli Hamidiye Etfal Training and Research Hospital in Istanbul, Türkiye, the study involved excising BCC tissues for Raman spectroscopy analysis. The data underwent preprocessing steps such as cosmic ray elimination, fluorescence background removal, and spectrum normalization. Nine different ML models were used to classify BCC and differentiate its subtypes. Results showed that RF and KNN achieved the highest accuracy in distinguishing BCC from normal tissue (98.4%) and in differentiating BCC subtypes. This study highlights the potential of Raman spectroscopy and ML as effective, non-invasive tools for diagnosing BCC and its subtypes.
-
ÖgeDevelopment of novel inhibitors targeting DRP1-MID49/51 interaction at mitochondrial fission(Graduate School, 2022-04-20) Ghaderkalankesh, Behnaz ; Baday, Sefer ; 704181005 ; Computer SciencesMitochondria are responsible for the production of the majority of our energy known as Adenosine Triphosphate(ATP). Energy production is the best-known role of mitochondria but they are responsible for other important tasks as well. Mitochondrial fission and fusion are necessary process for naturally dynamic mitochondria. Mitochondrial dysfunction plays a significant role in the development and progression of several diseases such as cancer and diabetes. Mitochondria continually undergo shape and number changes by fission and fusion. Cytoplasmic GTPase Dynamin-related protein 1 (DRP1) regulates mitochondrial fission. It is a protein, part of the dynamin family which is made up of an N-terminal GTPase domain and a C-terminal GTPase effector domain. MiD49 and MiD51 are mitochondrial dynamics proteins linked to the mitochondrial outer membrane. These two proteins directly recruit Drp1 protein to the mitochondrial membrane to form a ring around and start the fission process. Recent studies have shown that cancer tumors alter mitochondrial dynamics to resist apoptosis by causing fission protein, Dynamin-related protein 1 (DRP1) to overexpress. In addition, this is the cause of neurodegenerative and diabetes type 1 disorders. As a result, designing new inhibitors will have a great impact on finding ways to overcome mitochondrial disorders. While there have been many molecular docking studies about Drp1-MiD49/51 inhibition recently, in order to design small molecules that can be utilized as drugs, and not have side effects like Mdivi1 and Dynasore we performed this study in a specific way. Molecular docking calculation is an important approach in the field of drug design and discovery which is used when we want to predict a ligand-receptor complex structure. Docking is accomplished in two phases that are intertwined. First, sampling the structure of the ligand, as well as its position and orientation inside the protein's active site, and then these created conformations will be ranked among all conformations by a scoring function. Structure-based virtual screening (SBVS), also known as target-based virtual screening (TBVS), is a computational technique used in drug discovery which computationally screens a library of small molecules against a target to identify the best binding and high scored molecules. This study comprises two phases, first phase uses computational approaches that may improve resource utilization and speed drug development, and in the second phase, found novel compounds will be synthesized for further steps. In this thesis, the main focus will be on the computational phase of the work. Here we aim to inhibit DRP1-MiD49/MiD51 proteins interaction in several ways. In the first packet, we tried to design new inhibitors targeting the DRP1-GTPase nucleotide-binding domain. For this goal, docking calculations were performed in several stages. To start docking calculations, 3.5 million, in-stock, lead-like small molecules from the ZINC database were used. Autodock vina, Ledock and Schrodinger Glide(XP) programs were used in different steps for docking calculations. The reason for choosing these three programs was their high performance in different studies so far. After docking calculations for 3.5 million molecules another step was performed which was the docking of the previous step's high scored molecules to DRP1 protein's off-target proteins and in the same way to DRP1 protein using Vina(exhaustiveness 24) and Ledock. In the next step, molecules with specific criteria were selected for docking using Glide XP and then clustering and ADME/T (absorption, distribution, metabolism, and excretion/toxicity) properties to select optimum ligands for their possible pharmaceutical use. As the final step of the first path, high-scored molecules from the previous step were selected for molecular Dynamic simulations to calculate binding free energy using the OSPL2005 force field and TIP3P water model of Schrödinger Desmond Software and MMGBSA calculations. Finally, 30 molecules were selected as the molecules with the highest free binding energies. In the second packet, every step in packet 1 was repeated identically for MiD49 and MiD51 proteins.
-
Ögeİnsan gen yolaklarında ikâme modelleme ve makine öğrenmesi kullanarak varyant analizi(Lisansüstü Eğitim Enstitüsü, 2024-07-01) Aydın, Furkan ; Tuna, Süha ; 704211005 ; Bilgisayar BilimleriSon yıllarda, genetik kompleks hastalıkların incelenmesi ve doğru bir şekilde tahmin edilebilemesi için birden fazla gen verisinin birleştirilmesini içeren kapsamlı bir analiz gerektiği anlaşılmıştır. Bu kapsamda, Genom Çapında İlişkilendirme Çalışmaları ve Poligenik Risk Skorları, kompleks hastalıkların genetik temellerini anlamamızda önemli ilerlemeler sağlamıştır. Genom Çapında İlişkilendirme Çalışmaları, birçok bireyin genomlarını analiz ederek belirli hastalıklarla ilişkili genetik ayrımları tanımlar ve kompleks özelliklerin genetik yapısına dair fikir sunar. Poligenik Risk Skorları ise Genom Çapında İlişkilendirme Çalışmaları tarafından tanımlanan birçok genetik varyantın etkilerini birleştirerek, bireyin belirli bir hastalığa olan genetik yatkınlığını ölçer. Ayrıca, çok boyutlu gen yolaklarını analiz edebilecek ve eğitilebilir hale getirecek güçlü matematiksel modeller geliştirilmiştir. Makine öğrenmesi ve yapay zeka alanında geliştirilen yeni yöntemler ise gen yolaklarının eğitimi ve test edilmesi için önemli olanaklar sunmaktadır. Bu çalışmada, birden çok gen tarafından etki edilen kalıtımsal hastalıkların belli bir birey için var olup olmadığına karar verecek bir model geliştirilmiştir. Modeli eğitmek ve doğruluğunu test etmek amacıyla iki farklı gen yolağı kullanılmıştır. Bunlar mTOR ve TGF-β gen yolaklarıdır. Tezde kullanılan gen yolakları, gerçek hastalıklara karşılık gelen gen yolaklarının analizleri sonucunda elde edilen verilerin kullanımı ile oluşturulan yapay gen yolaklarıdır. Sırasıyla 31 ve 93 gen içeren bu gen yolakları, insan verisi kullanılmadığı için herhangi bir izne ihtiyaç duymadan kullanılabilir durumdadır. Çalışmada önerilen modelle, gen yolakları öncelikle ön işleme adımına tabi tutulmuştur. Bu adım, özellik çıkartma ve boyut indirgeme olmak üzere iki aşamadan oluşmaktadır. Özellik çıkartma aşamasında, her bir gen için Kaos Oyunu Temsili metodu uygulanmış ve her bir gen, iki boyutlu bir desen ile ifade edilebilir hale getirilmiştir. Daha sonra, bu iki boyutlu desenler gen sırası dikkate alınarak bir Kaos Oyunu Temsilinin kübü oluşturulmuştur. Kaos Oyunu Temsili yöntemi, gen verilerini görselleştirmek ve analiz etmek için güçlü bir araçtır ve gen yolağı analizi gibi çeşitli uygulamalarda yaygın olarak kullanılmaktadır. Ardından, Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösterimi tekniği kullanılarak, üç boyutlu olan Kaos Oyunu Temsili kübü daha düşük boyutlu bileşenlere indirgenmiştir. Bu bileşenler arasından iki boyutlu olanlar seçilerek birleştirilmiştir. Ortaya çıkan Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösteriminin bileşenleri, tüm bir gen yolağını temsil eden bir resim oluşturmuştur. İkinci olarak boyut indirgeme aşaması uygulanmıştır. Boyut indirgeme aşamasında, özellik seçme aşamasıyla oluşturulan ve gen yolağını temsil eden iki boyutlu resim, Temel Bileşen Analizi yöntemi kullanılarak bir vektöre indirgenmiştir. Bu işlem sırasında, temsil resminin her bir satırı bir girdi gibi koordinat düzlemine verilerek Temel Bileşen Analizi yöntemi uygulanmıştır. Bu yöntem sonucunda ortaya çıkan Temel Bileşen Analizinin bileşenleri bu verilerin bir temsili kabul edilmiştir. Bu yaklaşım sayesinde, iki boyutlu bir resim Temel Bileşen Analizinin bileşenleri ile ifade edilebilen bir vektöre dönüştürülmüştür. Vektörün temsildeki tutarlılığını ölçmek için her bileşen seçimi için ayrı ayrı testler yapılmıştır. Ön işleme adımı tamamlandıktan sonra, makine öğrenmesi aşamasına geçilmiştir. Bu aşamada, Destek Vektör Makinesi algoritması kullanılmıştır. Her bir gen yolağı için oluşturulan vektör, algoritmaya girdi olarak verilmiş ve 5-katlı Çapraz Doğrulama yöntemi ile eğitim ve testler gerçekleştirilmiştir. 5-katlı Çapraz Doğrulama yöntemi sayesinde, sağlıklı ve hasta grupları bağımsız iki alt gruba ayrılarak eğitim ve test veri setlerinin ayrılması sağlanmıştır. 5-katlı olduğu için bu işlem birbirinden bağımsız beş farklı şekilde gerçekleştirilmiştir. Bu yöntemle elde edilen sonuçlar, eğitim ve test kümelerinin seçiminden kaynaklı hataları minimize etmiştir. Elde edilen sonuçlar grafiklerle gösterilmiş ve analiz edilmiştir. Python ve MATLAB, çalışmada çeşitli hesaplama tekniklerini ve algoritmaları uygulamak için kullanılmıştır. Python, NumPy, Pandas ve Scikit-learn gibi geniş kütüphaneleriyle veri manipülasyonu, istatistiksel analiz, Kaos Oyunu Temsili yöntemi ve makine öğrenmesi uygulamaları için kullanılmıştır. MATLAB ise güçlü matematiksel ve görselleştirme araçlarıyla karmaşık sayısal hesaplamalar ve Çok Değişkenliliği Yükseltilmiş Çarpımlar Gösterimi yönteminin sonuçlarının görselleştirilmesi için kullanılmıştır. Bu iki güçlü programlama ortamının kombinasyonu, genetik verilerin etkin bir şekilde işlenmesi ve analiz edilmesini sağlamış, doğru ve tekrarlanabilir sonuçlar elde edilmesine yardımcı olmuştur. Geliştirilen model ile mTOR ve TGF-β gen yolakları için sırasıyla \%99 ve \%90'ın üzerinde doğruluk elde edilmiştir. Sonuç olarak, önerilen model, karmaşık gen yolakları için sağlam ve tutarlı bir sınıflandırma sağlamış, genotipe dayalı hasta ve sağlıklı gruplar arasında ayrım yapmada umut verici sonuçlar elde etmiştir. Bu bulgular, genetik hastalıkların tahmini ve teşhisi açısından önemli sonuçlar içerir. Gelecekte, modelin daha büyük ve çeşitli veri setleriyle uygulanması, farklı makine öğrenmesi algoritmalarının entegrasyonu, modelin performansını daha da artırabilir ve genetik biliminin daha geniş bir alanınında uygulanabilirliğini sağlayabilir. Bu iyileştirmeler, daha doğru ve kapsamlı modellerin geliştirilmesine katkıda bulunabilir, böylece sağlık sonuçlarını iyileştirme ve genetik hastalıkları anlama konusundaki bilgi birikimimizi artırabilir.
-
ÖgeMultimodal vision-based driver monitoring system in autonomous vehicles(Graduate School, 2023-02-03) Ghasemzadeh, Leiya ; Baday, Sefer ; 704191012 ; Computer ScienceDriver fatigue and distractions are major causes of accidents and fatalities on the roads, and there is a pressing need for effective technologies to detect and mitigate these risks. In this thesis, we presented a vision-based driver monitoring system (DMS) that aims to improve road safety by detecting and alerting drivers to potential dangers or distractions, and by providing a more comprehensive and robust representation of the driver's actions and behaviors. The DMS is based on a multimodal data source, comprising a camera, vehicle CAN data, and other sensors, to provide a wide range of information about the driver and the driving environment. To improve the accuracy and reliability of the DMS, we developed a unique dataset containing synchronized output from multiple sensors in both RGB and IR formats, which can be used for training, testing, and validation of the DMS. This dataset is unique in that it contains synchronized output from multiple sensors in both RGB and IR formats, which allows for the development and evaluation of DMS modules that can operate on both types of data. To detect and classify different types of distractions and impairments, we developed a hybrid visual distraction module that combines head pose and gaze estimation. We also developed an adaptive gaze estimation model that works on both RGB and IR data, and we adapted the HourGlass CNN to work on IR data. To detect drowsiness, we used the Mediapipe framework and Empatica e4 wristband, and to detect phone usage, driver presence, and eating/drinking, we used a combination of computer vision and detection algorithms. To evaluate the performance of the DMS, we used a variety of metrics and benchmarks, including accuracy, precision, false positive rate, etc. The results showed that the DMS achieved high accuracy and reliability in detecting and classifying different types of distractions and impairments. Overall, this work makes a significant contribution to the field of driver monitoring and road safety by providing a novel and effective approach for detecting and mitigating driver fatigue and distractions using multimodal data and a hybrid visual distraction module. The unique dataset and the proposed DMS can be used as a benchmark for future research and development in this area. In addition, the results of this study have the potential to inform policy and practice related to driver monitoring and road safety, and to improve the safety and efficiency of transportation systems.
-
ÖgeScene change detection with triplet loss network using self-supervised learning(Graduate School, 2024-07-17) Nayır, Burak ; Akgül, Tankut ; 704211004 ; Computer ScienceScene transition detection, one of the most critical topics in image processing, has attracted considerable attention in recent research initiatives. Detecting scene transitions is essential in various fields, including video editing, search algorithms, and analytical applications. The demand for automatic scene change detection has increased among many users, especially with the rapid increase in social media content. Various methodologies for scene transition detection include neural networks, classical audio processing techniques, and image processing algorithms. In this study, we created a CNN model called FraSim and a new dataset to train it, and combined it with classical image processing method Structural Similarity (SSIM). The process of creating the dataset involved enriching the transitions of scenes with frames taken from movie scenes collected over the internet. The same dataset is available in both grayscale and RGB format and also includes audio. A unique algorithm was designed to extract frames and associated audio during dataset creation, ensuring that only the most notable frames are retained. The frames in the dataset were carefully categorized per scene and per movie. Training the model was carried out using a self-supervised approach. For this purpose, we utilized powerful techniques like Triple Loss and Siamese Network architecture. Triple loss, in particular, played a crucial role in improving the model's effectiveness by optimizing distance measurements between similar and dissimilar samples. This research effort significantly contributes to the field of automatic video analysis. By introducing a new approach to scene transition detection that encompasses both the structure of the training dataset and the architecture of the deep learning model, we have opened up new possibilities for the field. The impressive accuracy rate of up to 97.84% achieved using FraSim with the RGB Dataset clearly indicates this research's potential impact. The integration of classical image processing techniques with the development of an intelligent system using FraSim further strengthens the effectiveness of scene transition detection, underlining the versatile nature of this innovative research effort.
-
ÖgeTek sahneli sıkıştırılmış videoda anomali tespiti(Lisansüstü Eğitim Enstitüsü, 2022-02-14) Çavaş, Sümeyye ; Töreyin, Behçet Uğur ; 704181019 ; Bilgisayar BilimleriSürekli olarak gelişen dünyamız sağladığı birçok kolaylık ile birlikte bunların bir sonucu olarak ortaya çözülmesi gereken yeni problemler çıkarmaktadır. Bu durum, teknolojinin sürekli olarak gelişmesi ihtiyacını doğurmuştur. Bu teknolojik gelişmenin bir parçası olarak, günden güne gelişen, yeni özelliklere sahip olan, giderek daha küçük bir boyuta sığdırılan ve erişebilirliği tüm dünyayı kapsamış olan kameraları gözümüzü çevirdiğimiz her tarafta görebilmekteyiz. Bu kadar etrafımızda olan kameralardan her bir gün veri kaydının gerçekleştirildiğini düşündüğümüzde, kaydolan bu veri miktarının muazzam seviyelere ulaşabileceğini çok rahat bir şekilde söyleyebiliriz. Ortaya çıkan bu verilerin insanlar tarafından sürekli olarak takip edilip kontrol altına alınması mümkün değildir. Bu noktada, çözüm olarak birçok sektörde insandan bağımsız akıllı sistemler geliştirilmiştir ve halen geliştirilmeye devam edilmektedir. Örnek olarak, pazarlama sektöründe bir ürüne olan talebin daha çok nasıl artırılabileceği gibi yada sağlık sektöründe bir hastalık için daha doğru karar veren sistemlerin nasıl geliştirilebileceği gibi yada savunma sektöründe daha güvenli sistemlerin nasıl oluşturulabileceği ve yolunda gitmeyen birşeyler olduğunda nasıl farkedilebileceği gibi çeşitli sorulara akıllı cevaplar sunan sistemler düşünülebilir. Bu tezde, kameralardan toplanan veriler üzerinde akıllı bir çıkarım yapma çalışması gerçekleştirilmiştir. Bu çıkarım, kameradan alınan bir video verisinin, normal seyrinde hareket edip etmediğini veya anormal herhangi bir durum içerip içermediğini tespit etmek şeklindedir. Bu çalışma, bir videonun çerçeve bazlı düzenlilik değerini grafik üzerinde gösterme ve tüm test videolarını kapsayacak şekilde modelin performansını değerlendirme şeklinde oluşturulmuştur. Videoda anomali tespiti üzerine şuana kadar birçok çalışma gerçekleştirilmiştir. Bu çalışmayı diğerlerin ayıran en önemli özellik, çalışmanın sıkıştırılmış video alanında ortaya çıkan hareket vektörleri kullanılarak gerçekleştirilmiş olmasıdır. Video sıkıştırma üzerine birçok standart geliştirilmiştir. Bu çalışmada, günümüzde yaygın olarak kullılan video sıkıştırma standartlarından biri olan H.265 standardına göre sıkıştırılmış olan videolar kullanılmıştır. Çalışma boyunca veri kümesi olarak, UCSD Pedestrian veri kümesi kullanılmıştır. Bu veri kümesinde, yaya yolu üzerindeki iki ayrı kameradan elde edilen videolar çerçeveler halinde sunulmuştur. Bu çerçeveler üzerindeki hareket vektörlerini çıkarabilmek için çeşitli işlemler gerçekleştirilmiştir. İlk olarak, bu çerçeveler bir araya getirilerek videolar oluşturulmuştur. Daha sonra her bir videonun sıkıştırılması amaçlanmıştır. Bunun için International Telecommunication Union (ITU) tarafından paylaşılan açık kaynak kod kullanılmıştır. Bu kaynak kodun derlenmesi sonucunda ortaya çıkan çalıştırılabilir dosya kullanılarak videolar üzerinde sıkıştırma işlemi gerçekleştirilmiştir. Sıkıştırma işleminden sonra, H.265 standardında, diğer bir ismi ile High Efficiency Video Coding (HEVC) standardında oluşmuş, .hevc uzantılı video verileri elde edilmiştir. Sıkıştırılan .hevc uzantılı videolar yine açık kaynak kodlu, GitlHevcAnalyzer analiz aracı kullanılarak incelenmiştir. Bu analiz aracı sıkıştırılmış videoya ait çeşitli bilgileri videonun çerçeveleri üzerinde göstermektedir. Ayrıca bu çerçeveleri üzerinde yer alan bilgiler ile indirmeye olanak sağlamaktadır. Bu araç sayesinde, sıkıştırılmış video üzerindeki hareket vektörleri videonun çerçeveleri üzerinde gösterilip, hareket vektörlerinin yer aldığı çerçeveler indirilerek kullanılmak üzere dışarıdaki bir ortama aktarılabilmektedir. Ayrıca bu araç açık kaynak kodlu olduğu için geliştirilip özelleştirilebilir hale getirilebilmesi de mümkündür. Örnek olarak, araç tarafından her bir çerçevenin tek tek indirilmesi mümkündür. Bizim çalışmamızda kullandığımız veri kümesinde ise 9210 tane çerçeve yer almaktadır. Bunların hepsinin araç üzerinden tek tek indirilmesi oldukça zahmetli ve uzun süren bir iş olacaktır. Bu süreci kolaylaştırmak amacıyla, bir videonun tüm çerçevelerini üzerindeki bilgiler ile birlikte tek seferde indirip dış ortama aktaracak kod geliştirilmiştir. GitlHevcAnalyzer aracı bu şekilde özelleştirilerek veri çıkarma sürecinin kolaylaşması sağlanmıştır. Hareket vektörlerini içeren çerçeveler model tarafından kullanılabilir hale gelmesi için çeşitli önişleme adımladından geçirilmiştir. İlk olarak sıkıştırma sonucunda hareket vektörlerinin asıl ortaya çıktığı 8 ve 8'in katı olan çerçeveler seçilmiştir. Diğer çerçeveler elenerek veri kümesine dahil edilmemiştir. Sonrasında, çerçeveler üzerindeki hareket vektörlerinin daha net bir şekilde görünmesi için, çerçevelerin yükseklik ve genişliği 480x720 olacak şekilde artırılmıştır. Daha sonra, hareket vektörleri dışındaki pikseller beyaz olacak şekilde tüm çerçeveler düzenlenmiştir. Böylece, çerçeveler üzerinde sadece hareket vektörleri bilgisinin yer alması sağlanmıştır. Son olarakta görüntüler grayscale formatına getirilmiştir. Bu işlem ile birlikte çerçeveler üzerindeki önişlemeler tamamlanarak model tarafından kullanılabilir hale getirilmiştir. Videoda anomali tespiti gerçekleştirmek için varyasyonel otomatik kodlayıcı tabanlı model kullanılmıştır. Bu varyasyonel otomatik kodlayıcıya, hareket vektörlerini içeren çerçeveler üçerli gruplar halinde verilmiştir. Böylece modelin geçmiş çerçevelerden de öğrenebilmesi sağlanmıştır. Varyasyonel otomatik kodlayıcının ilk katmanlarını konvolüsyonel katmanlar oluşmaktadır. Bu sayede, video çerçevelerindeki uzamsal bilgilerin öğrenilmesi amaçlanmıştır. Sonraki katmanlarını ise konvolüsyonel LSTM katmanlarından oluşmaktadır. Bu sayede ise, video çerçeveleri arasındaki zamansal bilgilerin öğrenilmesi amaçlanmıştır. Böylece, videodaki anomalinin, uzam-zamansal bir öğrenme gerçekleştiren varyasyonel otomatik kodlayıcının temelinde yer alan yeniden oluşturma hatasına dayalı olarak tespit edilmesi amaçlanmıştır. İlk olarak, tamamen normal videolardan oluşan eğitim kümesi ile model eğitilmiştir. Sonrasında, gerçekleştirilen eğitim sonucunda oluşan yeniden oluşturulma hatasının dağılımından yararlanılarak eşik değer seçimi yapılmıştır. Çerçeve bazlı anomali tespiti yaparken bu eşik değer kullanılmıştır. Model performansını değerlendirmek için iki farklı yöntem kullanılmıştır. İlk olarak, her bir test videosu için çerçeve bazlı düzenlilik skoru grafiği çıkarılmıştır. Bu grafik sayesinde videonun hangi çerçevesinden itibaren anormal bir durum gerçekleştiği, hangi çerçevelerden itibaren normale dönüldüğü gözlemlenebilmektedir. Test veri kümesinde normal ve anormal olacak şekilde çerçeve bazlı bir etiketleme mevcuttur. Bu çalışmada da, test veri kümesinde yer alan her bir videonun çerçeveleri için seçilen eşik değere göre tahminleme yapılmıştır. Böylece, ikinci olarak da, model tarafından yapılan tahminleme ile gerçek veri etiketleri kullanılarak modelin çerçeve bazlı tahminleme performansı değerlendirilmiştir. Oluşturulan düzenlilik skoru grafikleri incelendiğinde video akışına göre genel olarak tutarlı sonuçlar gösterdiği gözlemlenmiştir. Çerçeve bazlı etiketlemenin sonuçaları incelendiğinde ise, UCSD Ped1 veri kümesinde anormal çerçevelerin %60'lık kısmının, UCSD Ped2 veri kümesinde ise anormal çerçevelerin %78'lik kısmının tespit edilebilidiği görülmüştür. Sonuç olarak, bir videonun çerçevelerindeki tüm bilgileri kullanmak yerine, sadece bu çerçevelerdeki hareket vektörleri kullanılarak yapılmış olan bu çalışmanın etkin sonuçlar çıkardığı görülmüştür.
-
ÖgeTwitter verisi üzerinde COVİD-19'a karşı etkili olan ilaçların doğal dil işleme kullanılarak analizi(Lisansüstü Eğitim Enstitüsü, 2022) Kum, Orhan Talha ; Baday, Sefer ; 817434 ; Bilgisayar Bilimleri Bilim DalıYeni Koronavirüs Hastalığı (COVID-19), ilk olarak Çin'in Hubei eyaletinin Vuhan şehrinde ortaya çıkıp solunum yolu belirtileri (ateş, öksürük, nefes darlığı) gösteren bir grup hastada yapılan araştırmalar sonucunda 13 Ocak 2020'de tanımlanan şiddetli akut solunum sendromu koronavirüsü 2 (SARS-CoV-2)'nin neden olduğu bir hastalıktır. Kişiden kişiye bulaşabilen bu virüsün bulaşma oranı 2020 Ocak ayında büyüme gösterdi. Dünya üzerinde çeşitli ülkelerde yaşanan virüs vakaları görülmeye başlandı ve 11 Mart 2020'de Dünya Sağlık Örgütü tarafından pandemi ilan edildi. 27 Mart 2022 itibarıyla toplam vaka sayısı 479 milyon, koronavirüs kaynaklı ölüm sayısı ise 6 milyon olmuştur. Koronavirüs tedavisi için aşı ve ilaç çalışmalarına kısa sürede başlanmış ve günümüzde aktif olarak geliştirilmeye devam etmektedir. 27 Mart 2022 itibarıyla dünya genelinde 11.2 milyar doz aşı uygulanmış olsa da an itibarıyla, COVID-19'a enfekte olan kişileri tedavi etmek için onaylanmış, güvenli ve etkili bir farmakolojik ajan bulunmamaktadır. COVID-19 tedavisinde etkili olduğu düşünülen ilaçlar insanlar tarafından kullanılmış ve kullanılmaya devam etmektedir. Etkili olup olmadığı halen tartışma konusu olan ve COVID-19 tedavisinde kullanılan ilaçlara yönelik insanların düşüncelerini tespit etmek amaçlanmış ve bu doğrultuda sosyal medya platformlarından birisi olan Twitter tercih edilmiştir. Twitter günümüzde en yaygın olarak kullanılan sosyal medya platformlarından birisi olup akademik çalışmalarda yaygın olarak kullanılmaktadır. Twitter'ın Uygulama Programlama Arayüzü sayesinde insanların paylaşmış olduğu gönderilere ulaşılabilmekte ve bu sayede veriler üzerinde akademik çalışmalar yapılabilmektedir. Bu çalışmada, IEEE'nin 20 Mart 2020'de COVID-19 ile alakalı paylaşılmış olan, içerisinde tweet numaralarının olduğu ve günlük olarak güncellenen veri seti kullanılmıştır. 2020 Mart ayı ile 2022 Şubat ayı arasındaki veriler çekilmiştir. Veri seti ilk olarak İstanbul Teknik Üniversitesi bünyesindeki yüksek başarımlı hesaplama ve veri depolama amacıyla kullanılan Ulusal Yüksek Başarımlı Hesaplama Merkezi (UHEM) platformuna aktarılmıştır. Veri seti günlük olarak yaklaşık 1-3 milyon arasında veri içerdiği için veriler parça parça aktarılmıştır. Veri seti içerisinde yalnızca tweetin numarası olduğu için tweet içeriği Twitter Uygulama Progralama Arayüzü aracılığı ile bir Python betiği kullanılarak çekilmiştir. Toplam 1.4 milyar tweet bu şekilde çekilip bir NoSQL veritabanı olan MongoDB'ye yazılmıştır. Veri seti oluştuktan sonra başka bir Python betiği aracılığıyla içerisinde COVID-19'a karşı etkili olduğu düşünülen hydroxychloroquine, chloroquine, remdesivir ve azithromycin ilaçları geçen tweetler yaklaşık dizgi eşleme metodu kullanılarak çekilmiştir. Yaklaşık dizgi eşleme metodu kullanılmasının sebebi bu metin arama metodunun ilaç isminin yanlış yazılması durumunda da eşleşme sağlamasıdır. İçerisinde ilaç ismi geçen tweetler yeni bir veri setine aktarılmıştır. Yeni oluşan bu veri seti 3.5 milyon tweetten oluşmaktadır.
-
ÖgeZamanında performansı artırmak için makine öğrenme yaklaşımı ile blok süre tahmini(Lisansüstü Eğitim Enstitüsü, 2024-02-05) Soykan, Seda ; Baday, Sefer ; 704201005 ; Bilgisayar BilimleriHavacılık sektörü günümüzde hızla büyüyen ve gelişen bir endüstri olup, operasyonel verimlilik ve zaman yönetimi bu endüstri için büyük önem taşımaktadır. Özellikle on-time performansı, havayolu şirketleri ve havaalanları için oldukça öenmli bir başarı metriği haline gelmiştir. Müşteri memnuniyeti, operasyonel verimlilik, maliyet etkinliği ve rekabet avantajı gibi birçok faktörü etkileyerek havacılık sektöründeki tüm paydaşlar için kritik bir yere sahiptir. Bu bağlamda, bu çalışma havacılıkta on-time performansın artırılması amacıyla blok süre tahmini üzerine odaklanmaktadır. Bu analiz, havayolu operasyonlarının zamanlama ve süreçlerin daha etkin bir şekilde yönetilmesine katkı sağlayarak hem havayolu şirketleri hem de havaalanları için önemli bir değer yaratmayı amaçlamaktadır. Amerika Birleşik Devletleri Ulaştırma Bakanlığı tarafından sağlanan Ulaştırma İstatistikleri Bürosu (BTS) veri tabanı ve Azure platformu üzerinden elde edilen hava durumu verileri birleştirilerek, modelleme aşamasında kullanılmak üzere nihai bir veri seti oluşturulmuştur. Veri seti üzerinde gerekli filtrelemeler ve analizler gerçekleştirilmiş, veri ön işleme adımında eksik değerler ile uç değerlerin analizi ve veri doldurma gereksinimleri ele alınmıştır. Çalışma kapsamında iptal edilen veya yönlendirilen uçuşlar göz ardı edilmiş ve sadece varışı gerçekleşen uçuşlara odaklanılmıştır. Yayınlanan raporlar ve veri analizleri sonucunda, on-time performansında en fazla sapmaya sahip olan Florida eyaletinde gerçekleşen uçuşlar seçilmiştir. Bu filtrelemeyle birlikte, planlanan blok süre ile gerçekleşen blok süre arasında 20 dakikadan fazla fark olan uçuşlar da filtrelemeye dahil edilmiştir. Bu şekilde, çalışmada en problemli kitle seçilerek daha anlamlı ve katma değeri yüksek bir sonuç elde etmek amaçlanmıştır. Veri seti, 2021 Ocak ayından 2023 Haziran ayına kadar olan dönemi kapsamaktadır. Bu süre zarfında, 2021-2023 arası eğitim veri seti, 2023'ün ilk üç ayı validasyon veri seti ve son üç ay ise test veri seti olacak şekilde üçe ayrılmıştır. Veri seti üzerinde yapılan analizlerde, blok süreleri, uçuş süreleri ve taksi süreleri için özellik seçimi adımında pearson korelasyonu ve ısı haritası analizleri gerçekleştirildi. Bunun yanı sıra en küçük kareler ve karar ağacı algoritmaları ile ön modeller oluşturularak, en önemli değişkenlerin belirlenmesi ve bu değişkenlerin modeli açıklama başarısı incelendi. Modelleme aşamasında, sürekli bir hedef değişkenin tahmin edilmesi gerektiği için denetimli makine öğrenmesi yöntemlerinden regresyon modelleri tercih edildi. Bu kapsamda Lineer Regresyon, Lasso, Ridge, Elastic Net, Random Forest, Bagging ve XG Boost regresyon modelleri kullanıldı. Tüm modeller için kullanılan regresyon tekniklerinde, ilk aşamada modellere varsayılan parametreler uygulandı. Daha sonra elde edilen sonuçlar, grid search ve çapraz doğrulama yöntemleri ile eğitilerek tekrar çalıştırıldı. Çapraz doğrulama sürecinde 5-katlı doğrulama modele uygulandı. Modellerin optimize edilmesi için uygulanan grid search yöntemi için değerlendirme metriği olarak ortalama mutlak hata metriği seçildi, böylece sapmaların ne kadar olduğu daha iyi analiz edilebildi. Elde edilen sonuçlar sayesinde en iyi modellerin belirlenmesi ve en iyi parametrelerin keşfi sağlanmıştır. En iyi parametrelerle tercih edilen en iyi model, validasyon setinde tekrar eğitilmiş ve ardından model sisteme kaydedilmiştir. Daha sonra kaydedilen bu model, test veri seti üzerinde çalıştırılmıştır. Optimize edilmiş model sonuçları ile test veri seti üzerinde çalıştırılan sonuçlar karşılaştırılmıştır. Ayrıca, modelin aşırı uyum ve aşırı basitleştirme problemleri incelenerek modelin genelleme yeteneği araştırılmıştır. Performans değerlendirme metrikleri olarak ortalama mutlak hata, ortalama hata kareleri, kök ortalama mutlak hata karesi, R kare ve ortalama mutlak hata yüzdesi kullanılmıştır. Modelleme adımının son aşamasında, bütünsel blok süre tahmini, parçalı blok süre toplamı tahmini, geçmişe dönük gerçekleşen bütünsel blok süre medyanı, taksi süreleri ve uçuş süresinden elde edilen medyan değerlerinin toplamından oluşan parçalı blok süre medyanı ve ilgili uçuş için daha önce planlanan blok süre sonuçları karşılaştırılmıştır. Çalışma sonuçlarına göre, bütünsel olarak ele alınan blok süre tahmini, alt bileşenlerinin tahmin toplamını ifade eden taksi süreleri tahmini ve uçuş süresi tahmini toplamıyla karşılaştırıldığında, ilk yaklaşımın daha iyi sonuç verdiği görülmektedir. Blok süre tahmini modeli, 0.95 açıklanan varyans ve 6.15 mutlak ortalama hatayla rakiplerini geride bırakmıştır. Ayrıca, alt bileşenlerin tahminlerinin toplamı için R Kare değeri 0.93 ve MAE ise 7.18 olarak gözlemlenmiştir. Geçmişe yönelik olarak, blok süre medyanı ile alt bileşenlerinin ortalamalarının toplamını ifade eden uçuş süresi medyan değeri ve taksi kalkış ve varış medyan değerlerinin toplamıyla karşılaştırıldığında, geçmişe yönelik bütünsel blok süre ortalamasının daha iyi sonuç verdiği görülmektedir. Ancak, bu medyan kıyaslamaları, makine öğrenimi yöntemleriyle tahmin gerçekleştirilen model ile karşılaştırıldığında 0.70 değerlerine düşerek önemli miktarda performans düşüklüğü göstermiştir. Sonuç olarak, bütünsel blok süre tahmini, 0.95 açıklanan varyans ve 6.15 MAE değeri ile en iyi performansı gösteren model olmuştur. Bu model, hem alt kategorilerin ayrı ayrı tahminlerinin toplamı modelinden hem de geçmişe dönük gerçekleşen blok süre medyan değerinden ve alt bileşenlerin medyan toplamlarının karşılaştırmasından daha iyi bir performans sergilemiştir. Bu çalışmanın sonuçları, havacılık sektöründe zamanında performansın artırılması ve operasyonel verimliliğin optimize edilmesi için blok süre tahmininin kritik bir öneme sahip olduğunu göstermektedir. Ayrıca, kullanılan veri kaynakları ve modelleme teknikleri, havacılık endüstrisinde verimliliği artırmak ve operasyonel süreçleri optimize etmek için potansiyel birer araç olarak öne çıkmaktadır. Bu çalışma, havacılık sektöründeki paydaşlara, on time performansın artırılması için veri odaklı ve analitik bir yaklaşımın önemini vurgulamakta ve gelecekte yapılacak çalışmalar için bir temel oluşturmaktadır.