LEE- Bilgisayar Bilimleri Lisansüstü Programı
Bu topluluk için Kalıcı Uri
Gözat
Yazar "Baday, Sefer" ile LEE- Bilgisayar Bilimleri Lisansüstü Programı'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeAccelerating molecular docking using machine learning methods(Graduate School, 2022-09-12) Bande, Abdulsalam Yazid ; Baday, Sefer ; 704191001 ; Computer ScienceDrug discovery is a very challenging process that is not only time-consuming but also highly expensive and billions of dollars are invested in its research and development. Not only is the process expensive, the quality and safety of the final product also needs to be addressed. Computer Aided Drug Design (CADD) refers to computational techniques that are used to design and develop new compounds. An example of CADD is virtual screening (VS). VS is one of the well-established approaches in drug discovery that speeds up the search for a bioactive molecule and reduces costs associated with experiments. It is essentially a technique to search libraries of small molecules with the goal of finding the ones that bind onto a particular target biomolecule. The target can be a protein, nucleic acid etc. There are two types of VS: structure-based virtual screening (SBVS) and ligand-based virtual screening (LBVS). SBVS is used when the 3D structure of the target protein is known, in this case, usually docking calculation is used to find the complex structure of ligand with the drug target. Docking calculations are one of the commonly used and highly appreciated structure-based drug discovery methods. Moreover, different ligands can have different binding affinities when docked on receptors, so scoring functions are used in ranking the ligands during the VS process. The scoring functions take into account different factors of molecules and are categorised into knowledge-based, force-field-based and empirical based. Different scoring functions can be used in software tools like AutoDock-Vina. Moreover, for a ligand to be docked onto a receptor, there can be a high number of conformational degrees of freedom of both the molecules and computation can increase exponentially. So, sampling methods are applied to select conformations of ligands in the active site of the protein. There are a variety of algorithms used in sampling and they all have different characteristics. Genetic algorithms (GA) and Monte Carlo (MC) are some of some algorithms based on stochastic search and the different algorithms can also be accessed from software tools such as AutoDock-Vina. In docking, the flexibility of both ligand and the receptor can be taken into account. In general, there are two forms of docking, and they are flexible receptor-flexible ligand and rigid receptor-flexible ligand. When the 3D structure is not known, LBVS is used and different searching algorithms such as similarity search, pharmacophore searching can be applied to identify structures that bind onto a target. Quantitative Structure-Activity Relationships (QSAR) modelling is also a computational method that is used in LBVS and it is used in finding relationships between structural properties and bioactivities of compounds. Furthermore, VS helps to narrow down the search space of chemical space and allows the selecting fewer and more probable candidate compounds for experimental testing. Databases for chemical structures of small molecules have been growing rapidly. For example, the ZINC database contains 230 million molecules ready to purchase. However, docking millions of molecules comes with many challenges, for example a good computing infrastructure and expertise in the HPC environment are needed. The aim of this work is to accelerate molecular docking calculations by predicting docking scores without explicitly performing docking calculations. For example, instead of docking 4 million molecules onto a target, only 7k of the 4 million molecules could be docked and the docking results can be used to train a machine learning model that can be used to predict the docking results of the remaining molecules. This approach saves a significant amount of computation resources and time. This work makes use of multiple machine learning models that includes a deep neural network based model, which is a long short term memory neural network model (LSTM). Neural networks models, which were originally inspired by the biological brain, contain a series of layers and in each layer a mathematical operation is performed, and the result is fed into a subsequent layer. A final layer then outputs a single scalar. In the case of this work, the final output is a docking score. Furthermore, each layer extracts a certain information from the original input. In this work, the neural network (LSTM) is coupled with an attention mechanism which helps the model focus more on the more important part of the input. The neural network model is implemented using the popular machine learning framework which is Pytorch. Other models used in this research are XGBoost which is implemented from the XGBoost python library, decision tree regressor and stochastic gradient descent regressor from the scikit-learn python library. We worked on two datasets that were produced in our group. In one dataset a ligand library of 3.5 million molecules were docked into three different targets, in the second dataset 400.000 molecules were docked into four targets. The ligands from all the datasets are represented in Simplified molecular-input line-entry system (SMILES) and the unit of the docking scores is kcal/mol. The SMILES are converted to a numeric form using one or a concatenation of three descriptors used in the system. Molecular ACCess System (MACCS) is one of the descriptors used. This descriptor starts with a 167-bit vector of zeros and each position is indexed with one if it satisfies a condition, for example, the condition can be if the molecule contains a nitrogen atom. The second descriptor used is One Hot Encoding, it also starts with a vector of zeros and then indexed with one if a condition is satisfied at any position. The final descriptor used is Extended Connectivity Circular Fingerprints (ECFPs). This particular descriptor also encodes SMILES into bits of ones and zeros, but unlike the other ones, it uses more chemical information of molecules for the encoding process. Furthermore, concatenated descriptors have also been experimented with and it was this technique that led to the best results. We achieved an astonishing R2 of 0.90 in target two using an LSTM. In general, the results were also good in terms of the MSE and MAE metric. For example, in all the different cases of different models and different training set sizes, the average MSE was below 0.30 and the MAE was below 0.45. Furthermore, the results of the second dataset were surprising to us as training using 7k using LSTM resulted in R2 less than 0.78 in all the targets and the results of the other models were even worse. A deep analysis between the dataset was conducted in order to explain the difference of results. Furthermore, we did not encounter overfitting issues in training, in many cases results for the models training phase were the same as the ones in the testing phase. For instance, in target one, training and testing on LSTM for 7k achieved an R2 of 0.83 for both cases. Moreover, the system is designed with ease of use in mind. All the user needs to provide is a csv file containing smiles and their respective docking scores of a specific target, the system then outputs a model that the user can use for future smiles predictions. In terms of the training times of the models, apart from the LSTM model, most of the models training was in less than a minute as this was due to optimizations of the XGBoost and the scikit-learn libraries. Training on LSTM using a size of 7k was in less than 2 minutes and testing up to 3.5 molecules was accomplished in approximately an hour. In conclusion, docking of huge chemical libraries requires good computational power and coding expertise that some researchers lack. In this work, the methodology we proposed can be used to accelerate screening of very large libraries easily even on a personal computer. Using just a small percentage of millions of molecules, some of the models on some targets achieved good results. The importance of molecular descriptors was also demonstrated and even powerful models like neural networks are impacted by the descriptors.
-
ÖgeDevelopment of novel inhibitors targeting DRP1-MID49/51 interaction at mitochondrial fission(Graduate School, 2022-04-20) Ghaderkalankesh, Behnaz ; Baday, Sefer ; 704181005 ; Computer SciencesMitochondria are responsible for the production of the majority of our energy known as Adenosine Triphosphate(ATP). Energy production is the best-known role of mitochondria but they are responsible for other important tasks as well. Mitochondrial fission and fusion are necessary process for naturally dynamic mitochondria. Mitochondrial dysfunction plays a significant role in the development and progression of several diseases such as cancer and diabetes. Mitochondria continually undergo shape and number changes by fission and fusion. Cytoplasmic GTPase Dynamin-related protein 1 (DRP1) regulates mitochondrial fission. It is a protein, part of the dynamin family which is made up of an N-terminal GTPase domain and a C-terminal GTPase effector domain. MiD49 and MiD51 are mitochondrial dynamics proteins linked to the mitochondrial outer membrane. These two proteins directly recruit Drp1 protein to the mitochondrial membrane to form a ring around and start the fission process. Recent studies have shown that cancer tumors alter mitochondrial dynamics to resist apoptosis by causing fission protein, Dynamin-related protein 1 (DRP1) to overexpress. In addition, this is the cause of neurodegenerative and diabetes type 1 disorders. As a result, designing new inhibitors will have a great impact on finding ways to overcome mitochondrial disorders. While there have been many molecular docking studies about Drp1-MiD49/51 inhibition recently, in order to design small molecules that can be utilized as drugs, and not have side effects like Mdivi1 and Dynasore we performed this study in a specific way. Molecular docking calculation is an important approach in the field of drug design and discovery which is used when we want to predict a ligand-receptor complex structure. Docking is accomplished in two phases that are intertwined. First, sampling the structure of the ligand, as well as its position and orientation inside the protein's active site, and then these created conformations will be ranked among all conformations by a scoring function. Structure-based virtual screening (SBVS), also known as target-based virtual screening (TBVS), is a computational technique used in drug discovery which computationally screens a library of small molecules against a target to identify the best binding and high scored molecules. This study comprises two phases, first phase uses computational approaches that may improve resource utilization and speed drug development, and in the second phase, found novel compounds will be synthesized for further steps. In this thesis, the main focus will be on the computational phase of the work. Here we aim to inhibit DRP1-MiD49/MiD51 proteins interaction in several ways. In the first packet, we tried to design new inhibitors targeting the DRP1-GTPase nucleotide-binding domain. For this goal, docking calculations were performed in several stages. To start docking calculations, 3.5 million, in-stock, lead-like small molecules from the ZINC database were used. Autodock vina, Ledock and Schrodinger Glide(XP) programs were used in different steps for docking calculations. The reason for choosing these three programs was their high performance in different studies so far. After docking calculations for 3.5 million molecules another step was performed which was the docking of the previous step's high scored molecules to DRP1 protein's off-target proteins and in the same way to DRP1 protein using Vina(exhaustiveness 24) and Ledock. In the next step, molecules with specific criteria were selected for docking using Glide XP and then clustering and ADME/T (absorption, distribution, metabolism, and excretion/toxicity) properties to select optimum ligands for their possible pharmaceutical use. As the final step of the first path, high-scored molecules from the previous step were selected for molecular Dynamic simulations to calculate binding free energy using the OSPL2005 force field and TIP3P water model of Schrödinger Desmond Software and MMGBSA calculations. Finally, 30 molecules were selected as the molecules with the highest free binding energies. In the second packet, every step in packet 1 was repeated identically for MiD49 and MiD51 proteins.
-
ÖgeMultimodal vision-based driver monitoring system in autonomous vehicles(Graduate School, 2023-02-03) Ghasemzadeh, Leiya ; Baday, Sefer ; 704191012 ; Computer ScienceDriver fatigue and distractions are major causes of accidents and fatalities on the roads, and there is a pressing need for effective technologies to detect and mitigate these risks. In this thesis, we presented a vision-based driver monitoring system (DMS) that aims to improve road safety by detecting and alerting drivers to potential dangers or distractions, and by providing a more comprehensive and robust representation of the driver's actions and behaviors. The DMS is based on a multimodal data source, comprising a camera, vehicle CAN data, and other sensors, to provide a wide range of information about the driver and the driving environment. To improve the accuracy and reliability of the DMS, we developed a unique dataset containing synchronized output from multiple sensors in both RGB and IR formats, which can be used for training, testing, and validation of the DMS. This dataset is unique in that it contains synchronized output from multiple sensors in both RGB and IR formats, which allows for the development and evaluation of DMS modules that can operate on both types of data. To detect and classify different types of distractions and impairments, we developed a hybrid visual distraction module that combines head pose and gaze estimation. We also developed an adaptive gaze estimation model that works on both RGB and IR data, and we adapted the HourGlass CNN to work on IR data. To detect drowsiness, we used the Mediapipe framework and Empatica e4 wristband, and to detect phone usage, driver presence, and eating/drinking, we used a combination of computer vision and detection algorithms. To evaluate the performance of the DMS, we used a variety of metrics and benchmarks, including accuracy, precision, false positive rate, etc. The results showed that the DMS achieved high accuracy and reliability in detecting and classifying different types of distractions and impairments. Overall, this work makes a significant contribution to the field of driver monitoring and road safety by providing a novel and effective approach for detecting and mitigating driver fatigue and distractions using multimodal data and a hybrid visual distraction module. The unique dataset and the proposed DMS can be used as a benchmark for future research and development in this area. In addition, the results of this study have the potential to inform policy and practice related to driver monitoring and road safety, and to improve the safety and efficiency of transportation systems.
-
ÖgeTwitter verisi üzerinde COVİD-19'a karşı etkili olan ilaçların doğal dil işleme kullanılarak analizi(Lisansüstü Eğitim Enstitüsü, 2022) Kum, Orhan Talha ; Baday, Sefer ; 817434 ; Bilgisayar Bilimleri Bilim DalıYeni Koronavirüs Hastalığı (COVID-19), ilk olarak Çin'in Hubei eyaletinin Vuhan şehrinde ortaya çıkıp solunum yolu belirtileri (ateş, öksürük, nefes darlığı) gösteren bir grup hastada yapılan araştırmalar sonucunda 13 Ocak 2020'de tanımlanan şiddetli akut solunum sendromu koronavirüsü 2 (SARS-CoV-2)'nin neden olduğu bir hastalıktır. Kişiden kişiye bulaşabilen bu virüsün bulaşma oranı 2020 Ocak ayında büyüme gösterdi. Dünya üzerinde çeşitli ülkelerde yaşanan virüs vakaları görülmeye başlandı ve 11 Mart 2020'de Dünya Sağlık Örgütü tarafından pandemi ilan edildi. 27 Mart 2022 itibarıyla toplam vaka sayısı 479 milyon, koronavirüs kaynaklı ölüm sayısı ise 6 milyon olmuştur. Koronavirüs tedavisi için aşı ve ilaç çalışmalarına kısa sürede başlanmış ve günümüzde aktif olarak geliştirilmeye devam etmektedir. 27 Mart 2022 itibarıyla dünya genelinde 11.2 milyar doz aşı uygulanmış olsa da an itibarıyla, COVID-19'a enfekte olan kişileri tedavi etmek için onaylanmış, güvenli ve etkili bir farmakolojik ajan bulunmamaktadır. COVID-19 tedavisinde etkili olduğu düşünülen ilaçlar insanlar tarafından kullanılmış ve kullanılmaya devam etmektedir. Etkili olup olmadığı halen tartışma konusu olan ve COVID-19 tedavisinde kullanılan ilaçlara yönelik insanların düşüncelerini tespit etmek amaçlanmış ve bu doğrultuda sosyal medya platformlarından birisi olan Twitter tercih edilmiştir. Twitter günümüzde en yaygın olarak kullanılan sosyal medya platformlarından birisi olup akademik çalışmalarda yaygın olarak kullanılmaktadır. Twitter'ın Uygulama Programlama Arayüzü sayesinde insanların paylaşmış olduğu gönderilere ulaşılabilmekte ve bu sayede veriler üzerinde akademik çalışmalar yapılabilmektedir. Bu çalışmada, IEEE'nin 20 Mart 2020'de COVID-19 ile alakalı paylaşılmış olan, içerisinde tweet numaralarının olduğu ve günlük olarak güncellenen veri seti kullanılmıştır. 2020 Mart ayı ile 2022 Şubat ayı arasındaki veriler çekilmiştir. Veri seti ilk olarak İstanbul Teknik Üniversitesi bünyesindeki yüksek başarımlı hesaplama ve veri depolama amacıyla kullanılan Ulusal Yüksek Başarımlı Hesaplama Merkezi (UHEM) platformuna aktarılmıştır. Veri seti günlük olarak yaklaşık 1-3 milyon arasında veri içerdiği için veriler parça parça aktarılmıştır. Veri seti içerisinde yalnızca tweetin numarası olduğu için tweet içeriği Twitter Uygulama Progralama Arayüzü aracılığı ile bir Python betiği kullanılarak çekilmiştir. Toplam 1.4 milyar tweet bu şekilde çekilip bir NoSQL veritabanı olan MongoDB'ye yazılmıştır. Veri seti oluştuktan sonra başka bir Python betiği aracılığıyla içerisinde COVID-19'a karşı etkili olduğu düşünülen hydroxychloroquine, chloroquine, remdesivir ve azithromycin ilaçları geçen tweetler yaklaşık dizgi eşleme metodu kullanılarak çekilmiştir. Yaklaşık dizgi eşleme metodu kullanılmasının sebebi bu metin arama metodunun ilaç isminin yanlış yazılması durumunda da eşleşme sağlamasıdır. İçerisinde ilaç ismi geçen tweetler yeni bir veri setine aktarılmıştır. Yeni oluşan bu veri seti 3.5 milyon tweetten oluşmaktadır.
-
ÖgeZamanında performansı artırmak için makine öğrenme yaklaşımı ile blok süre tahmini(Lisansüstü Eğitim Enstitüsü, 2024-02-05) Soykan, Seda ; Baday, Sefer ; 704201005 ; Bilgisayar BilimleriHavacılık sektörü günümüzde hızla büyüyen ve gelişen bir endüstri olup, operasyonel verimlilik ve zaman yönetimi bu endüstri için büyük önem taşımaktadır. Özellikle on-time performansı, havayolu şirketleri ve havaalanları için oldukça öenmli bir başarı metriği haline gelmiştir. Müşteri memnuniyeti, operasyonel verimlilik, maliyet etkinliği ve rekabet avantajı gibi birçok faktörü etkileyerek havacılık sektöründeki tüm paydaşlar için kritik bir yere sahiptir. Bu bağlamda, bu çalışma havacılıkta on-time performansın artırılması amacıyla blok süre tahmini üzerine odaklanmaktadır. Bu analiz, havayolu operasyonlarının zamanlama ve süreçlerin daha etkin bir şekilde yönetilmesine katkı sağlayarak hem havayolu şirketleri hem de havaalanları için önemli bir değer yaratmayı amaçlamaktadır. Amerika Birleşik Devletleri Ulaştırma Bakanlığı tarafından sağlanan Ulaştırma İstatistikleri Bürosu (BTS) veri tabanı ve Azure platformu üzerinden elde edilen hava durumu verileri birleştirilerek, modelleme aşamasında kullanılmak üzere nihai bir veri seti oluşturulmuştur. Veri seti üzerinde gerekli filtrelemeler ve analizler gerçekleştirilmiş, veri ön işleme adımında eksik değerler ile uç değerlerin analizi ve veri doldurma gereksinimleri ele alınmıştır. Çalışma kapsamında iptal edilen veya yönlendirilen uçuşlar göz ardı edilmiş ve sadece varışı gerçekleşen uçuşlara odaklanılmıştır. Yayınlanan raporlar ve veri analizleri sonucunda, on-time performansında en fazla sapmaya sahip olan Florida eyaletinde gerçekleşen uçuşlar seçilmiştir. Bu filtrelemeyle birlikte, planlanan blok süre ile gerçekleşen blok süre arasında 20 dakikadan fazla fark olan uçuşlar da filtrelemeye dahil edilmiştir. Bu şekilde, çalışmada en problemli kitle seçilerek daha anlamlı ve katma değeri yüksek bir sonuç elde etmek amaçlanmıştır. Veri seti, 2021 Ocak ayından 2023 Haziran ayına kadar olan dönemi kapsamaktadır. Bu süre zarfında, 2021-2023 arası eğitim veri seti, 2023'ün ilk üç ayı validasyon veri seti ve son üç ay ise test veri seti olacak şekilde üçe ayrılmıştır. Veri seti üzerinde yapılan analizlerde, blok süreleri, uçuş süreleri ve taksi süreleri için özellik seçimi adımında pearson korelasyonu ve ısı haritası analizleri gerçekleştirildi. Bunun yanı sıra en küçük kareler ve karar ağacı algoritmaları ile ön modeller oluşturularak, en önemli değişkenlerin belirlenmesi ve bu değişkenlerin modeli açıklama başarısı incelendi. Modelleme aşamasında, sürekli bir hedef değişkenin tahmin edilmesi gerektiği için denetimli makine öğrenmesi yöntemlerinden regresyon modelleri tercih edildi. Bu kapsamda Lineer Regresyon, Lasso, Ridge, Elastic Net, Random Forest, Bagging ve XG Boost regresyon modelleri kullanıldı. Tüm modeller için kullanılan regresyon tekniklerinde, ilk aşamada modellere varsayılan parametreler uygulandı. Daha sonra elde edilen sonuçlar, grid search ve çapraz doğrulama yöntemleri ile eğitilerek tekrar çalıştırıldı. Çapraz doğrulama sürecinde 5-katlı doğrulama modele uygulandı. Modellerin optimize edilmesi için uygulanan grid search yöntemi için değerlendirme metriği olarak ortalama mutlak hata metriği seçildi, böylece sapmaların ne kadar olduğu daha iyi analiz edilebildi. Elde edilen sonuçlar sayesinde en iyi modellerin belirlenmesi ve en iyi parametrelerin keşfi sağlanmıştır. En iyi parametrelerle tercih edilen en iyi model, validasyon setinde tekrar eğitilmiş ve ardından model sisteme kaydedilmiştir. Daha sonra kaydedilen bu model, test veri seti üzerinde çalıştırılmıştır. Optimize edilmiş model sonuçları ile test veri seti üzerinde çalıştırılan sonuçlar karşılaştırılmıştır. Ayrıca, modelin aşırı uyum ve aşırı basitleştirme problemleri incelenerek modelin genelleme yeteneği araştırılmıştır. Performans değerlendirme metrikleri olarak ortalama mutlak hata, ortalama hata kareleri, kök ortalama mutlak hata karesi, R kare ve ortalama mutlak hata yüzdesi kullanılmıştır. Modelleme adımının son aşamasında, bütünsel blok süre tahmini, parçalı blok süre toplamı tahmini, geçmişe dönük gerçekleşen bütünsel blok süre medyanı, taksi süreleri ve uçuş süresinden elde edilen medyan değerlerinin toplamından oluşan parçalı blok süre medyanı ve ilgili uçuş için daha önce planlanan blok süre sonuçları karşılaştırılmıştır. Çalışma sonuçlarına göre, bütünsel olarak ele alınan blok süre tahmini, alt bileşenlerinin tahmin toplamını ifade eden taksi süreleri tahmini ve uçuş süresi tahmini toplamıyla karşılaştırıldığında, ilk yaklaşımın daha iyi sonuç verdiği görülmektedir. Blok süre tahmini modeli, 0.95 açıklanan varyans ve 6.15 mutlak ortalama hatayla rakiplerini geride bırakmıştır. Ayrıca, alt bileşenlerin tahminlerinin toplamı için R Kare değeri 0.93 ve MAE ise 7.18 olarak gözlemlenmiştir. Geçmişe yönelik olarak, blok süre medyanı ile alt bileşenlerinin ortalamalarının toplamını ifade eden uçuş süresi medyan değeri ve taksi kalkış ve varış medyan değerlerinin toplamıyla karşılaştırıldığında, geçmişe yönelik bütünsel blok süre ortalamasının daha iyi sonuç verdiği görülmektedir. Ancak, bu medyan kıyaslamaları, makine öğrenimi yöntemleriyle tahmin gerçekleştirilen model ile karşılaştırıldığında 0.70 değerlerine düşerek önemli miktarda performans düşüklüğü göstermiştir. Sonuç olarak, bütünsel blok süre tahmini, 0.95 açıklanan varyans ve 6.15 MAE değeri ile en iyi performansı gösteren model olmuştur. Bu model, hem alt kategorilerin ayrı ayrı tahminlerinin toplamı modelinden hem de geçmişe dönük gerçekleşen blok süre medyan değerinden ve alt bileşenlerin medyan toplamlarının karşılaştırmasından daha iyi bir performans sergilemiştir. Bu çalışmanın sonuçları, havacılık sektöründe zamanında performansın artırılması ve operasyonel verimliliğin optimize edilmesi için blok süre tahmininin kritik bir öneme sahip olduğunu göstermektedir. Ayrıca, kullanılan veri kaynakları ve modelleme teknikleri, havacılık endüstrisinde verimliliği artırmak ve operasyonel süreçleri optimize etmek için potansiyel birer araç olarak öne çıkmaktadır. Bu çalışma, havacılık sektöründeki paydaşlara, on time performansın artırılması için veri odaklı ve analitik bir yaklaşımın önemini vurgulamakta ve gelecekte yapılacak çalışmalar için bir temel oluşturmaktadır.