LEE- Endüstri Mühendisliği-Doktora
Bu koleksiyon için kalıcı URI
Gözat
Başlık ile LEE- Endüstri Mühendisliği-Doktora'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeA hybrid deep learning metaheuristic model for diagnosis of diabetic retinopathy(Graduate School, 2022-10-17) Gürcan, Ömer Faruk ; Beyca, Ömer Faruk ; 507142109 ; Industrial EngineeringDiabetes is a disease that results in an increase in blood sugar due to the pancreas not producing enough insulin, insufficient effect of the produced insulin, or ineffective use of insulin. According to the International Diabetes Federation 2021 report, approximately 537 million adults aged between 20 and 79 live with diabetes worldwide. It is estimated that the number of people with diabetes will increase to 643 million in 2030 and 783 million in 2045. Diabetic retinopathy (DR) is an eye condition that can cause vision loss, irrecoverable visual deterioration, and blindness in people with diabetes. Today, it is one of the leading diseases that cause blindness. Anyone with any diabetes can become a DR. In ophthalmology, type 2 diabetes can lead to DR if left untreated for more than five years. Diabetes-related high blood sugar leads to DR. Over time, having too much sugar in the blood damages the retina. The deterioration of this disease in the eye begins when sugar blocks the capillaries leading to the retina, causing fluid leakage or bleeding at a later stage. The eye produces new vessels to compensate for the blocked vessels, but these newly formed vessels often do not work well and can bleed or leak easily. DR can lead to other serious eye conditions. For example, about one in 15 people with diabetes develop diabetic macular edema over time. DR can lead to the formation of abnormal blood vessels in the retina and prevent fluid from leaving the eye. That causes a type of glaucoma. It is crucial for people with diabetes to have a comprehensive eye examination at least once a year. Follow-up of diabetes; factors such as staying physically active, eating a healthy diet, and using medications regularly can stop the damage to the eye and help prevent or delay vision loss. Some risk factors increase the development of DR, such as pregnancy, uncontrolled diabetes, smoking addiction, hypertension, and high cholesterol. In addition to being detected by magnifying the pupil in eye examination, DR is also diagnosed with the help of image processing techniques. It is common to use fundus images obtained by fundus fluorescent angiography to detect DR and other retinal diseases. Nowadays, with the increasing number of patients and the developments in imaging technologies, disease detection from medical images by various methods has increased. Deep learning is one of the methods whose application area has increased exponentially in recent years. Deep learning is a subfield of machine learning; both are a subfield in artificial intelligence. Deep learning methods draw attention with their versatility, high performance, high generalization capacity, and multidisciplinary use. Technological developments such as the collection of large amounts of data, graphics processing units, the development of robust computer infrastructures, and cloud computing support the building and implementation of new models.Increasing the number of images for a particular patient case and high-resolution images increases specialists' workload. Diagnosis of DR manually by an ophthalmologist is an expensive and time-consuming process. It requires experts who have remarkable experience. In addition, the complexity of medical images and the variations between specialists make it difficult for radiologists and physicians to make efficient and accurate diagnoses at any time. Deep learning is promising in providing decision support to clinicians by increasing the accuracy and efficiency of diagnosis and treatment processes of various diseases. Today, in some medical studies, the success levels of expert radiologists have been achieved or exceeded. Convolutional neural networks (CNNs) are the most widely used deep learning networks in image recognition, image/object recognition, or classification studies. A CNN model doesn't need manually designed features for training; it extracts features from data directly while network training on images. The automated feature extraction property and their success make CNNs highly preferred models in computer vision tasks. This study proposes a hybrid model for the automatic diagnosis of DR. A binary classification of DR (referable vs. non-referable DR) is made using a deep CNN model, metaheuristic algorithms, and machine learning algorithms. A public dataset, Messidor-2, is used in experiments. The proposed model has four steps: preprocessing, feature extraction, feature selection, and classification. Firstly, fundus images are pre-processed by resizing images and normalizing pixel values. The inception-v3 model is applied with the transfer learning approach for feature extraction from processed images. Then, classification is made using machine learning algorithms: Extreme Gradient Boosting (XGBoost), Random Forest, Extra Trees, Bagged Decision Trees, Logistic Regression, Support Vector Machines, and Multilayer Perceptron. XGBoost gives maximum accuracy of 91.40%. The best potential features are selected from the extracted features by three metaheuristic algorithms: Particle Swarm Optimization, Simulated Annealing, and Artificial Bee Colony. Selected features are classified with the XGBoost algorithm. The metaheuristics significantly reduced the number of features obtained from each fundus image and increased the classification accuracy. According to the results, the highest accuracy of 93.12% is obtained from the features selected with Particle Swarm Optimization. When the study results are compared with the existing studies in the literature, it has shown that this study is competitive in terms of accuracy performance and obtained low features. On the other hand, the proposed model has some advantages; it has a few pre-processing steps, training number of parameters are considerable low, and model can be trained with a small amount of data. This study is one of the first studies showing that better results can be obtained in DR classification by using deep learning and metaheuristic algorithms together. The proposed model can be used to give another idea for ophthalmologists in diagnosing DR.
-
ÖgeA scheme proposal for the development of machine learning-driven agent-based models through case studies(Graduate School, 2023-09-15) Turgut, Yakup ; Bozdağ, Cafer Erhan ; 507172127 ; Industrial EngineeringAgent-based modeling (ABM) has garnered extensive application across various disciplines, presenting an instrumental tool for researchers. However, the creation of effective and precise agent-based models (ABMs) presents an intricate challenge. The integration of machine learning (ML) methodologies into ABMs could potentially simplify the modeling process and augment model performance. This dissertation presents an exhaustive exploration of the relationship between ABM and ML methodologies, elucidating the advantages and disadvantages of data-driven ABMs. The predominant challenge in the development of ABMs is the delineation of agents' behavioral rules. To surmount this challenge, a main scheme utilizing ML methodologies within ABMs is proposed. This scheme is examined through the lens of pertinent academic literature. Within this central framework, three sub-frameworks are introduced to model agent behaviors in ABMs via ML methodologies. Each of these sub-frameworks pivots around the principle of employing ML methodologies to derive agent behaviors. Sub-Framework I offers a comprehensive roadmap for researchers aiming to implement an ABM with predictive capabilities. This sub-framework intertwines theoretical support with ML methodologies with the aim of enhancing the precision of ML-generated agent behavior. To determine how well ML techniques enhance the accuracy and ease of building ABM, Sub-Framework I was applied to a real-world case using supervised learning methods. Sub-Framework II offers guidance to researchers with the objective of creating ABMs for optimization purposes. The effectiveness of this framework is scrutinized in a simulated environment employing Reinforcement Learning (RL) techniques as the ML methodology. Lastly, Sub-Framework III serves as a guide for researchers endeavoring to create an ABM for understanding objectives. Its empirical validation is undertaken through a real-world case study. This framework utilizes Inverse Reinforcement Learning (IRL) and Reinforcement Learning (RL) as ML methodologies. The findings of these models developed through the frameworks suggest that ML approaches may facilitate the development of ABMs.
-
ÖgeAdvanced scenario planning: New approaches for developing, evaluating, and selecting scenarios with applications(Graduate School, 2024-10-24) Yanmaz, Özgür ; Asan, Umut ; 507162125 ; Industrial EngineeringScenario planning is regarded as a useful tool for strategic planning, particularly in managing uncertainty through the examination of various future scenarios. Since present decisions influence a system's future performance, foreseeing new advancements and problems is critical to the success of future plans. Rather than attempting to accurately predict the future, scenario planning assists in negotiating unexpected and complex developments. Strategic planners can use scenarios to create a more sustainable system by considering how future events can unfold, addressing uncertainties, providing insights into the long-term consequences of decisions, and identifying potential opportunities and threats. A scenario represents a combination of potential developments, which are factors that influence systems in the future. These potential developments are characterized by specific factors and their corresponding levels, all of which have a qualitative nature. In practical scenario planning, the number of possible scenarios can reach into the millions. To formulate effective and actionable plans for the future, it is essential to focus on a manageable subset of scenarios. Therefore, the qualitative nature of the scenarios should first be quantified, and a selection process should be employed to identify a subset of scenarios for further analysis and strategic planning. The studies presented propose a comprehensive methodology for the evaluation and selection of scenarios. Multiple criteria were utilized to assess the scenarios through factor levels from different perspectives. To quantify the factor levels, they were first evaluated with respect to multiple criteria as well as the criteria interactions. Interactions between the criteria are crucial for real-world problems, as decision-making processes often involve these interactions. The Choquet integral was employed to aggregate the evaluations considering criteria interactions, providing numerical values for the factor levels. Since the Choquet integral is defined on measures, a mathematical model was developed to revise the expert assessments thereby obtaining criteria weights that satisfy measure rules. The factor levels were then weighted using a specific criterion (i.e., consistency) to calculate scenario values. After obtaining numerical values for the scenarios, a second mathematical model was developed to select a limited number of high-quality scenarios that best represent potential futures. A total of five criteria were used in the evaluation and selection process. Additionally, a practical application has been conducted to demonstrate the real-world usage of the selected scenarios. Following the selection of scenarios, projects or objectives to be prepared for alternative futures were identified. An actor analysis was performed to determine which stakeholders should collaborate in achieving these objectives within the relevant sectors. This approach ensures that both the evaluation and selection processes are comprehensive, incorporating realistic decision-making dynamics such as criteria interactions and that the selected scenarios can be practically applied in strategic planning.
-
ÖgeAfetlerde yaralı taşıma sistemi tasarımı için benzetimle analiz ve stokastik programlama modeli: istanbul depremi için pilot uygulama(Lisansüstü Eğitim Enstitüsü, 2021) Çağlayan, Nadide ; Satoğlu, Şule Itır ; 682659 ; Endüstri Mühendisliği Anabilim DalıAfetler; ani gelişen, doğal veya doğal olmayan olaylar sonucunda ortaya çıkan ve çok sayıda kişiyi hem sağlık açısından hem de maddi olarak etkileyen olaylardır. Afetin olumsuz etkilerinin üstesinden gelebilmek için öncesinde organizasyon çalışmalarının afet yönetim yaklaşımıyla planlanmış olması gerekir. Afet yönetimi, olayların ortaya çıkmasından önce başlayan ve durumun eski haline döndürülebilmesi ile tamamlanan dinamik yapıda bir yönetim sürecidir. Arama-kurtarma faaliyetlerinin yürütülmesi, ilk yardım, yaralı nakli, geçici sağlık merkezlerinin konumlarının belirlenmesi ve kurulum süreçleri, gerekebilecek kaynak ve ekipmanlar, iletişim ve haberleşme kanalları, sistem elemanlarının koordinasyonu, malzeme akışı gibi birçok konuda afet öncesinde eylem planlarının hazırlanması gereklidir. Afet yönetimi sürecinde alınan neredeyse tüm kararlarda ilk amaç hayat kurtarmaktır. Yaralıların kurtarılması, ilk müdahalenin yapılması ve gerekirse sağlık kuruluşlarına nakledilmesi doğrudan insan hayatıyla ilgili olduğu için büyük öneme sahiptir. Çalışmamızda büyük ölçekli afetlerde yaralıların triyaj alanından hastanelere ulaştırılana kadar taşıma süreci incelenmektedir. Çalışma, yaralı taşıma süreci için karar destek aracı önerisi, etkili faktörlerin belirlenmesi ve ambulans konumlarının, sayılarının belirlenerek yaralı atama ile ilgili kararların alınabilmesi için matematiksel programlama modelinin geliştirilmesi olmak üzere iki bölümde ele alınmıştır. Çalışmanın ilk bölümünde yaralıların ve hastane kapasitelerinin gerçek zamanlı takibini sağlamak için Radyo Frekansı ile Tanımlama teknolojisi bazlı veri temelli bir karar destek aracı önerilmiştir. Afetlerde bilgi sistemleri ile ilgili çalışmalarda karar destek sisteminin etkileri ve müdahale aşamasında karar verme konularına etkileri yeterince çalışılmadığı görülmüştür. Yaralı taşıma sürecinde bilgi sistemlerine dayalı süreçler ile mevcut durumların karşılaştırılarak değerlendirildiği çalışmaların da sınırlı sayıda olduğu anlaşılmıştır. Afetlerde simülasyon çalışmaları daha çok hastane içi süreçleri ve triyaj politikalarını analiz etmektedir. Ancak bu çalışmalarda da büyük ölçekli ve nadir gelişen olaylar için bilgi sistemi önerisinde bulunulmamıştır. Bu çalışmada, önerilen bilgi sistemi, uygulama stratejisi ve yaralı nakil optimizasyonu için performans kriterlerine göre önemli faktörler analiz edilmiştir. Hazırlık aşamasında hem bilgi sisteminin tasarım aşamaları hem de önerilen uygulama stratejisi için ayrıntılı akışlar hazırlanmıştır.
-
ÖgeBütünleşik ürün karması planlaması için yeni bir optimizasyon yaklaşımı ve perakende sektöründe uygulaması(Lisansüstü Eğitim Enstitüsü, 2024-05-29) Konur, Muhammed Can ; Durmuşoğlu, Bülent M. ; 507162109 ; Endüstri MühendisliğiBu çalışmada, perakende sektöründe ürün karması optimizasyonuna odaklanılarak, çok ürünlü ve çoklu mağaza zincirlerinde satış performansını ve net karı arttırmak amacıyla yeni bir modelleme yaklaşımı geliştirilmiştir. Nitelik bazlı ürün taleplerini ve ürünler arası ikame olasılıklarını tahmin etmek için maksimum olabilirlik tahminleme yöntemi kullanılmıştır. Bununla birlikte tamamlayıcı ürünlerin talebe etkisi için de bir model önerilmiştir. Bu model, "s-tamamlayıcılık" metodolojisi kullanarak ürünleri tek ve çift yönlü tamamlayıcı olarak sınıflandırmakta ve talebe etkilerini tahmin etmek için sezgisel bir yaklaşım sunmaktadır. Ürün karması optimizasyonunda talebin tahmin edilmesinde tamamlayıcılık etkisini göz önünde bulunduran bu yaklaşım, perakendecilere, ürünler arası ilişkileri daha etkin bir şekilde yönetmelerini sağlayarak, müşteri taleplerini daha doğru bir şekilde karşılamalarına olanak tanımaktadır. Çalışma kapsamında, perakendecilerin karşılaştığı ticari ve operasyonel kısıtlamalar da dikkate alınmış, müşteri tercihlerinin dinamik doğası ve pazar koşulları göz önünde bulundurulmuştur. Matematiksel model, ödeme koşulları, satın alma türleri, elde bulundurma maliyetleri, tedarik ve raf alanı kısıtları gibi faktörleri içerecek şekilde tasarlanmıştır. Bütünsel yaklaşım ile gerçek hayatta daha uygulanabilir bir matematiksel model oluşturulmuştur. Modelin çözümü için karışık tam sayılı doğrusal programlama yöntemi kullanılmıştır. Geliştirilen model, Türkiye'nin önde gelen bir ev geliştirme perakendecisinin el aletleri ve aksesuarları kategorisinde uygulanmıştır. Optimize edilmiş ürün karması modeli ile satış gelirleri %9,1 ve net kar %4,9 oranında artmıştır. Aynı zamanda, mağaza-ürün ikililerinin sayısı %11,5 azaltılarak, ürün yönetimindeki karmaşıklıkta da önemli bir iyileştirme imkânı sunulmuştur. Uygulama sonuçlarında, tamamlayıcı etkisi ve maksimum ürün karması çeşidi sayısı için duyarlılık analizi yapılmıştır. Tamamlayıcı ürünlerin talep etkisinin modele dahil edilmesi, gelir ve net karda önemli bir artışa neden olmuştur. Bu durum, tamamlayıcı ürünler birlikte sergilendiğinde, her iki ürünün talebini olumlu yönde etkilediği için ortaya çıkmıştır. Bununla birlikte ürün karmasının, gruplandırılmış mağazalar için uygulanması her bir mağazada ürün karmasının ayrıştırılmasına göre daha etkin bir sonuç ortaya koymuştur. Modelin uygulanabilirliği, çözümün kalitesi üzerinde hesaplama zamanı açısından da değerlendirilmiştir. Model, kısıtlı sayıda ürün içeren alt kategoriler için 300 saniyede, fazla ürün içeren kategorilerde ise 1800 saniyeden az bir sürede en iyi çözüme çok yakın sonuçlar üretebilmiştir. Elde edilen bulgular, perakende sektöründe ürün karması optimizasyonu modellerinin, müşteri tercihlerini karşılayan ve aynı zamanda maliyet-etkin bir ürün karması sunan stratejik araçlar olarak önemli potansiyel taşıdığını ortaya koymaktadır.
-
ÖgeComprehensive risk mapping and fire station optimization for forest fire management: An application in Antalya(Graduate School, 2024-10-30) Yavuz Özcan, Zühal ; Kabak, Özgür ; Çağlayan, İnci ; 507182116 ; Industrial EngineeringForest fires are a significant environmental hazard, exacerbated by climate change, prolonged droughts, and increasing human activity in forested regions. These fires not only threaten biodiversity and ecosystems but also pose severe risks to human life, infrastructure, and natural resources. Efficient forest fire risk (FFR) mapping and strategic fire station placement are critical to mitigating these risks and ensuring rapid response in high-risk areas. However, traditional methods of fire risk assessment and resource allocation often fail to capture the complexity of large-scale forested regions, where environmental variables and fire occurrence probabilities vary widely. This thesis addresses these challenges by developing an integrated framework that combines advanced multi-criteria decision-making techniques and optimization models to enhance forest fire management. The thesis focuses on the Antalya region, offering both theoretical insights and practical applications to improve fire risk mapping and fire station deployment strategies in similarly vulnerable areas. This thesis presents a comprehensive framework for FFR mapping and fire station placement optimization, focusing on large, forested regions. By integrating multi-criteria decision-making techniques with advanced optimization models, the thesis addresses critical challenges in fire management, providing both theoretical advancements and practical applications in resource allocation. The thesis is structured into three main parts: a detailed literature review and taxonomy of FFR assessment methodologies, the selection and application of the Analytic Hierarchy Process (AHP) and Ordered Weighted Averaging (OWA) methods for the Antalya region, and the development and implementation of optimization models for fire station placement using Set Covering Model (SCM) and Maximal Covering Model (MCM). The first phase of this study involves a comprehensive literature review of existing FFR assessment methodologies. The review examines FFR mapping studies published between 2020 and 2022 and follows a systematic analysis process. As a result of this process, 170 studies are classified into 8 main categories and 23 subcategories. This detailed classification reveals both the application areas and methodological approaches of existing studies. Through this review, it becomes clear which methods are more commonly used in the literature such as AHP, and where significant gaps exist like optimization methods in FFR mapping. Techniques frequently used in FFR assessment studies include the AHP, which is chosen for this study due to its widespread use in risk mapping. Additionally, the less commonly used OWA method is included to provide a comparative analysis. These two methods are selected as the primary tools for developing FFR maps in this thesis. The review also identifies key factors, such as wind speed, temperature, and vegetation density, which are incorporated into the risk maps for the Antalya region. These factors are selected based on their relevance to both the literature and the local environmental conditions, ensuring that the risk maps accurately reflect the specific characteristics of the study area. In the second phase, the thesis develops detailed FFR maps for the Antalya region using both AHP and OWA. The region is divided into five distinct risk categories, and the accuracy of these maps is validated using Receiver Operating Characteristic (ROC) curves and the Area Under the Curve (AUC) metric. AHP highlights clear high-risk zones, particularly in coastal and central areas, while OWA distributes the risk more conservatively, identifying moderate risk across a broader area. These findings provide valuable insights into the strengths and limitations of each method for FFR assessment. Based on the validation results, the OWA-generated risk values are selected for the fire station placement optimization phase, as they provide a more balanced risk distribution for long-term planning. The third phase of the thesis focuses on fire station placement optimization. A literature review reveals that most existing optimization models focus on urban areas, leaving a significant gap in the literature for forested regions. To address this, SCM and MCM are selected for their effectiveness in facility location problems and their widespread use in fire station placement optimization. However, since these models are deterministic, they cannot fully capture the uncertainties inherent in forest fire occurrences. To overcome this, stochastic models are developed, incorporating scenario-based approaches to account for the variability and unpredictability of fire events in large-scale regions. A key finding of this thesis is that the MCM achieves similar coverage to the SCM, but with fewer fire stations. This result demonstrates that MCM is more efficient, requiring fewer resources without compromising coverage. Therefore, we recommend MCM for fire station placement in large forested areas where resource constraints are critical. Additionally, an algorithm is developed to identify expected fire locations using inverse transform sampling, focusing on high-risk areas identified by the risk maps. This approach reduces computational complexity by limiting the evaluation to high-risk zones, rather than analyzing every pixel in the study area. A clustering algorithm is then introduced to group expected fire locations, minimizing distances between them on two-dimensional risk maps. This step ensures that fire scenarios are both realistic and manageable, a key challenge in large-scale forested regions. To validate the effectiveness of the stochastic models, they are compared with deterministic solutions using expected fire locations. The Value of Stochastic Solution (VSS) is calculated to further validate the robustness of the models. Additionally, two approaches are used to determine the optimal number of scenarios: first, by evaluating the coverage results of the stochastic models, and second, by using the SCM to ensure that the scenario count is sufficient to achieve robust solutions. In the final phase, the optimization models are applied to the Antalya region using a 1 km by 1 km pixel resolution. The application of these models demonstrates that MCM efficiently achieves desired coverage with fewer fire stations compared to SCM, reinforcing the model's utility in large-scale planning. The stochastic models, in particular, show a high level of adaptability to the unpredictable nature of forest fires, highlighting their value in real-world fire management scenarios. These results underscore the importance of scenario-based planning for enhancing the robustness of fire station placement strategies, especially in regions with significant uncertainties related to fire occurrences. To further enhance the practical application of the optimization models, a Decision Support System (DSS) is developed. The DSS allows fire management agencies to simulate different fire station placements based on varying risk levels and fire scenarios. This tool provides strategic planning capabilities, enabling decision-makers to optimize resource deployment and improve response times in forested areas prone to wildfires. The DSS can also be adapted to other regions, demonstrating the scalability and flexibility of the proposed framework. The contributions of this thesis are multifaceted. First, it offers a comprehensive literature review that identifies key gaps in FFR assessment and fire station placement optimization, highlighting the need for more advanced methodologies. To address these gaps, the thesis introduces a robust framework that integrates both deterministic and stochastic elements, enhancing the flexibility and realism of fire station placement models in large forested areas. Scenario-based approaches are incorporated to improve traditional models like SCM and MCM, making them more applicable to the unpredictable nature of forest fires. The development of FFR maps for the Antalya region, validated through AHP and OWA, provides a strong foundation for fire management strategies. The introduction of clustering and scenario-generation algorithms further enhances the practicality and efficiency of fire station placement. Additionally, the DSS developed in this study offers actionable insights for policymakers, enabling more adaptive and effective strategies for fire prevention and response. This framework is particularly valuable for fire-prone regions like Turkey, where the Mediterranean climate, extensive forests, and limited resources pose significant challenges. The methodology developed, especially MCM, optimizes resource allocation under these constraints, making it suitable for countries with similar environmental and budgetary conditions. The user-friendly DSS allows fire management agencies to implement these strategies more efficiently, improving response times and resource deployment. Moreover, the scalability of this approach makes it applicable not only to Turkey but also to other Mediterranean regions and beyond, contributing to global fire management efforts. In summary, the thesis applies AHP and OWA for risk mapping, with OWA selected for its conservative risk distribution after validation. Optimization models like SCM and MCM are developed for fire station placement, with a stochastic approach supported by an algorithm for expected fire locations and clustering. Ultimately, MCM is recommended for the Antalya region due to its superior performance with fewer fire stations, demonstrating both resource efficiency and scalability.
-
ÖgeCrew recovery optimization through disruption analysis and deep learning driven column generation(Graduate School, 2024-02-06) Herekoğlu, Ahmet ; Kabak, Özgür ; 507132108 ; Industrial EngineeringThanks to globalization, new travel opportunities and economic development have increased the interest in the aviation industry and air transport. The increase in the number of passengers and compliance with the regulations on passenger rights make transformation inevitable for the aviation industry and airlines. Airlines are reorganizing and managing all their resources in line with this transformation. The most critical resources of commercial airlines are the crew and aircraft, which together with passengers are key components of operational efficiency. Unforeseen events such as bad weather conditions, aircraft malfunctions and crew absence may result in inefficiency in operations and thus in the utilization of aforementioned resources. These events are called disruptions. As disruptions such as delays are the primary and fundamental factor in passenger satisfaction and the airline's financial conditions, aviation companies devote valuable resources to analyzing disruptions and taking necessary actions. Actions known as recovery actions are the ones decided by the airline operations control center to overcome problems in the execution of plans due to disruptions. The crew recovery problem is a complex optimization problem in the airline industry that involves scheduling and assigning crews to flights while taking into account various constraints such as legal regulations, crew availability, and cost. Several methods have been proposed to solve this problem, including heuristic and metaheuristic algorithms, integer programming, and constraint programming. It is a type of optimization problem that aims to choose the best recovery strategies to overcome crew disruptions. The main goal is to find the minimum cost combination of assignments that solve the problems related with crew plans while considering all constraints, especially flight time limitations. One popular method for solving the crew recovery problem is the column generation algorithm, which involves generating and adding columns to the problem's LP relaxation until an optimal solution is obtained. Other optimization methods include simulated annealing, genetic algorithms, and ant colony optimization. However, despite the various optimization methods proposed, the crew recovery problem remains a challenging and computationally expensive task due to the large number of variables and constraints involved. Furthermore, real-world crew recovery problems are dynamic and uncertain, requiring the ability to adapt quickly to unexpected events. This is where machine learning (ML) can play a crucial role in developing an optimization method with AI support. By leveraging machine learning algorithms, we can learn from past data and experiences to make informed decisions and generate optimized solutions quickly and efficiently. Recovery strategies can be realized by using actions known as recovery actions. Especially during the preparation of recovery models, more effective strategies are produced by using the actions learned from the past disruptions as inputs in the model. The main motivation behind using actions as input is that learning-based approaches have the potential to generate more effective algorithms for large-scale and difficult optimization problems by inferring insights from historic datasets. Especially with the learning process, important points that people may miss in the solution process become easily noticeable and increase the success of the recovery process. In this study, recovery actions provided by a customized deep learning (DL) model are used as input to the proposed optimization model, in which the objective function minimizes the total assignment cost of crew. Crew disruption data including some of the flight disruptions from a large scale airline is analyzed. Based on the analysis of the data, features are generated and recovery actions are extracted. The recovery actions are used as label and supervised learning methodology is used to train a customized deep learning model. Our hypothesis is based on the assumption that deep learning can provide needed insights in order to solve the problem in a shorter time while preserving the optimality at a certain level. The fundamental insight that we derive from the deep learning model is the recovery actions, which will be used while generating new columns. The actions are used in order to configure the columns faster than the classical column generation by either directly modifying the column itself or narrowing down the solution space. The resource or resource groups including crew and aircrafts are filtered according to the information provided by the deep learning. This makes it possible to search for new columns in a narrower solution space, which makes the search time shorter compared to the classical column generation techniques. The primary goal of the study was to develop a model that balances solution quality and speed. Results indicate that the proposed method outperforms the reference model in terms of runtime while maintaining an acceptable level of optimality. This approach can be valuable for airline companies looking to efficiently address crew recovery challenges. Moreover, it contributes to the existing literature by introducing a new mathematical model and approximation method, demonstrating the potential of deep learning and optimization techniques for addressing complex aviation sector optimization problems and offering valuable insights for future research in the field of crew recovery.
-
ÖgeÇevik yazılım geliştirme projelerinde kritik başarı faktörlerinin modellenmesi: Çevik projelerin Türkiye'deki uygulamaları(Lisansüstü Eğitim Enstitüsü, 2024-06-04) Binboğa, Burcu ; Gümüşsoy Altın, Çiğdem ; 507152102 ; Endüstri MühendisliğiSon yıllarda hızla gelişen teknoloji ile değişen müşteri ihtiyaçlarına kaliteden ödün vermeden hızlı bir şekilde cevap vermek çok önemlidir. Günümüzde, piyasada her ihtiyaç duyulan ürünün muadili bulunmaktadır. Ürünleri, muadillerinden farklılaştıran bir çok özellik örneğin müşteri odaklılık, ihtiyaçlara hızlı cevap verebilme, kalite ve güvenilirlik gibi kavramlar sadece müşteri memnuniyetini artırmakla kalmaz aynı zamanda tüm paydaşların memnuniyetini artıracaktır. Yazılım geliştirmede kullanılan proje yönetimi metodolojileri de teknolojik gelişmelerle değişeme uğramaktadır. Önceki yıllarda daha çok şelale yöntemleri diye adlandırdığımız klasik yazılım geliştirme metodolojileri kullanılırken günümüzde çevik yazılım proje yönetimi yaklaşımları tercih edilmektedir. Çevik proje yazılımı, hızla değişen gereksinimlere uyum sağlayabilmek için esnek ve dinamik bir yaklaşım sunan bir proje yönetim metodolojisidir. Kısa geliştirme döngüleriyle çalışan ekipler, müşteri geri bildirimlerini doğrudan kullanarak yazılım geliştirme sürecini yönlendirir. Böylece yazılımın kalitesi, müşteri memnuniyeti ve proje verimliliği artar. Sürekli iyileştirme ve işbirliğini teşvik eden bu metodoloji, özellikle belirsizlik ve sürekli değişimle karşılaşılan sektörlerde projelerin başarılı bir şekilde yürütülmesine yardımcı olmaktadır. Bu nedenle çevik yazılım geliştirme metodolojileri son yıllarda müşteri ve iş gereksinimlerini hızlı ve etkili bir şekilde karşılamak amacıyla giderek daha popüler hale gelmektedir. Yazılım gereksinimlerindeki belirsizlikler ve değişiklikler, şirketleri yazılım geliştirme projelerinde daha çevik olmaya zorlamaktadır. Günümüzde çevik bir ortamda şirketler ilerleyebilmek için projelerine çevik yazılım geliştirme metodolojilerini entegre etmektedir. Ancak çevik metodolojinin uygulanma şekli projenin başarısını belirleyebilir. Bu tez kapsamında, çevik uygulayıcıların bakış açısından çevik projelerin başarısını etkileyen kritik başarı faktörleri ve çevik başarı ölçütlerinin belirlenmesi amaçlanmaktadır. İlk olarak Çevik Manifesto, Çevik İlkeler ve Scrum Kılavuzu'nun detaylı incelenmesiyle kapsamlı bir sistematik literatür taraması yapılarak Çevik Yazılım Proje Başarı Modeli geliştirilmiştir. İkinci olarak altı çevik proje uygulayıcısı ile bire bir görüşmeler yapılarak kritik başarı faktörleri ve çevik başarı ölçütleri güncellenmiş ve ardından model üzerinde fikir birliğine varmak için katılımcılarla grup toplantısı yapılarak nihai Çevik Yazılım Proje Modeli geliştirilmiştir. Modelde çevik başarı ölçütleri olarak süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyeti belirlenmiştir. Kritik başarı faktörleri ise müşteri faktörleri, ekip faktörleri, organizasyonel faktörler, çevik süreç faktörleri, teknik faktörler ve proje faktörleri olarak altı ana başlıkta tanımlanmıştır. Sonrasında kritik başarı ölçütleri ile çevik başarı ölçütleri arasındaki ilişki literatürden desteklenerek Çevik Yazılım Proje Modeli tanımlanmıştır. Ayrıca kritik başarı faktörlerinin ve çevik başarı ölçütlerinin alt başlıkları da tanımlanmış ve bu alt başlıkları tanımlayan soru ölçekleri geliştirilmiştir. Tasarlanan Çevik Yazılım Proje Anketi çevik proje başarısını etkileyen kritik başarı ölçütlerinin belirlenmesinde kullanılabilecektir. Geliştirilen modeli test etmek için çevik yazılım proje yönetimi deneyimi olan 596 katılımcıdan veri toplanarak proje başarısına etki eden faktörler belirlenmiştir. Veri analizi için yapısal eşitlik modeli kullanılmıştır. IBM Amos 20.0 ve IBM SPSS Statistics versiyon 28 yazılım programlarından faydalanılmıştır. İlk olarak açıklayıcı faktör analizi kullanılarak kritik başarı ölçütlerinin faktör yapısı ortaya çıkarılmış ve modelde belirlenen faktör sayısı ile aynı sayıda faktör elde edilmiştir. Daha sonraki adımda doğrulayıcı faktör analizi ile belirlenen faktörlerin teorik yapısının geçerliliği gösterilmiştir. En son adımda ise kritik başarı faktörleri ile çevik başarı ölçtüleri arasındaki ilişki yapısal eşitlik modellemesi ile test edilmiştir. Sonuçlara göre müşteri faktörleri, ekip faktörleri, çevik süreç faktörleri ve proje faktörlerinin süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyeti açısından çevik proje başarısının önemli belirleyicileridir. Kritik başarı faktörleri arasında müşteri faktörleri ve çevik süreç faktörleri diğer faktörlere kıyasla süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyetini etkileyen güçlü belirleyicilerdir. Bu çalışma ile teorik ve pratik çıkarımlar sunulmuş ve olası gelecek çalışmalar için önerilerde bulunulmuştur. Geliştirilen Çevik Yazılım Proje Başarı Modeli, projelerin başarılı bir şekilde yürütülmesi için kritik olan faktörlerin belirlenmesinde önemli bir rol oynamaktadır. Bu model, çevik yazılım geliştirme süreçlerinin daha iyi anlaşılmasını sağlamakta ve çevik metodolojilerin uygulanmasındaki etkinliği artırmak için yol gösterici olmaktadır. Araştırmanın bulguları, özellikle müşteri ve süreç odaklı yaklaşımların çevik projelerde başarıya ulaşmada kilit olduğunu vurgulamaktadır. Bu faktörler, projelerin zamanında ve bütçe dahilinde tamamlanmasını, aynı zamanda yüksek kaliteli yazılım ürünlerinin teslim edilmesini sağlamakta büyük bir rol oynamaktadır. Ayrıca çevik metodolojilerin daha etkili bir şekilde uygulanabilmesi için çevik uygulayıcılar ve proje yöneticileri için somut adımlar önermektedir. Bunun yanı sıra tasarlanan Çevik Yazılım Proje Anketi, gelecek çalışmalarda çevik proje yönetimi uygulayan farklı sektörlere de uygulanarak sektöre özel kritik başarı faktörleri belirlenmesine yardımcı olacaktır.
-
ÖgeDairesel sezgisel bulanık CODAS (D-SB CODAS) yöntemi ile yeşil lojistik merkezi yeri seçimi: İstanbul ili örneği(Lisansüstü Eğitim Enstitüsü, 2023-12-15) Kamber, Eren ; Baskak, Murat ; 507182121 ; Endüstri MühendisliğiLojistik faaliyetlerinin önemi günümüzde çevresel etmenler doğrultusunda giderek artmaktadır. Hammadde tedâriğinden başlayarak nihaî ürünün müşteriye teslim edilmesine kadar olan süreçlerde, malların, insanların, bilgilerin ve diğer kaynakların taşınması, lojistik faaliyetleri olarak tanıtılmaktadır. Lojistik faaliyetleri arasında depolama yönetimi, stok yönetimi, nakliye ve bilgi işleme ile tedârikçiden son tüketiciye dağıtım yer almaktadır. Tanımından da anlaşıldığı üzere, tedârik zinciri yönetiminin her bir adımında yer alan ve önemli roller üstlenen lojistik faaliyetleri, teknolojik ve toplumsal gelişmelerin paralelinde tüm dünya ülkeleri için büyük sorun oluşturan çevre kirliliği sorunlarından etkilenmektedir. Çevresel sorunları dikkate alan çevreci lojistik faaliyetler, yeşil lojistik olarak adlandırılmaktadır. Yeşil lojistik kısaca ürünlerin, insanların ve bilgilerin taşınması faaliyetleri sırasında çevre kirliliği konusunda duyarlı, doğal kaynakları koruyan, karbon emisyon oranlarını en aza indirgemeyi hedefleyen süreçler olarak tanıtılmaktadır. 1970'li yıllardan itibaren yeşil kavramı literatürde ve çeşitli çevre konularını içeren dünya çapında yapılmış konferanslarda, önem arz ederek yer almaktadır. Yeşil lojistik kavramı ise 1990'lı yıllardan itibaren literatürde yer almış bir kavramdır. Çevre kirliliğine dikkat çeken, dünya çapında gerçekleştirilen, 1997 yılı Kyoto Protokolü ve ardından Kopenhag Protokolü, 2015 yılında imzalanan Paris İklim Anlaşması vb. toplantı ve sözleşmelerle yeşil lojistiğin önemi vurgulanmıştır. Çevre raporları incelendiğinde, taşımacılık faaliyetli karbon emisyon oranlarının çevre kirliliği etmenleri arasında oldukça etkili olması, yeşil lojistik kavramını ön plâna çıkaran gelişmelerin özetidir. Çevre kirliliğini önlemek, bu hususta çeşitli önlemler almak adına, son olarak Avrupa Birliği (AB) ülkeleri 2019 yılında Yeşil Mutabakat'ı imzalamıştır. Yeşil Mutabakatın hedefi, özet olarak 2030 yılına kadar sera gazını, 1990 düzeylerine göre en az %50, olanaklı ise %55 azaltmak, 2050 yılında ise sıfırlamaktır. Bu doğrultuda, lojistik, inşaat, enerji, üretim ve birçok sektörde köklü değişiklikler yapılması plânlanmaktadır. Yeşil Mutabakat ile gerçekleştirilmesi plânlanan sektörel değişimler düşünüldüğünde, çalışma kapsamında lojistik sektörünü kapsayan değişimler önem arz etmektedir. Belirlenen hedeflere ulaşabilmek için, Yeşil Mutabakat ana eylem plânında 8 ana başlık oluşturulmuştur. Lojistik konusu bağlamında önemli olan başlık ise, sürdürülebilir ve akıllı hareketliliğe geçişi hızlandırmak ana başlığıdır. AB'de sera gazı salınım oranlarının yaklaşık %25'ine neden olan taşımacılık faaliyetleri bu kapsam altındadır. İlgili başlıkta hedeflenen, taşımacılıkta, çevreci teknolojilere geçişin sağlanması ve çok modlu taşımacılık uygulamalarına geçişlerin teşvik edilmesidir. Lojistik sektörü bağlamında düşünüldüğünde, Yeşil Mutabakatın Türkiye lojistik sektörüne etkileri büyük olacaktır. Çünkü, Yeşil Mutabakat ile Avrupa Birliği ülkeleri salt kendileri için belirli hedefler koymamıştır. Aynı zamanda, Türkiye'nin de içinde olduğu Avrupa Birliği ile ekonomik ve sosyal ilişki içinde bulunan paydaş ülkelerin de belirli yeşil hedeflere ulaşması beklenmektedir. Türkiye bu durumda büyük hacimli ticarî ilişkiler içerisinde bulunduğu AB ülkelerinde yaşanan yeşil dönüşüme kayıtsız kalamayacaktır. Bu bağlamda, tez çalışması kapsamında Türkiye lojistik sektörünün Yeşil Mutabakata uyum sırasında gerçekleştireceği dönüşüm düşünülerek çalışma konusu olgunlaştırılmıştır. Sıfır karbon salınımı için taşımacılık araçlarında revizyon, çok modlu taşımacılık gibi uygulamalar Yeşil Mutabakatın sürdürülebilirlik ve akıllı ulaşım maddesi kapsamında önem arzetmektedir. Yeşil Mutabakat kapsamında taşımacılık sektöründe yaşanacak dönüşüm, çevreci teknolojilere sahip araçların trafikte sıklıkla kullanılmasını sağlayacaktır. Bu bağlamda, Türkiye sınırları içerisinde henüz kurulmamış, Yeşil Mutabakat ve yeşil lojistik ile uyumlu yeşil lojistik merkezlerin plânlanması çalışma kapsamında hedeflenmektedir. Böylelikle, lojistik sektöründe yaşanacak hızlı bir yeşil dönüşüm hareketi içinde yeşil lojistik merkezlerin yer alması önem arzedecektir. Tez kapsamında, yeşil lojistik merkezlerin altyapı ve kapsam olarak plânlanması, konumlarının belirlenmesi öncelikli hedefler olarak oluşturulmuştur. Çalışmada, yeşil lojistik merkezi (park) yer seçimi problemine odaklanılarak problemin çözüm aşamalarında Çok Ölçütlü Karar Verme (ÇÖKV) melez (hibrit) yöntemleri kullanılmıştır. Problemin uygulama kısmında, tez kapsamında geliştirilen dairesel sezgisel bulanık CODAS (D-SB CODAS) yöntemi yeşil lojistik merkezi yer seçimi probleminde kullanılmıştır. D-SB CODAS yönteminin, yeşil lojistik merkezi yer seçimi probleminde uygulanması kararı sonrasında, yöntemin çözüm aşamalarında kullanmak üzere ölçütler, seçenekler ve karar vericiler belirlenmiştir. Bu kapsamda, yeşil lojistik merkezi yer seçimi problemi İstanbul ile sınırlandırılmıştır. Çalışmanın Bunun birçok nedeni bulunmaktadır. Pazara yakınlık, çok modlu taşımacılığa yakınlık, tedârikçilere yakınlık, ekonomik potansiyel vb. etmenler gözönünde bulundurulduğunda, AB Yeşil Mutabakatına uyum sürecinde İstanbul ili özelinde bir çalışma hazırlamanın, lojistik sektörü için önemli olduğu görülmektedir. Uygulama aşamasında, yeşil lojistik merkezi yer seçimi problemi tez kapsamında sunulan D-SB CODAS yöntemi ile çözülerek, yeşil lojistik merkezi için uygun seçenek belirlenmiştir. Sonrasında, karşılaştırmalı analizler gerçekleştirmek adına aynı problem sezgisel bulanık TOPSIS (SB TOPSIS) ve sezgisel bulanık CODAS (SB CODAS) yöntemleri ile yeniden çözülmüştür. Böylelikle, tez kapsamında geliştirilmiş olan D-SB CODAS yönteminin tutarlılığı ve geçerliliği, karşılaştırmalı analizler ile gösterilmeye çalışılmıştır. Bulanık karar verme modeli D-SB CODAS yöntemi kullanılarak çözüldüğünde, karar vericilerin tercihlerine göre yeşil lojistik merkezi için İstanbul ili sınırları içerisinde en uygun ilçenin Tuzla olduğu söylenebilmektedir. Tuzla ilçesi en iyi seçenek olarak seçilirken, diğer seçeneklerin, uygulama sonuçlarına göre, Arnavutköy, Çatalca, Beykoz ve Eyüp ilçeleri şeklinde sıralandığı görülmektedir. Son olarak, çalışma kapsamında elde edilen sonuçlar lojistik sektörü kapsamında değerlendirilmiştir. Değerlendirme aşamasında, Yeşil Mutabakat ile uyum süreci ve yeşil lojistik merkezi kapsamına değinilmiştir. Yeşil lojistik merkezi yer seçimi çalışması sonrasında, kurulması plânlanan yeşil lojistik merkez için bir kapsam önerilmiştir.
-
ÖgeData driven optimization and applications in complex real-life problems(Graduate School, 2024-06-12) Güleç, Nurullah ; Kabak, Özgür ; 507172125 ; Industrial EngineeringData-driven optimization (DDO) is a methodology that uses data analysis and problem modeling techniques together, whose popularity has increased rapidly in recent years and is expected to continue to increase rapidly in the next 10 years. In DDO, information is obtained from past data by using data analysis and this information is used in modeling the problem and solving the model. Thanks to this method, the assumptions made while modeling the problem are reduced and the model is closer to the problem encountered in real life. In addition, the information obtained allows the model to be restructured to get results in shorter time. The popularity of DDO has increased in recent years and therefore the number of studies in the field of DDO has increased in the literature. However, it is seen that the boundaries of DDO and the conceptual framework of this methodology have not been drawn since this is a new research field. For this reason, in this thesis, the literature in the field of DDO was first examined and a conceptual framework was presented. It is aimed that the proposed conceptual framework will guide studies in the field of DDO and contribute to determining the boundaries of DDO area in the literature. The proposed DDO methodology was applied to four different problems in this thesis study and the results were discussed. The first stage of DDO is obtaining information from data. At this stage, machine learning methods, data mining methods, fuzzy approaches and statistical methods are used. The first problem addressed in this thesis is the problem of predicting picking travel times, which is the most basic model parameter in solving operational warehouse problems. In this thesis study, the time required to pick the items in the orders received in the warehouse was predicted by using the historical picking data of a large automobile spare parts supplier warehouse. In the problem studied, the picking process is carried out by many different pickers and the picking times of each picker vary. Therefore, which picker does the picking directly affects the picking time. For this reason, first of all, pickers were grouped according to their picking characteristics using historical data, and pickers with similar picking characteristics were grouped under the same group. Fuzzy c-Means approach was used for this grouping process. Then, the data set was updated according to the cluster information obtained and picking travel times were predicted using the artificial neural networks method. Predicted picking travel times can be used as model parameters in all operational warehouse problems such as order picking problems, picker assignment problems and picker routing problems. The second problem addressed is the joint order batching, assigning and routing (JOBAR) problem, which is complementary to the first problem studied. This problem is a complex problem in which order batching, picker assigning and picker routing problems, which are three problems encountered in the order picking process in a warehouse, are addressed simultaneously. In fact, all of the lower three problems that make up the problem are NP-Hard in nature, that is, they are problem types where the solution time increases exponentially according to the problem size. Meta-heuristic methods are often used to solve such problems. In this study, the JOBAR problem is addressed in accordance with the DDO methodology. First of all, the picking travel time, which directly affects the outcome of each problem, was predicted using historical picking data with the artificial neural network method. In order to increase the accuracy of this prediction, the pickers' past picking characteristics were taken into consideration and included in the prediction process. The pickers were grouped into four groups according to their past picking performances, and this group information was used as input in the training of artificial neural networks. In the modeling phase, which is the second stage of DDO, the problem was first modeled with the mathematical modeling method and a mathematical model of the JOBAR problem was proposed, covering all three sub-problems. In the proposed mathematical model, picker group information reflecting the picking characteristics of the pickers and piking travel times obtained from artificial neural networks were used as model parameters. However, due to the complex structure of the JOBAR problem, it was not possible to obtain results from the mathematical model within the required time, and therefore a new heuristic algorithm based on the k-nearest neighbor algorithm was proposed for the JOBAR problem. The performance of the proposed heuristic algorithm is compared both with the results obtained from the mathematical model within a certain time limit and with the Clark&Wright algorithm, which is a frequently used savings algorithm in the literature. It has been observed that the proposed new heuristic algorithm is quite successful for JOBAR in terms of both performance and solution time. The third problem addressed with the DDO method in this thesis study is the scheduling crude oil operation (SCOO) problem. As in JOBAR, the SCOO problem is also a complex NP-Hard problem. Although there are different mathematical and meta/heuristic methods proposed for the SCOO problem in the literature, the number of studies dealing with a real-sized SCOO problem is very few. In this study, the SCOO problem was approached and solved with DDO methodology. First of all, by using an event-based mathematical model in the literature, the small sizes SCOO problem was solved for a limited planning period. Then, the result obtained from the mathematical model was analyzed using statistical methods and the Apriori algorithm, one of the most frequently used data mining methods in the literature. A new heuristic method has been proposed for the SCOO problem using the parameters obtained as a result of the data coming from previous stage analysis. The proposed heuristic method has been applied for different planning periods and its performance has been tested. The results obtained show that the proposed approach according to DDO methodology is successful. The last problem addressed in this thesis is the data-driven multi-criteria group decision making (MCGDM) problem. In MCGDM problems, two parameters directly affect the outcome of the decision process. These are the individual effects of the evaluations made by group members on the group decision, that is, the weights of the decision makers and the weights of the evaluation criteria. In this study, a flow is proposed in which the weights of decision makers will be obtained from historical data in accordance with the proposed DDO methodology. In the proposed approach, first of all, the performance of the group members in the past was evaluated and their weights were estimated for the current decision problem. Artificial neural networks were used in this determination process. The proposed methodology was applied on the created synthetic data set and the results were shared. In summary, in this thesis study, a new methodology has been proposed that determines the limits and flow of the DDO approach in the literature. It is aimed to use this proposed methodology in the analysis of the existing literature and to guide future DDO studies. In the continuation of the thesis, the proposed DDO methodology was applied to picking travel time prediction, joint order batching, assigning and routing, crude oil operation planning and multi-criteria group decision making problems, respectively, and the obtained results were shared. The results obtained show that successful results are obtained when the proposed DDO methodology is used as a solution approach for problems.
-
ÖgeDepo dijital olgunluk modelinin oluşturulması ve uygulanması(Lisansüstü Eğitim Enstitüsü, 2023-10-25) Coşkun Yardımcı, İlknur ; Baskak, Murat ; 507162107 ; Endüstri MühendisliğiDepolar tedârik zinciri içerisinde, malzemelerin, çeşitli amaçlarla ve farklı zamanlarda kullanılmak üzere korunmak ve stoklanmak üzere istiflendiği, saklandığı ve malzeme türüne göre tasarlanabilen, çeşitli boyut ve niteliklerde olabilen, açık veya kapalı alanlardır. Bugün depolar, ürün veya malzemeleri korumaktan çok bir akış noktası hâline dönüşmüştür. Son yıllarda yaşanan pandemi ve doğal afetler gibi nedenler ile dijitalleşme hız kazanmıştır. Günümüzde dijitalleşme yolculuğunda olan tedârik zincirlerinde, fiziksel doküman ve belgeler, yerlerini elektronik veriye bırakırken, karar verme süreçlerinde akıllı bilişsel sistemler, yazılımlar ve algoritmalar yaygın olarak kullanılmaya başlanmıştır.Dijital depolama, önde gelen çağdaş lojistik sistemleri, otomatik ve robotik teknolojilerle donatılmış dijital iletişim platformlarının bir kombinasyonudur. Dijital depoları otomatik depolardan ayıran en önemli unsur, mal veya ürünün izlenmesinin yalnızca depo içerisinde değil, tüm süreçler boyunca anlık ve gerçek zamanlı olarak yapılabilmesidir. Tüm lojistik sektöründe olduğu gibi depolama faaliyetlerinde de dijitalleşme eğilimi hızlanmış ve birçok firma, dijital depo yönetim sistemlerini kullanmaya başlamıştır. Bununla birlikte, bir depoyu tümüyle dijital olarak nitelendirebilmek için, tüm işlemlerin otomatikleştirilmiş ve manuel işlemlerin en az düzeye indirilmiş olması gerekmektedir. Bir deponun dijital olgunluğunu ölçmek, dijital teknolojilerin ve sistemlerin depo işlemlerine ve süreçlerine ne kadar iyi bütünleştirildiğini değerlendirmeyi içerir. Bu temel etmenleri değerlendirerek, depo yöneticileri dijital altyapılarını iyileştirebilecekleri alanları ve depo işlemlerini optimize edebilecekleri alanları belirleyebilirler. Bu çalışmada, dijital dönüşüm yolculuğunda olan depoların dijital olgunluğunun belirlenerek varolan durumlarının saptanması için depo dijital olgunluk modeli oluşturulmuş, sonrasında ise sahip olunan yatırım bütçesi ve kaynaklar ile dijitalleşme düzeyini en yüksek değere çıkararak en etkili yatırımı gerçekleştirmesine olanak sağlayan dijital yatırım karar modeli inşa edilmiştir. Dijital depo süreçlerini belirlemek adına öncelikli olarak geleneksel depo süreçleri incelenmiş, dijital depo süreçlerinin ve süreç içi adımların belirlenmesi için Uzman Görüşü alımı gerçekleştirilmiştir. Uzman görüşü sonrası bileşenleri ve adımları belirlenen süreçlerin dijital önemlerinin belirlenebilmesi için uzmanların AHP yöntemi ile karar vermesi sağlanmıştır. Çıkan sonuçlar ile hangi depo sürecinin dijitalleşmesinin daha önemli olduğu, dijitalleşmeye katkısının daha büyük olduğu belirlenmiştir. AHP'den elde edilen sonuçlar ile dijitallik değerlendirme ölçeği oluşturulmuş, olgunluk modeli, boyut ve düzeyleri ile tamamlanmıştır. Olgunluk modeli ile varolan durumda hangi süreçte ne durumda olduğu belirlenen depoların yatırım kararını vermelerine destek olacak bir model olan dijital yatırım karar modeli ile her bir süreç için varolan durum temel alınarak yatırım yapılması gereken süreçler saptanmış ve yatırım bütçesini kullanarak dijital skoru en yükseğe çıkaracak süreçlere yatırım yapılmasını sağlayan karar algoritması oluşturulmuş ve validasyonu gerçekleştirilmiştir.
-
ÖgeDeriving weights of decision makers in group decision making and applications in medical decision making and sensor fusion( 2020) Köksalmış, Emrah ; Kabak, Özgür ; 636295 ; Endüstri Mühendisliği Ana Bilim DalıThe motivation behind the rational decision-making method is to determine the most proper alternative(s) from a set of alternatives regarding the predefined criteria. A structured and reasonable decision making process is essential to settling on rational and appropriate decisions. Especially, the use of rational approaches instead of subjective techniques stimulates organizations to take the correct decisions and cope with any difficulties, efficiently. Consequently, decision making methods have been applied efficiently in a variety of complex areas, such as the military, economics, government organization, and are increasingly attracting the attention of academics for years. Quality of the solution of the decision making depends fundamentally on the nature of the problem, but mostly on the characteristics of decision makers. As the complication of the socio-economic environment increases, it gets more problematic for single decision maker to handle all the relevant features of the problem. Most decision making problems in real world occur in a group environment and this adds too much complexity to the analysis. Therefore, academics are searching for appropriate group decision making (GDM) approaches in recent years to overcome this problem. GDM is a method in which a group of experts (i.e. decision makers, group members, voters, stakeholders) are gathered to find out the solution of the decision making problem. In this process, motivation and understanding of a common problem differ from one decision maker to other depending on the knowledge, background, and expertise of these decision makers. At this point, different weights can be assigned to these people reflecting their importance or perceived reliability for the given problem. In GDM problems, experts describe their preferences by taking each criterion into account, and final decision is reached by merging all decision matrices into an aggregated solution applying a proper operator. At this point, it is important to develop a better technique for aggregating different decision makers' preferences to obtain an acceptable decision making result. In the literature, GDM methods commonly assume that the decision makers have same level of importance weights and disregards the relative weights. This situation may cause inappropriate and inaccurate outcomes that cannot be compensated in the final result. Consequently, reliability and the significance of decision makers on the final decision should be taken into consideration. At that point, how to derive the appropriate weights of decision makers stands as a new challenge. Same challenge is also valid for the multi-source fusion problems that effort to find an appropriate technique to combine the data from multiple sources; for example, sensors, where each sensor may have different features. The key difference here is that the sensors, which may differ in specifications, are replaced with the decision makers whose expertise, background, or knowledge may also vary. Therefore, methods, which are developed to overcome this challenge, have several applications in wireless sensor networks, image fusion, etc. In literature, researches on deriving the weight of decision makers are relatively limited. Moreover, a comprehensive literature review on determining the weight of decision makers is missing among a limited number of studies. Consequently, in the second chapter of the thesis, the literature on deriving the objective weights of decision makers is studied and a new scheme for classification is proposed. According to the stated classification scheme; objective methods are divided into five groups: Similarity-based approaches, index-based approaches, cluster-based approaches, integrated approaches, and other approaches. Literature review and analysis of the studies in literature were conducted with respect to these categories. In the third chapter of the thesis; in order to demonstrate the application of integrated approaches, a new method, that derives decision makers' combined weights using the geometric weights consensus index (objective method) and the subjective weights provided by a supervisor, is developed. The application of the method is verified on a case study in a medical decision making problem, specifically, selection of a suitable anesthesia method to apply in the surgery which involves three alternatives such as the general anesthesia, local anesthesia and sedation. In the fourth chapter, a large scale GDM approach is proposed for the sensor fusion. Since the proposed method is a cluster-based method, it provides acceptable results in sensor networks consisting of multiple sensors. The method can operate under uncertainty as a result of converting raw data from sensors into basic probability assignments. In addition, by assigning three objective weights, the reliability of the sensor clusters was also taken into account. In addition to these objective weights, the proposed method allows subjective weights to be allocated to integrate the experience and knowledge of supervisors into the problem area. The applicability and validity of the proposed method have been checked with two real classification data sets. Experiments show that when the proposed method is applied to two data sets, the classification rate increases significantly. In the last part of the study, the effect of the expansion parameter, objective weights, reliability threshold, number of clusters and clustering method on the classification rate and probability of detection are examined. In the last chapter of the thesis, the results obtained from these studies, problem areas, limitations and potential research directions are discussed.
-
ÖgeDynamic resource allocation for humanitarian relief chain coordination integrated with volunteers(Graduate School, 2025-05-14) Kapukaya, Emine Nisa ; Satoğlu, Şule Itır ; 507172110 ; Industrial EngineeringEach disaster situation has its own specific resource requirements and structures. In the event of a disaster, the number of injuries and lives lost, financial needs, and aid requirements vary based on the type of the disaster. Furthermore, the scale of the disaster, its location, and the socio-economic level of the affected region affect required resources and the actors to participate in relief operations and coordination structure. Volunteers are usually the early responders to the disaster, and need to be employed, as mass casualty events cause a sudden demand surge, and the governmental resources are usually not enough to satisfy all human resource requirements. In this study, a multi-objective dynamic resource allocation model is developed for search-and-rescue and first aid activities under uncertainty with a focus on saving human lives by prioritizing urgent tasks, where the volunteers are employed. A detailed framework covering these tasks and required resources is presented. We considered search-and-rescue units composed of team members from certain fields of expertise and volunteers as human resources. Moreover, the use of different types of renewable and nonrenewable resources required during these tasks and pre-positioning and distribution of these according to needs within the model were planned. In the model, it is aimed to minimize the total unmet human resource demand, the number of resources transferred between regions, and the total unmet renewable and non-renewable resource demand. Hence, a three- objective stochastic programming model is formulated. A real case study was conducted to address resource allocation after the expected major Marmara Earthquake for a district of Istanbul. Demand assessment was made considering the number of buildings expected to be damaged or destroyed, the classification of victims according to the NATO triage system and the number of victims expected to suffer with minor or severe injuries. To meet this demand, officially appointed rescue units and trained volunteers expected to receive training at predetermined levels of classified volunteerism in different professions and spontaneous volunteers are planned to work together in coordination. As the volunteers are usually the first responders, their consideration of resource allocation is invaluable. This is the first study that simultaneously places and dynamically allocates renewable and non-renewable resources and human resources, including the official rescue units and volunteers, for the search-and-rescue and first-aid tasks. Incorporating volunteers' assignments to the search-and-rescue and first-aid teams, considering their expertise levels and prior training, and quitting behavior are unique contributions to our study. The Augmented Epsilon-Constraint-2 (AUGMECON2) Algorithm was employed where necessary iterations were performed in the IBM ILOG CPLEX software environment to obtain the Pareto optimal solutions. Results were analyzed with sensitivity analyses. Besides, the model was solved based on the equity policy to minimize the maximum unmet demand among different regions. The outcomes of this research offer some administrative insights, in which ideas for resource allocation planning were suggested, considering both human and material resources. Most of the unmet human resources demand occurred in the first period since additional resource deployment and interregional transfer of human resources could not be achieved. The population density and the high number of casualties in some regions cause the unmet demand in these regions to be higher than in others. Although targeting the equity policy in total unmet demand among regions in the model is expected to provide equitable results, the total unmet demand, in this case, was much higher than without aiming for equity. As the model's results show, the lack of even one resource will prevent the completion of the task. In cases where some of the resources are used together, a communication system can be used to synchronize them. In the same way, a system that dynamically transmits the number of available resources in the regions to the center will be extremely beneficial in terms of ensuring the management of the process with optimum resources by preventing extra resources from coming to the regions. This requires pre-planning for healthy data flow from disaster areas to transmit the current situation in the region to the system. Integrated decisions for pre- and post-disaster stages are crucial for potential disaster scenarios, as they help determine the expected resource requirements. Improper pre-disaster decision-making will affect post-earthquake decisions, leading to a shortfall in meeting demand.
-
ÖgeEmergency medical system design for disaster response(Graduate School, 2020-08-28) Öksüz, Mehmet Kürşat ; Satoğlu, Şule Itır ; 507142120 ; Industrial Engineering ; Endüstri MühendisliğiDisasters are large-scale events that affect human life, both materially and spiritually. There are many precautions to be taken to mitigate the devastating effect of disasters. One of them is effectively planning of post-disaster emergency medical response system. Since the most important factor is saving human life, proper planning of medical centers, and transportation of casualties to these centers is crucial during the disaster response phase. Therefore, it is necessary to design the Emergency Medical System (EMS) before disasters. EMS consists of many components such as disaster areas, hospitals, Temporary Medical Centers (TMC), casualties, medical staff, ambulances, etc. The proper planning and design of EMS are crucial to respond casualties and serve them effectively. Therefore, location planning of TMCs or field hospitals, classification of injuries (triage), assignment and transportation of casualties, determining the needs of medical staff in the medical centers play a significant role in mitigating the devastating effect of mass casualty events like disasters or incidents. Humanitarian Logistics or Disaster Management activities consist of preparation, supply, transportation, location, allocation, network design, tracking, and storage. Humanitarian Logistics is a challenging process, and this process contains many uncertainties. The main uncertainties in are the time, location, severity of a disaster, and size of demand. The uncertainties and variability in the complex nature of disaster management require formulating problems as a stochastic programming model in general. Humanitarian Logistics (HL) can be divided into three main topics, which are facility location, inventory management, and network flows/design problems. In the HL literature, facility location studies are commonly divided into three categories. These are emergency medical center, relief supplies warehouse, and shelter site or collection point location problems. In large-scale emergency events such as earthquake, hurricane, flood, and tsunami, the capacity of hospitals is not enough for the treatment of the casualties. Therefore, TMCs are located at the suitable sites by considering existing hospitals to serve casualties for medical response. In the first part of this study, it is aimed to determine the location and number of TMCs in case of an earthquake by considering different factors. In the objective function, we considered the setup cost of TMCs and the transportation cost of casualties. In addition, locations and bed capacities of the existing hospitals, possibilities of damage to the hospitals and roads are taken into account. At the same time, a widely used triage system is applied to classify casualties according to their injured level. The distances between disaster areas and EMCs also considered to minimize response time. For this problem, a two-stage stochastic programming model was developed. The proposed model finds an optimal TMC location solution while minimizing the total setup cost of the TMCs and the total expected transportation cost of casualties. Besides, the model was reformulated by considering a single-type of casualty to show the effect of triage on the solution of the problem. Based on the different earthquake scenarios in JICA Report (2002), a real case study was conducted for the Kartal district of Istanbul. The results were presented, and a sensitivity analysis was performed for critical parameters. The medical staff planning of medical centers is vital as wells as the location planning of medical centers to provide services to all casualties assigned to these centers. Therefore, the medical staff capacity should be considered in addition to the patient's capacity when assigning casualties to the medical centers. Besides, assuming that all of the expected casualties occur immediately after the disaster causes ineffective and unrealistic usage of resources. There is also another fact that a casualty might not stay in the same health condition as time passes. For these reasons, a multi-objective dynamic stochastic model was proposed for the medical staff assignment, casualty allocation, and TMC location planning simultaneously. In the proposed model, it is aimed to minimize the expected values of the total number of unserved casualties, the distance between disaster areas and emergency medical centers, and the number of medical staff needed. The first 72 hours after the disaster was considered and divided into four periods to reflect the dynamic behaviour of such events. Thus, with the dynamic model, it is aimed to use the capacities of emergency medical centers more efficiently and realistically. The stochastic nature of casualties' health condition was also included the model as a Discrete-time Markov Chain. For the case study, Kartal district data used in the model-1 has been updated according to the recently published report of the Istanbul Metropolitan Municipality (IBB-KRDAE, 2020). AUGMECON2 method was applied to solve the multi-objective model, and the results were analysed. According to the results for the case study in the first model, the total patient capacity of existing hospitals and all recommended TMCs are not enough for the most probable earhtquake scenarios defined in JICA Report (2002). However, for the most optimistic scenario, setting up 53 out of 74 candidate TMCs after the disaster is suffcient to assign all casualties to the medical centers. Besides, the percentage of unassigned casualties is 14.9% for the most probable scenario and the average percentage of unassigned casualties over all scenarios is about 10%. In the second case study, where the injured estimates are taken from the most recent study (IBB-KRDAE, 2020), there is enough capacity to assign all casualties to the EMCs over all scenarios. The number of TMC that must be set up is 50 for the worst-case scenario and 21 for the base-scenario. The results and analysis for both models offers some managerial insights associated with the number of temporary medical centers needed, their locations, additional capacity requirements, required number of medical staff, and allocation of casualties. We hope that this study will give a new perspective about the pre- and post-disaster emergency medical system design and contribute to the Humanitarian Logistics literature.
-
ÖgeExploiting clustering patterns in training sets to improve classification performance of fully connected layers(Graduate School, 2023-04-06) Kalaycı, Tolga Ahmet ; Asan, Umut ; 507112110 ; Industrial EngineeringFully connected layers are used in almost all neural network architectures ranging from multilayer perceptrons to deep neural networks. These layers allow any kind of interaction between features without making any assumption about the structure of the data. Thanks to this property, with sufficient complexity, fully connected layers are expected to learn any kind of patterns. Practical experience has revealed that this theoretical potential is often not realized. Success of convolutional and recursive layers and findings of many studies have proven that the intrinsic structure of a dataset holds a great potential to improve the success of a classification problem. These layers basically take advantage of the inductive bias based on spatial or sequential structures of specific data types such as text, image, video etc. Also, leveraging clustering to explore and exploit this intrinsic structure in classification problems has been the subject of various studies. This potential led this study to search for a way to incorporate the clustering information of a training set, as a kind of an inductive bias, into the working mechanism of fully connected layers. In this thesis, two different methods are proposed. Both methods aim to improve the classification performance of fully connected layers by feeding them a prior information about the clustering stucture embedded in the training dataset. The first method is a regularization method that focuses on improving the classification results in case of high variance. The second method concentrates on making better predictions in case of high bias. Throughout the study, it was ensured that the methods suggested were applicable regardless of the type of problem being studied and the number of fully connected layers in the architecture. The first method incorporates clustering information of a training set into fully connected layer's nodes without incurring much additional computational costs. It basically depends on clustering the observations before the training phase and then allocating specific nodes in the fully connected layer to one of these clusters during the training. The point of inspiration for this method was the dropout method which is a widely accepted stochastic regularization technique for neural networks. Dropout is using a totally randomized binary matrix to randomly shut down some of the hidden nodes during training iterations. The idea of using a similar matrix to feed the information of different clusters in the training set is the initial step of the proposed solution. Obviously, this matrix has a structured form rather than a randomized one and is obtained by an unsupervised clustering algorithm applied before the training phase. For this unsupervised phase, K-Means and Fuzzy C-Means clustering algorithms were tried separately and their results are compared to the dropout technique as well as to each other. The output matrix in the unsupervised phase is called "Cluster Info Matrix" throughout the thesis. Here we find it essential to note that the fuzzy cluster info matrix always revises the values of the activations in line with the magnitude of the related degree of membership, whereas the K-Means cluster info matrix leaves some of the activations unchanged and set the rest to zero. The difference between the way of manipulations of the fuzzy and K-Means cluster info matrices resembles the difference between L1 and L2 regularization techniques. It is reasonable to propose that L1 regularization, which forces less important variables' weights to be zero, behaves like the K-Means cluster info matrix, whereas the L2 regularization, which tends to diminish the magnitudes of the weights, behaves like the fuzzy cluster info matrix. In the experiment part for the first proposed method, due to imbalanced structure of the dataset, a threshold free performance metric, "Area Under Curve" (AUC) was defined as the target metric. The experiments on the K-Means version of the first proposed method show that even for very low significance levels, the proposed method gives statistically significant higher AUC values in the test set compared to dropout for all architectures covered in the experiments. At this point, the question of whether these improvements are really a result of the node-to-cluster allocation logic, or the same improvement could be achieved by using an arbitrary binary matrix as the cluster info matrix, was also tested as part of the experiments. With this purpose, experiments were repeated by replacing the cluster info matrix with a random binary matrix. The results showed that the cluster-to-node allocation logic of the proposed method plays a significant role in the improvements achieved. During the experiments, it was also observed that the dissimilarity of the clusters as well play an essential role in the results. As expected, the difference made by the proposed method was observed to decrease as distinguishability of the clusters weakens. In the experiments for the Fuzzy C-Means version, the same experimental procedure as in the k- means version was followed. The Fuzzy C-Means version of the proposed method yielded even better results than the K-Means version and consequently to dropout with statistically significant higher test AUC values. The key contributions of the first proposed method can be summarized under four headings, namely (i) it proposes a fully connected layer which embeds the information on intrinsic clusters in the dataset into its hidden nodes, (ii) develops a fuzzy cluster-aware regularization technique for fully connected layers, (iii) it provides experimental results indicating a better performance of the proposed method in classification problems in comparison to the widely adopted fully connected regularization technique, dropout and (iv) it is compatible with any classification architecture that uses fully connected layers. The second proposed method introduces a new training pipeline for fully connected layers in which the extracted features are expected to have the ability to cluster the dataset in the same way as in the original feature space. The method consists of two main stages which are pre-training and training. In the pre-training stage, the dataset is clustered using Fuzzy C-Means algorithm and then a matrix that contains the fuzzy membership degrees of each observation to each cluster is created. The resulting fuzzy membership degrees matrix becomes an input to the second main stage of the proposed method. In the training stage of the proposed method, the fully connected layer is trained in a way to minimize a combined cost function that includes both classification and clustering costs aggregated in a weighted manner. In the experiments part for the second proposed method, performance of a single fully connected layer, which is trained by the proposed method and a regular single fully connected layer are compared to each other. In line with similar studies, test set accuracy metric is defined as the target metric. The results showed that even for very low significance levels, the proposed method is superior compared to a regular fully connected layer in ten of eleven experiments. The experiments also showed that the results of the proposed method are distributed within a range resulting in smaller or at least equal standard deviations compared to the results of the regular fully connected layer. Moreover, in the experimental part of the second proposed method, the variation of clustering costs obtained during training of multiple fully connected layers was investigated. The observations have provided evidence that it becomes more difficult for the obtained features to learn the clustering patterns in the original feature space as we move towards the last layers. Behaviors in an architecture with more than one fully connected layer are not further elaborated, addressing future work. The key contributions of the second proposed method can be listed under five items: (i) it proposes a new training process which makes fully connected layers benefit from the clustering structure of the training dataset; (ii) it puts forward an enhanced fully connected layer which has the ability to classify and cluster a dataset simultaneously; (iii) it incorporates the learning process of cluster centroids into backpropagation; (iv) it conducts experiments that indicate superior prediction performances of the proposed method in various benchmark datasets compared to regular fully connected layers, and (v) it is ready to be employed, without any revision, in any classification architecture that uses fully connected layers. In today's world, machine learning and particularly artificial intelligence applications have a significant role in decision making and automation systems in management, healthcare, public, marketing, agriculture, manufacturing, finance, and technology fields. In these industries, the impacts of decisions made by machine learning algorithms are huge and mostly have very important consequences. Impacts in healthcare and public industries directly relates to human well-being which is hard to quantify with money. On the other hand, industry reports show that estimated financial benefits of machine learning solutions are measured by millions or even billions of dollars in private and public sector. The magnitudes of financial and social impacts of machine learning use cases prove the importance of marginal benefits that can be derived by even small performance improvements in machine learning algorithms. Considering this potential, two methods which are proposed in this thesis create a significant opportunity for the performance improvements of many artificial intelligence applications and consequently for their financial and social impacts.
-
ÖgeExtensions of Z-fuzzy numbers and novel multi criteria decision making models(Graduate School, 2024-02-01) Tüysüz, Nurdan ; Kahraman. Cengiz ; 507172124 ; Industrial EngineeringThe ordinary fuzzy sets are based on the fact that the belonging of an element to a set can take values between 0 and 1, and they emerged due to the incapability of classical sets to describe uncertainty in human thought. After fuzzy sets were introduced to the literature, it began to propose more than one parameter to define uncertainty. For example, while ordinary fuzzy sets use only membership functions, intuitionistic and Pythagorean fuzzy sets use membership and non-membership functions; neutrosophic, picture, and spherical fuzzy sets use membership, non-membership and indeterminacy functions. Although all these fuzzy sets have different properties and conditions for defining uncertainty, they are unable to define the reliability degrees of judgments. Z-fuzzy numbers allow judgments to be defined not only with a restriction function but also with their reliability degrees. In this thesis, extensions of Z-numbers have been proposed to the literature by integrating fuzzy set extensions with Z-numbers. Thus, novel Z-numbers have been presented to the literature for defining uncertainty, and fuzzy sets have been given the ability to represent reliability under their own properties and conditions. In addition, multi-criteria decision-making (MCDM) methods have been expanded by using ordinary fuzzy Z-numbers and these new fuzzy Z-numbers. Thus, new Z-fuzzy MCDM methods have been introduced to the literature. For this purpose, in the first three chapters, new Z-fuzzy MCDM methods are presented such as Z-CODAS, Z-AHP and Z-EDAS methods. In other three chapters, decomposed fuzzy Z-numbers, picture fuzzy Z-numbers, and interval-valued spherical fuzzy Z-numbers have been developed and integrated with different MCDM methods. Each chapter is summarized below: In Chapter 2, the COmbinative Distance-based ASsessment (CODAS) method, which is a method based on Euclidean and Taxicab distances, is expanded with Z-numbers and introduced to the literature. The proposed Z-CODAS method has been applied to the supplier selection problem. For this purpose, firstly, decision criteria are weighed based on Z-pairwise comparison matrices. Then, the obtained criteria weights are integrated into the Z-CODAS method and used to rank alternative suppliers. The obtained results are compared with the ordinary fuzzy simple additive weighting (SAW) method. Chapter 3 presents a multi-experts MCDM method for evaluating social sustainable development factors. The proposed approach integrates Z-numbers and AHP method and may guide many sustainable development researches. In this study, Z-numbers have been used for the first time to evaluate social sustainable development factors. In addition, the other contribution of the study is presenting the Z-AHP method with multi-experts which can be useful for the solution of many MCDM problems containing uncertainty. The proposed Z-AHP method allows pairwise evaluations to be represented with their reliability degrees and integrated into the calculations. Chapter 4 extends the Evaluation based on Distance from Average Solution (EDAS) method to the Z-EDAS method. In this chapter, a decision making methodology is proposed by the integration of Z-AHP method and Z-EDAS method. The practicality of the proposed methodology is presented with an application on wind turbine selection problem. The comparative analysis conducted with Z-TOPSIS method demonstrates that the usefulness and competitiveness of the proposed methodology are provided. The results show that proposed methodology can both represent decision makers' judgments extensively, and reveal a logical ranking results related to alternatives by the usage of reliability information. In Chapter 5, decomposed fuzzy Z-numbers, which are the integration of decomposed fuzzy sets (DFSs) and Z-numbers, are introduced to model functional and dysfunctional judgments in a reliable decision environment. Collecting judgments under the circumtances of Z-numbers from experts using functional and dysfunctional questions can provide more consistent and reliable decision environment. In this chapter, a new decomposed fuzzy Z-linguistic scale and defuzzification formula are introduced. Then, decomposed fuzzy Z-TOPSIS method is developed for the solutions of MCDM problems under uncertainty. An application on transfer center location selection for a private cargo company in Marmara Region of Turkey is presented. The effect of the reliability parameter on the results is analyzed. Chapter 6 presents a decision methodology that integrates the picture fuzzy Z-AHP (PF Z-AHP) method for weighting criteria and a novel PF Z-TOPSIS method for ranking the alternatives. Although the picture fuzzy TOPSIS methods are used to model decision makers' hesitancy in their evaluations, adding reliability degrees to these evaluations can provide better solutions and reliable decision environments for real-life applications. In order to analyze the utility of the proposed PF Z-AHP&TOPSIS methodology, it is applied for solar energy panel selection problem. The sensitivity and comparative analyses are also performed to analyze given decisions and the effects of Z-numbers on the results. In Chapter 7, a new interval-valued spherical fuzzy (IVSF) Z-number is developed combining the ability of SFSs to allow the assignment of membership degrees in a wider domain with the ability of Z-numbers to represent reliability. In addition, a novel Interval-valued Spherical Fuzzy Z-Analytic Hierarchy Process (IVSF Z-AHP) is proposed by integrating the IVSF Z-numbers and AHP method. Then, a new IVSF Z linguistic scale and a new defuzzification formula are proposed. The proposed IVSF Z-AHP method is applied for green supplier selection problem to show the practicality and applicability of the method. Comparative analysis and sensitivity analysis show the necessity of reliability information in decision making. In summary, in this thesis, new extensions of Z-numbers and new fuzzy MCDM methods integrated with these extensions are proposed to the literature. Then, the proposed method and methodologies have been applied to various decision-making problems to demonstrate their practicality. In order to show the importance of reliability information, this information has been ignored and the problems have been resolved with the same data and it has been investigated whether the rankings of the alternatives changed. The results and the analyzes provide evidence that reliability information has the potential to change the rankings of alternatives. Especially when the reliability degrees of experts' judgments are wanted to be considered in the decisions, managers or practitioners can use the proposed approaches in this thesis to produce more reliable and meaningful solutions to their problems. In further researches, many different extensions of Z-numbers can be developed and compared with the results of the methods proposed in this thesis.
-
ÖgeFiyat ve envanter transferi kararlarının bütünleşik optimizasyonu için yönlendirici bir analitik yaklaşım ve perakende sektöründe uygulaması(Lisansüstü Eğitim Enstitüsü, 2024-12-03) Özalp, Mehmet Mustafa ; Durmuşoğlu, Bülent M. ; 507152109 ; Endüstri MühendisliğiPerakende değer zincirleri, pazar dinamiklerindeki değişimler, teknolojik ilerlemeler, pandemi sonrası tedarik zincirlerindeki kesintiler ve artan rekabet göz önünde bulundurulduğunda hızlı değişimler geçirmektedir. Bu dinamizm içerisinde, perakendecilerin satış ve karlılıkta sürdürülebilir bir büyüme sağlaması ve müşteri sadakatini sürekli iyileştirebilmesi için değer zincirindeki akışı dinamik bir şekilde ele alması, birçok faktörü dengeli ve eş zamanlı düşünmesi gerekmektedir. Ürün maliyetlerindeki artış, tüketici harcamalarındaki gerileme ve tedarik zincirlerindeki dalgalanmalar gibi genel endişeler dikkate alındığında, pazar talebi, fiyatlama ve envanter yönetiminin etkin ve dinamik bir şekilde ele alınması, perakendecilerin talebi hızlı bir şekilde belirlemesi, şekillendirmesi ve karşılaması açısından en önemli fonksiyonlar olarak öne çıkmaktadır. Perakende mağazacılık optimizasyonu, satış ve marjların iyileştirilmesinin, envanter çevrimlerinin düzenlenmesinin ve dolayısıyla kazançların temel itici gücü olarak görev yapmaktadır. Perakende organizasyonuna plandaki farklılıkları algılama ve bunlara yanıt verme konusunda benzersiz bir yetenek sağlamaktadır. Perakende mağazacılık fonksiyonları, sezon öncesinde oluşturulan hedeflere sezon içerisinde ulaşılmasını sağlamak için sezon öncesi ve sezon içi olacak şekilde ayrılmaktadır. Müşteri davranışlarının son derece dinamik olması nedeniyle, sezon içi planlama faaliyetleri finansal hedeflere ulaşmayı güvence altına almak açısından büyük bir öneme sahiptir. Sezon içi planlama ile perakendeciler, değişen koşullara göre gelecekteki zaman dilimleri için talep tahmini ve ilişkili KPI'ları haftalık olarak izler ve sezon öncesi plan ile karşılaştırır. Bunun sonucunda, finansal hedeflere ulaşımı garanti altına almak amacıyla bir dizi düzeltici eylemler gerçekleştirirler. Finansal hedefler, maliyetler ve hizmet seviyeleri gibi iş sonuçları dikkate alındığında, bu eylemlerin birlikte ele alınması ve değerlendirilmesi dengeli sonuçlar elde etmek için gereklidir. Talep tahmini, perakende mağazacılık planlama ve optimizasyonunda kritik bir rol oynamaktadır ve birçok süreç için karar verme çalışmalarının temel girdisini oluşturur. Doğru talep tahmini, perakendecilerin envanter yönetimini optimize etmelerine, stok fazlalıklarını ve eksikliklerini minimize etmelerine, müşteri memnuniyetini artırmalarına, fiyatlandırma stratejilerini belirlemelerine ve promosyonları etkili bir şekilde planlamalarına yardımcı olur. Özellikle mağaza-SKU seviyesindeki detaylı analizler, her mağazanın ve ürünün özgün talep yapısını anlamayı sağlar, yerel müşteri taleplerine daha iyi yanıt verilmesine olanak tanır ve genel operasyonel verimliliği artırır. Fiyatlandırma, müşteri davranışlarını etkilemedeki kritik rolü nedeniyle perakendecilerin sezon içinde talebi şekillendirmek için kullandıkları önemli bir araçtır. Doğru fiyatlandırma stratejileri, ürünlerin satış hızını artırarak stok fazlalıklarını önlemeye ve raf ömrü boyunca optimum kazancı sağlamaya yardımcı olur. Ayrıca, dinamik fiyatlandırma, rekabetçi piyasa koşullarına uyum sağlamak ve müşterilerin algıladığı değeri en üst düzeye çıkarmak için esneklik sunar. Sezon içi fiyatlandırma kararları, promosyonlarla desteklendiğinde müşteri sadakatini artırabilir ve satışları önemli ölçüde artırabilir. Bu nedenle, perakendecilerin fiyatlandırma stratejilerini dikkatlice planlaması ve sürekli olarak gözden geçirmesi, talep dalgalanmalarını etkin bir şekilde yönetmelerine olanak tanır. Sezon içi envanter yönetimi, perakendecilerin müşteri taleplerini karşılayabilmesi için kritik öneme sahiptir, ancak çeşitli zorlukları beraberinde getirir. Başlangıç envanteri, sezon öncesinde sipariş edilen ürünlerin uzun teslimat süreleri nedeniyle sezon içinde yenilenememesi durumunda hayati bir rol oynar. Bu durumda, envanter transferi operasyonları devreye girer. Envanter transferi, ürünlerin bir perakende konumundan başka birine taşınması sürecidir ve stok seviyelerini dengelemek için esneklik sağlar. Geleneksel sistemlerin aksine, esnek sistemler perakende noktaları arasında yatay entegrasyona imkân tanıyarak talep ve envanterin daha iyi eşleştirilmesini sağlar. Bu sayede, fazla stoklar dağıtım merkezlerinde toplanmak yerine doğrudan diğer perakende konumlarına aktarılır. Transfer kararları, bu dengeyi sağlamak için kritik bir operasyon olarak, perakendecilerin sezon içinde karşılaştığı envanter yönetimi zorluklarını hafifletir ve daha dengeli bir envanter sistemi oluşturulmasına katkıda bulunur. Bu çalışmada, perakende sektöründe bütünleşik fiyat ve envanter transferi optimizasyonuna odaklanılarak, çok ürünlü ve çok mağazalı perakende zincirlerinde satış ve net karı artırmak amacıyla yeni bir modelleme yaklaşımı geliştirilmiştir. Perakendecinin sezon içi planlama ve karar verme faaliyetlerine girdi oluşturacak çok periyotlu ve mağaza-SKU seviyesindeki talepleri tahmin etmek için makine öğrenmesi tabanlı parametrik olmayan bir tahmin modeli geliştirilmiştir. Bu model, makine öğrenimi tabanlı regresyon ağaçlarını kullanarak, benzersiz talep desenleri gösteren mağaza ve ürünler arasında bilgi aktarımı avantajı sağlamaktadır. Dahası, bu bilgi aktarımı, gözlem sayısı az olan yeni ürün ve mağazalarda da daha iyi tahminler çıkarılmasına yardımcı olmaktadır. Özellik mühendisliği kapsamında otoregresif satış özellikleri, geçmiş referans fiyatları, promosyon geçmişi, takvim olayları ve ürün/mağaza nitelikleri gibi faktörler dikkate alınarak modelin doğruluğu artırılmıştır. Ayrıca, satış desenlerine göre mağaza-SKU çiftlerini kümelendirip birlikte modellemek, tahmin doğruluğunu önemli ölçüde iyileştirmektedir. Bu yaklaşımla, perakendecilerin sezon içi planlama ve karar verme süreçlerinde daha doğru ve güvenilir talep tahminleri elde etmeleri mümkün hale gelecektir. Bu çalışma ile perakende sektöründe fiyatlandırma ve envanter yönetimi süreçlerini entegre eden bir yaklaşım geliştirilmiştir. Geleneksel olarak ele alınan envanter kontrolü ve ana depodan envanter yenileme konularının ötesinde, sezon içi envanteri mevcut kaynaklarla optimize etmenin önemi vurgulanmıştır. Çalışmamız, fiyatlandırma stratejilerini mağazalar arası envanter transferiyle entegre ederek, değişen pazar dinamiklerine uyum sağlamayı hedeflemektedir. Optimizasyon modelimiz, taşıma ve stok tutma maliyetlerini dikkate alarak, transfer veya fiyat indirimi kararlarının hangisinin daha faydalı olacağını belirlemektedir. Bu bütünleşmiş yaklaşım, envanter yönetimi ve fiyatlandırma kararlarının birlikte alınmasının önemli faydalarını ortaya koymaktadır. Geliştirilen veri odaklı analitik yaklaşım, Türkiye'deki önde gelen bir giyim perakendecisinde uygulanmıştır. Ana bulgular arasında satış miktarında %9,8 artış, gelirde %4,9 artış ve net karda %2,4 büyüme ile dönem sonu envanterinde %21,3 azalma yer almaktadır. Modelin uygulanabilirliği, cozumun kalitesi uzerinde hesaplama zamanı acısından da değerlendirilmiştir. Model, 10800 saniye civarında en iyi cozume cok yakın sonuclar uretebilmiştir. Bu sonuçlar, talep şekillendirme ve envanter optimizasyonunu dengeleme konusundaki yaklaşımımızın etkinliğini vurgulamaktadır. Çalışmaya ait bulgular, sunulan analitik çerçevenin, sezon içi planlama stratejilerini iyileştirerek perakende operasyonel verimliliğinde önemli iyileştirmeler sağlayabileceğini göstermektedir.
-
ÖgeHakem atama otomasyonu için bir karar destek sistemi: Doğal dil işleme ve veri-güdümlü optimizasyon ile bütünleşik bir yaklaşım(Lisansüstü Eğitim Enstitüsü, 2023-06-06) Aksoy, Meltem ; Yanık, Seda ; Amasyalı, Mehmet Fatih ; 507172122 ; Endüstri MühendisliğiBu tez çalışmasında, proje tekliflerinin değerlendirilmesinde görev alacak teklifin içeriğine hâkim, araştırma alanında yetkin ve tecrübeli hakemleri otomatik olarak belirleyen ve tekliflere atayan bir karar destek sistemi sunulmuştur. Geliştirilen sistemin, hakem atama probleminin üç ana aşamasını birlikte ele alan ve bilgi erişimi, doğal dil işleme ve optimizasyon yöntemlerine dayanan bir sistem olması amaçlanmıştır. Bu amaca ulaşmak için tasarlanan sistem üç ana aşamadan oluşmaktadır. Birinci aşamada, farklı kaynaklardan elde edilen bilgilerle proje teklifleri ve hakemlerin profilleri oluşturulmuştur. İkinci aşamada, ilk olarak tekliflerin başlıkları ve özetlerinden ve hakemlerin geçmiş yayınlarının başlıkları ve özetlerinden oluşturulan metin derlemlerine veri önişleme adımları uygulanmıştır. Bu çalışmada, derlemde yer alan farklı dillerdeki metinlerin varlığı göz önünde bulundurularak kelime temsillerinin oluşturulmasında üç farklı strateji uygulanmış ve elde edilen sonuçlar kıyaslanmıştır. Kelime temsili vektörlerinin çıkarımı için geleneksel frekans bazlı kelime temsil yöntemlerinden TF/IDF, statik kelime temsil yöntemlerinden FastText, bağlamsal kelime temsil yöntemlerinden BERT ve T5 ve çok dilli kelime temsil yöntemlerinden mBERT, XLM-R, DistilmBERT ve DistilmUSE kullanılmıştır. Son olarak, her bir teklif-hakem çifti arasındaki içerik benzerliğini değerlendiren benzerlik skoru, metinlerin vektörel temsillerine dayanarak kosinüs benzerlik metriğiyle hesaplanmıştır. Bu çalışmada, hem geliştirilen karar destek sisteminde kullanılan Türkçe için önceden eğitilmiş kelime temsil modellerinin etkinliğini test etmek ve hem de proje değerlendirme sürecine ayrılan zamanı ve işgücünü azaltmak ve değerlendirmenin diğer süreçlerinde yapılacak işleri kolaylaştırmak için tekliflerin otomatik gruplanmasına yönelik bir yaklaşım sunulmuştur. Teklifleri temsil eden vektörleri elde etmek amacıyla Türkçe dili için önceden eğitilmiş FastText ve BERT yöntemleri ile frekans tabanlı temsil yöntemi olan TF/IDF kullanılmıştır. Elde edilen özellik vektörleri yardımıyla proje teklifleri k-means, k-means++, k-medoids ve aglomeratif kümeleme algoritmaları kullanılarak belirli sayıda kümeye bölünmüştür. Ayrıca, K-En Yakın Komşular, Destek Vektör Makineleri, Yapay Sinir Ağları, Sınıflandırma ve Regresyon Ağaçları ve Rassal Orman gibi sınıflandırma algoritmalarıyla hangi teklifin hangi gruba ait olduğunu otomatik olarak tahmin eden bir sınıflandırma modeli önerilmiştir. Sonuçlar, Türkçe için önceden eğitilmiş yöntemlerin metinleri başarılı bir şekilde temsil ettiğini göstermiştir. Ayrıca önerilen otomatik teklif gruplama yönteminin yöneticilerin gerçekleştirmesi gereken ve zaman alan manuel teklif gruplama görevini otomatikleştirmeyi mümkün kıldığı göstermiştir. Ayrıca, ikinci aşamada yetkin hakemler tarafından değerlendirilmesini sağlamak amacıyla her bir hakem için yetkinlik skoru hesaplanmıştır. Hakem yetkinlik skoru, hakemlerin h-indeks değeri, akademik unvanı ve geçmiş proje değerlendirme performansı puanları bir araya getirilerek belirlenmiştir. Bunlara ek olarak ikinci aşamada değerlendirme sürecinin tarafsızlığını ve adaletini etkileyebilecek teklifle hakem arasındaki çıkar çatışması tespit edilmiştir. Üçüncü aşamada ise projelere yetkin hakemler atamak için çok amaçlı tam sayılı doğrusal programlama optimizasyon modelleri sunulmuştur. Temel model olarak adlandırılan optimizasyon modeli ile kümülatif benzerlik skoru ve kümülatif yetkinlik skorunu maksimize etmek amaçlanmıştır. Modelde proje-hakem benzerliği ve hakem yetkinliği iki amaç olarak formüle edilmiştir. Çözümünde ise proje-hakem benzerliğini, hakem yetkinliğinden daha öncelikli olarak ele alınan sözlüksel yöntem kullanılmıştır. Temel modelde proje teklifi talebi, hakem iş yükü, değerlendirme maliyeti, eğitim maliyeti, bir proje teklifi-hakem çifti arasındaki çıkar çatışmasından kaçınmak gibi kısıtlar dikkate alınmıştır. Temel modelde benzerlik skoru ve yetkinlik skorunu maksimize ederken dengeli hakem iş yükü dağılımı da iki farklı yaklaşım ile araştırılmıştır. Bu yaklaşımlardan birinde dengeli iş yükü üçüncü bir amaç olarak amaç fonksiyonunda esnek bir kısıt olarak ele alınırken, diğer yaklaşımda katı bir kısıt olarak modele eklenmiştir. Ayrıca, üçüncü aşamada, hakem atamasında kümülatif skorların maksimizasyonundan çok en kötü durumdaki tekliflerin iyileştirilmesini sağlayacak bir maks-min model formülasyonu ele alınmıştır. Bunun için problem, amaç fonksiyonlarının önem sıralamasını dikkate alan ve maks-min adalet hedefine dayanan sözlüksel maks-min yöntemi ile çözülmüş ve Temel modeldeki en kötü skorlara sahip %20'lik dilimde önemli iyileştirmeler sağlandığı gösterilmiştir. Önerilen karar destek sisteminin performansı, proje tekliflerine hibe desteği sağlayan İstanbul Kalkınma Ajansı'nın 2012-2021 yılları arasında ilan etmiş olduğu teklif çağrılarına sunulan proje teklifi veri kümesi ile test edilmiştir. Deneysel sonuçlar, önerilen yaklaşımın hakem atama problemi için etkili ve verimli bir şekilde uygulanabileceğini göstermektedir. Ayrıca bu çalışma kapsamında geliştirilen karar destek sistemi ile elde edilen hakem atama sonuçlarıyla manuel atama sonuçları kıyaslanmıştır. Sonuçlara göre, otomatik atamanın hem toplam benzerlik skoru hem de toplam yetkinlik skoru açısından manuel atamadan daha iyi sonuçlar verdiği görülmüştür. Önerilen karar destek sistemi; teklif ve hakem profilini oluşturmak, potansiyel hakemler ile teklifler arasındaki benzerlik skorunu hesaplamak, her bir hakem için yetkinlik skorunu hesaplamak, çıkar çatışmalarından kaçınmak, hakem uzmanlığını ve verimliliğini dengelemek ve tekliflere belirli sayıda hakem atamak için kullanılabilir. Geliştirilen sistemin zaman ve maliyet tasarrufu sağlayarak atama sürecinin verimliliğini artırabileceğine inanılmaktadır. Bölgesel kalkınma ajanslarının proje değerlendirme süreci baz alınarak geliştirilen hakem atama sisteminin diğer devlet/özel fon kurumlarının veya araştırma kurumlarının teklif değerlendirme sürecinde benzer kullanım için kolayca uyarlanabileceği ve genişletilebileceği düşünülmektedir. Ayrıca dergiler ve konferanslar için makale seçim sürecinin proje teklifi seçim sürecine benzerliği göz önünde bulundurularak bu çalışmada önerilen karar destek sisteminin, konferans yönetim sistemleri ve dergi değerlendirme sistemlerini hızlandırmak ve geliştirmek için kullanılabileceği düşünülmektedir.
-
ÖgeHiyerarşik grup karar vermeye dayanan proje portföy seçimi ve çizelgelemesi(Lisansüstü Eğitim Enstitüsü, 2020-09-24) Şahin Zorluoğlu, Özge ; Kabak, Özgür ; 507132112 ; Endüstri Mühendisliği ; Industrial EngineeringSon yıllarda organizasyonlar sürekli bir karar verme döngüsüyle karşı karşıya kalmaktadır. Kaynaklarının, işgücü ve yatırımlarının çoğunu bu kararlara göre yapan organizasyonlar için doğru projeleri seçmek ve çizelgelemek büyük önem taşımaktadır. Çok kriterli karar verme üzerine yapılan çalışmalar, karar vericileri (KV) çok sayıda ve birbiriyle çelişen amaç ve kriterler olduğu durumlarda desteklemek için gerçekleştirilmektedir. Kararlar bireysel olarak ya da gruplar halinde verilebilir. Birden fazla bireyin yer aldığı karar verme süreçleri grup karar verme (GKV) olarak tanımlanabilir. Karar verme sürecine katılan bireylerin kendi tutum ve motivasyonlarına göre karar almaktadır. Bu KV ya da uzmanlar ortak bir problemin varlığını kabul etmiş ve ortak bir karara varmak üzere bir araya gelmişlerdir. Organizasyonel karar verme problemlerinde sürece katılım gösteren KV ya da uzmanlar, organizasyonun farklı birim ya da seviyelerinden çalışanlar ya da yöneticiler olabilirler. Karar verme süreci çok sayıda alternatif proje, kriter ve KV bulunduğu durumlarda karmaşık bir sürece dönmektedir. Çok Kriterli Grup Karar Verme (ÇKGKV) yöntemleri son yıllarda araştırmacıların ilgisini çekmektedir. Klasik ÇKGKV yöntemlerinin aksine, bazı özellikli problemlerde KV ya da uzmanların hiyerarşik bir yapısı bulunabilir, bu probleme hiyerarşik grup karar verme (HGKV) problemi denir. Karar verme sürecine katılan KV ve uzmanların hiyerarşik yapısı en HGKV'nin en ilgi çekici taraflarından biridir. Organizasyonlar genellikle çalışanların üst birimlerine ya da alt birimlerine bağlı olarak farklı seviyelerde konumlandırıldığı, seviye hiyerarşisine sahiptir. Çalışanların değerlendirmelerine dayalı bir karar verilmesi gerektiği durumda, çalışanların hiyerarşisi dikkate alınmalıdır. Fakat böyle bir problem yapısında kompleksliği arttıran çok sayıda çalışan, alternatif ve kriter olması durumu ile karşı karşıya kalınabilir. Bu problemlerin üstesinden gelmek amacıyla bu çalışmada HGKV'ye dayanan bir proje portföy seçimi ve çizelgeleme (PPSÇ) yaklaşımı önerilmiştir. Bu yaklaşımın ilk bölümünde proje portföy seçimi için bir HGKV modeli sunulmuştur. HGKV probleminin çözümü için iki ayrı durumda yararlanılmak üzere iki farklı çözüm yaklaşımı geliştirilmiştir. İlk durum KV ve uzman değerlendirmelerin klasik sayılar, ikinci durum ise kanı dereceleri cinsinden ifade edildiği durumlar için geliştirilmiştir. Buna ek olarak bu iki durumu ele alan iki ayrı uygulama yapılmıştır. Bu tez çalışmasının seçim ile ilgili ilk bölümünün en önemli katkısı HGKV'nin tanıtılması, iki ayrı durum için iki özgün çözüm yaklaşımı geliştirilmiş olmasıdır. Tez çalışması kapsamında PPSÇ sürecinin aşamalara ayrılarak yeniden tasarlanması amaçlanmıştır. Proje portföy seçimi ve proje portföy çizelgelemeyi bir arada ele alan entegre bir yapı tasarlanmıştır. Tez çalışmasının ilk kısmında önerilen HGKV yapısı ile alternatif projelerin fayda puanları ve sıralamaları elde edilmiştir. Tez çalışmasının ikinci kısmında ise yeni birçok amaçlı programlama (ÇAP) modeli geliştirilmiştir. Çalışmanın ikinci kısmında geliştirilen modelin en önemli katkılarından biri literatürde çoğunlukla parametre olarak ele alınan, bir projenin bir zaman dilimindeki ilerleme yüzdesinin, karar değişkeni olarak tanımlanmış olmasıdır. Katkılarından bir diğeri ise modelin çözümü için iki ayrı durum ele alınarak iki ayrı çözüm yöntemi geliştirilmiş olmasıdır. ÇAP modelinin amaç fonksiyonlarından biri HGKV modelinin ağırlıklı birikimli kanı derecesi (ABKD) yaklaşımı ile çözümünden elde edilen ve farklı tatmin seviyelerine dağılım olarak ifade edilen projelerin fayda puanlarının en büyüklenmesidir. Elde edilen fayda puanları ÇAP modelinde amaç fonksiyonu katsayısı olarak kullanılmıştır ve fayda puanları farklı tatmin seviyelerine (s_r,rϵ 0,1,…,6) göre değişiklik göstermektedir. İlk durum için ÇAP çözüm yöntemlerinden ağırlıklı minimum-maksimum yöntemi ile önerilen model çözülerek ve her tatmin seviyesine göre farklı bir optimum çözüm elde edilmiştir. İkinci durum için kanı dereceleri ile ifade edilen ve tatmin seviyelerine göre değişiklik gösteren fayda puanlarının modele entegre edilmesi için bir interaktif çözüm yaklaşımı sunulmuştur. Bildiğimiz kadarıyla, literatürde bir başka çalışmada farklı tatmin seviyelerindeki kanı dereceleri birleştirilerek amaç fonksiyonu katsayısı olarak kullanılmamıştır. İnteraktif çözüm yaklaşımının etkinliğinin gösterilmesi amacıyla 18 proje ve 100 proje içeren iki ayrı organizasyon için uygulaması yapılmış, çeşitli senaryolar ile test edilmiş ve duyarlılık analizi verilmiştir.
-
Ögeİnsan kaynakları analitiğinin organizasyonel çeviklik üzerindeki etkisi(Lisansüstü Eğitim Enstitüsü, 2025-05-28) Budak, Muhammed Çağrı ; Soyer, Ayberk ; Felekoğlu, Burcu ; 507192118 ; Endüstri MühendisliğiOrganizasyonların insan kaynakları (İK) fonksiyonu bünyesinde veri bazlı karar verme eğilimi arttıkça, İK analitiği kavramının hem araştırmacılar hem de reel sektördeki uygulayıcılar arasındaki popülerliği artmaktadır. Bu popülerliğin en temel sebebi, veri bazlı analizlerin kullanımıyla beraber İK süreçlerindeki karar verme yaklaşımlarının daha rasyonel bir hale dönüşecek olmasıdır. Bu karar verme yaklaşımlarını ya da süreçlerini daha rasyonel hale getirecek kavram ise analitik uygulamalardır. Böylece İK fonksiyonu, organizasyon içerisinde stratejik karar noktalarına daha çok dahil olacak ve bu durum rasyonel verilere dayanarak gerçekleşecektir. İK analitiği uygulamaları sayesinde İK fonksiyonunun karar verme süreçlerine dahil edilmesini sağlayacak bu dönüşümün tam anlamıyla gerçekleşebilmesi için İK analitiğinin organizasyon içerisindeki dinamiklere ne denli etki ettiğinin ölçülmesi ve değerlendirilmesi gerekmektedir. Böylece, İK analitiği uygulamalarının organizasyon içerisindeki pozitif katkısı anlaşılacaktır. Bu noktadan hareketle bu tez çalışmasında İK analitiğinin organizasyonel dinamikler üzerindeki etkisini araştırmak için kullanılabilecek bir İK analitiği ölçüm modeli geliştirilmiştir. Geliştirilen bu ölçüm modelinde, veri yeterliliği, teknolojik yeterlilik, işgücü yetkinliği, İK analitiği uygulama seviyesi ve organizasyonel iklim alt boyutları, İK analitiği kavramını oluşturmaktadır. Alt boyutların hepsi için literatürdeki çalışmalardan faydalanılarak ölçüm soruları geliştirilmiştir. Veri yeterliliği için 10, teknolojik yeterlilik için 11, işgücü yetkinliği ve İK analitiği uygulama seviyesi alt boyutları için 12'şer ve organizasyonel iklim alt boyutu için ise 13 adet ölçüm sorusu geliştirilmiştir. Bunların dışında bir soru da yansıtıcı-biçimlendirici yapıda geliştirilen ölçüm modelinin test edilmesi amacıyla İK analitiği kavramını doğrudan ölçmek amacıyla hazırlanmış; dolayısıyla, ölçüm modeli toplam 59 sorudan meydana gelmiştir. Geliştirilen ölçüm modelinin geçerliliğini ve güvenilirliğini sınamak amacıyla Türkiye'de faaliyet gösteren ve İK analitiği uygulamalarını kullanan organizasyonlardan veri toplanmıştır. Çevrimiçi anket yöntemiyle toplanılan veri seti toplam 179 yanıttan oluşmakta ve bu 179 yanıtı veren organizasyonun 89 tanesinde İK analitiği uygulamalarını organizasyonlarında kullanmaktadır. Dolayısıyla, teorik olarak geliştirilen ölçüm modeli, toplanan veriler içerisinden 89 tanesi kullanılarak istatistiksel olarak test edilmiştir. Toplanan bu veriler kısmi en küçük kareler yapısal eşitlik modellemesi yöntemiyle analiz edilerek modelin geçerliliği ve güvenilirliği sınanmıştır. İstatistiksel analizler neticesinde veri yeterliliği alt boyutundan 1 adet soru ve organizasyonel iklim alt boyutundan 1 adet soru ölçekten çıkarılmıştır. İlaveten, ölçüm modelinde yer alan alt boyutların İK analitiği kavramını oluşturduğu istatistiksel olarak kanıtlanmıştır. İK analitiği için geliştirilen ve geçerliliği ve güvenilirliği istatistiksel olarak kanıtlanan yansıtıcı-biçimlendirici yapıdaki ölçüm modeli, İK analitiği, organizasyonel çeviklik ve organizasyonel performans kavramları arasındaki ilişkileri değerlendirmek üzere oluşturulan yapısal eşitlik modelinde de kullanılmıştır. Bu sayede İK analitiğinin organizasyonlar üzerindeki kısıtlı olarak araştırılan etkisinin ortaya çıkarılmasına da katkıda bulunulmuştur. Geliştirilen yapısal eşitlik modelinde organizasyonel çeviklik kavramının ölçümü için dinamik yetenekler kavramı temel alınarak, 3 alt boyuttan oluşan (algılama kapasitesi, uyarlama kapasitesi ve cevap verme kapasitesi) yansıtıcı-yansıtıcı tipte çok düzeyli bir ölçüm modeli oluşturulmuştur. Algılama kapasitesi alt boyutu 8 soruyla, uyarlama kapasitesi alt boyutu 6 soruyla ve cevap verme kapasitesi alt boyutu ise 7 soruyla ölçülmüştür. Ölçüm soruları literatürde daha önce kullanılan sorular dikkate alınarak hazırlanmıştır. Organizasyonel performans kavramı ise 10 sorudan oluşan tek düzeyli bir ölçüm modeli ile ölçülmüştür. İK analitiği, organizasyonel çeviklik ve organizasyonel performans arasındaki ilişkilerin araştırılması için Türkiye'de faaliyet gösteren 154 organizasyondan veri toplanmıştır. Söz konusu veriler bir anket firması aracılığıyla toplanmış ve geliştirilen yapısal eşitlik modeli bu veriler kullanılarak ve kısmı en küçük kareler yapısal eşitlik modellemesi yöntemi kullanılarak analiz edilmiştir. Daha önce 89 veriyle geçerliliği ve güvenilirliği sağlanan İK analitiği ölçeğinin geçerliliği ve güvenilirliği, yeni veri setiyle ikinci kez kanıtlanmıştır. Organizasyonel çeviklik için oluşturulan yansıtıcı-yansıtıcı tipindeki çok düzeyli ve algılama kapasitesi, uyarlama kapasitesi ve cevap verme kapasitesi alt boyutlarından oluşan ölçeğin de geçerliliği ve güvenilirliği kanıtlanmıştır. Benzer şekilde organizasyonel performans kavramının ölçüm modelinin de geçerlilik ve güvenilirliği kanıtlanmıştır. İlgili kavramlar arasındaki ilişkiler incelendiğinde; İK analitiğinin organizasyonel çeviklik ve organizasyonel performans üzerinde pozitif bir etkisinin olduğu; bunun yanı sıra organizasyonel çeviklik kavramının da organizasyonel performans üzerinde pozitif bir etkisinin olduğu görülmüştür. Son olarak, İK analitiğinin, organizasyonel çeviklik aracılığıyla, organizasyonel performans üzerinde dolaylı bir etkisinin de olduğu ve bu dolaylı etkinin direkt etkisinden daha yüksek olduğu sonucuna ulaşılmıştır. Bu tez çalışmasının bir sonraki aşamasında ise İK analitiği uygulamalarının performans ölçümüne yönelik bir yaklaşım önerilmiştir. Günümüzde organizasyonlar, İK analitiği uygulamalarını gerçekleştirmeye başlamış olmakla birlikte, halihazırda organizasyonların bu uygulamaların performansını ölçebilecekleri bir yaklaşım bulunmamaktadır. Bu durum organizasyonların İK analitiği uygulamalarından ne ölçüde fayda sağladıklarının farkına varamamalarına yol açmaktadır. Bu tez çalışmasında organizasyonların İK analitiği performanslarının ölçümüne yönelik birikimli kanı derecesi ve kısmı en küçük kareler yapısal eşitlik modellemesi yaklaşımlarının kullanıldığı hibrit bir yaklaşım önerilmektedir. Geliştirilen yaklaşım, genel anlamda İK analitiği performansının ölçümüne imkan sağlamasının yanı sıra; İK analitiğinin alt boyutları olan veri yeterliliği, teknolojik yeterlilik, işgücü yetkinliği, İK analitiği uygulama seviyesi ve organizasyonel iklim alt boyutları açısından da performans ölçümüne olanak sunmaktadır. Geliştirilen yaklaşım, organizasyonların İK analitiği uygulamalarının performanslarını direkt olarak ölçmesine ve İK analitiği performansının alt boyutları bazında değerlendirilmesine imkan tanımaktadır. Önerilen yaklaşım, birikimli kanı derecesi ve kısmı en küçük kareler yapısal eşitlik modellemesi yaklaşımlarını entegre ederek, farklı form ve ölçekler kullanılarak elde edilen değerlendirme puanlarının birleştirilmesine, İK analitiği alt boyutları ve performans göstergeleri arasındaki ilişkilerin analize dahil edilmesine ve kısmı en küçük kareler yapısal eşitlik modellemesi sonucunda elde edilen faktör yüklerinin/ağırlıklarının gösterge/alt boyut ağırlıkları olarak dikkate alınmasına olanak sağlamaktadır. Önerilen yaklaşım, İK analitiği performans ölçümü için etkin bir çerçeve sağlamaktadır. Çalışmada, önerilen yaklaşımın etkinliğini ve uygulanabilirliğini göstermek üzere örnek bir uygulamaya da yer verilmiştir.