LEE- Endüstri Mühendisliği Lisansüstü Programı
Bu topluluk için Kalıcı Uri
Gözat
Başlık ile LEE- Endüstri Mühendisliği Lisansüstü Programı'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
ÖgeA hybrid deep learning metaheuristic model for diagnosis of diabetic retinopathy(Graduate School, 2022-10-17) Gürcan, Ömer Faruk ; Beyca, Ömer Faruk ; 507142109 ; Industrial EngineeringDiabetes is a disease that results in an increase in blood sugar due to the pancreas not producing enough insulin, insufficient effect of the produced insulin, or ineffective use of insulin. According to the International Diabetes Federation 2021 report, approximately 537 million adults aged between 20 and 79 live with diabetes worldwide. It is estimated that the number of people with diabetes will increase to 643 million in 2030 and 783 million in 2045. Diabetic retinopathy (DR) is an eye condition that can cause vision loss, irrecoverable visual deterioration, and blindness in people with diabetes. Today, it is one of the leading diseases that cause blindness. Anyone with any diabetes can become a DR. In ophthalmology, type 2 diabetes can lead to DR if left untreated for more than five years. Diabetes-related high blood sugar leads to DR. Over time, having too much sugar in the blood damages the retina. The deterioration of this disease in the eye begins when sugar blocks the capillaries leading to the retina, causing fluid leakage or bleeding at a later stage. The eye produces new vessels to compensate for the blocked vessels, but these newly formed vessels often do not work well and can bleed or leak easily. DR can lead to other serious eye conditions. For example, about one in 15 people with diabetes develop diabetic macular edema over time. DR can lead to the formation of abnormal blood vessels in the retina and prevent fluid from leaving the eye. That causes a type of glaucoma. It is crucial for people with diabetes to have a comprehensive eye examination at least once a year. Follow-up of diabetes; factors such as staying physically active, eating a healthy diet, and using medications regularly can stop the damage to the eye and help prevent or delay vision loss. Some risk factors increase the development of DR, such as pregnancy, uncontrolled diabetes, smoking addiction, hypertension, and high cholesterol. In addition to being detected by magnifying the pupil in eye examination, DR is also diagnosed with the help of image processing techniques. It is common to use fundus images obtained by fundus fluorescent angiography to detect DR and other retinal diseases. Nowadays, with the increasing number of patients and the developments in imaging technologies, disease detection from medical images by various methods has increased. Deep learning is one of the methods whose application area has increased exponentially in recent years. Deep learning is a subfield of machine learning; both are a subfield in artificial intelligence. Deep learning methods draw attention with their versatility, high performance, high generalization capacity, and multidisciplinary use. Technological developments such as the collection of large amounts of data, graphics processing units, the development of robust computer infrastructures, and cloud computing support the building and implementation of new models.Increasing the number of images for a particular patient case and high-resolution images increases specialists' workload. Diagnosis of DR manually by an ophthalmologist is an expensive and time-consuming process. It requires experts who have remarkable experience. In addition, the complexity of medical images and the variations between specialists make it difficult for radiologists and physicians to make efficient and accurate diagnoses at any time. Deep learning is promising in providing decision support to clinicians by increasing the accuracy and efficiency of diagnosis and treatment processes of various diseases. Today, in some medical studies, the success levels of expert radiologists have been achieved or exceeded. Convolutional neural networks (CNNs) are the most widely used deep learning networks in image recognition, image/object recognition, or classification studies. A CNN model doesn't need manually designed features for training; it extracts features from data directly while network training on images. The automated feature extraction property and their success make CNNs highly preferred models in computer vision tasks. This study proposes a hybrid model for the automatic diagnosis of DR. A binary classification of DR (referable vs. non-referable DR) is made using a deep CNN model, metaheuristic algorithms, and machine learning algorithms. A public dataset, Messidor-2, is used in experiments. The proposed model has four steps: preprocessing, feature extraction, feature selection, and classification. Firstly, fundus images are pre-processed by resizing images and normalizing pixel values. The inception-v3 model is applied with the transfer learning approach for feature extraction from processed images. Then, classification is made using machine learning algorithms: Extreme Gradient Boosting (XGBoost), Random Forest, Extra Trees, Bagged Decision Trees, Logistic Regression, Support Vector Machines, and Multilayer Perceptron. XGBoost gives maximum accuracy of 91.40%. The best potential features are selected from the extracted features by three metaheuristic algorithms: Particle Swarm Optimization, Simulated Annealing, and Artificial Bee Colony. Selected features are classified with the XGBoost algorithm. The metaheuristics significantly reduced the number of features obtained from each fundus image and increased the classification accuracy. According to the results, the highest accuracy of 93.12% is obtained from the features selected with Particle Swarm Optimization. When the study results are compared with the existing studies in the literature, it has shown that this study is competitive in terms of accuracy performance and obtained low features. On the other hand, the proposed model has some advantages; it has a few pre-processing steps, training number of parameters are considerable low, and model can be trained with a small amount of data. This study is one of the first studies showing that better results can be obtained in DR classification by using deep learning and metaheuristic algorithms together. The proposed model can be used to give another idea for ophthalmologists in diagnosing DR.
-
ÖgeA new MILP formulation for crude oil scheduling optimization:: A case study in a Turkish refinery(Graduate School, 2023) Marttin, İrem ; Kabak, Özgür ; 897790 ; Industrial Engineering ProgrammeRefineries are intricate industrial facilities that undergo the complex process of converting crude oil into fuels and various chemicals. The operations of refineries present unique challenges due to the utilization of advanced technologies and intricate processes. The complexity of refineries stems from the extensive array of crude oil varieties they handle, as well as the production of different products that necessitate specific quality standards. Planning activities are carried out at different levels to coordinate numerous operations that require a significant amount of energy and resources to work efficiently, effectively, and safely in refineries. These activities involve the development of plans that will improve production, distribution, and all other operations in alignment with the set targets. Subsequently, detailed schedules are developed based on these plans to determine the timing, sequence, and allocation of necessary resources for operations. Effective scheduling plays a crucial role in refinery operations as it impacts a multitude of decisions, particularly in the scheduling of production activities. The scheduling process entails determining optimal production conditions and quantities for each product, taking into consideration factors such as the availability of raw materials, capacity of relevant refinery units, and customer demands. Refinery scheduling can be classified into three main categories: crude oil scheduling, production unit scheduling, and final product scheduling. Crude oil operations, being the initial phase of the refinery process, hold significant influence over all subsequent operations and greatly impact the refinery's continuity and profitability. Therefore, it assumes a critical position among refinery operations, underscoring the importance of scheduling specifically tailored for crude oil processes within the scope of refinery planning. This study addresses a real-life problem related to the planning process of crude oil operations based on real refinery conditions. The problem is large-scale and comprehensive as it deals with a real refinery case. The crude oil operation processes in question are managed through three operations: unloading, transfer, and charging. Since it is a coastal refinery, crude oil reaches the refinery via ships, and the transfer from ships to refinery tanks is provided. This process is called crude oil unloading. Sending the crude oil mixture in the tanks to the relevant charging unit for processing is referred to as crude oil charging. Transfer, on the other hand, represents the transfer of crude oil between tanks. When the planner creates a crude oil operation plan, they consider the entire process from the unloading of crude oil from vessels to its charging into units. To handle all operations in an integrated manner, multiple electronic spreadsheets and system data are utilized. Based on this data, the planner identifies suitable tanks for unloading considering factors such as unloading limits and crude oil mixture characteristics. Additionally, to charge the appropriate mixtures in tanks to charging units, the planner determines the required crude oil compositions and the suitable tanks for charging accordingly. Due to the complexity of crude oil operations and the abundance of constraints, generating and evaluating all possible solutions within a reasonable time frame is highly challenging. Furthermore, situations arise during the implementation of a plan that necessitate the updating of the contingency plan based on the evolving circumstances. All these factors have led to the complexity of the planning process, requiring additional resources. The purpose of this study is to develop a decision support system that accurately reflects the entire structure, limits, and operations of the refinery and optimizes the scheduling process for crude oil. For this purpose, a new mixed integer linear programming model (MILP) is proposed, which schedules the crude oil operations by addressing the unloading of crude oil, transfers between tanks, and charging into units. The model is formulated with a discrete time representation, considering all the limits specific to the mentioned refinery problem, and the planning period is approached in daily increments. Unlike refinery structures where storage and charging of crude oil are conducted in separate tanks, as emphasized in most studies in the literature, in this case, the tanks are used for both storage and charging.
-
ÖgeA novel picture fuzzy ELECTRE method and its application to long-term shelter site selection after an earthquake: The case of Antakya(Graduate School, 2023-09-29) Akkaya, Beril ; Kahraman, Cengiz ; 507201123 ; Industrial EngineeringDecision-making is an essential part of human life, involving continuous choices made by individuals, institutions, and companies. While some decisions are straightforward, others are more complex and require specific methodologies to reach conclusions. These methodologies are developed to address the challenges of decision-making. Decision-making can be categorized into single and multi-criteria approaches. Decision-making environments can be classified based on the availability and certainty of information. In deterministic environments the decision-making process is fairly straightforward as the information is known and certain, whereas in risky and uncertain environments, the process becomes more challenging. In addition to these classifications, fuzzy decision-making environments address circumstances where even defining the boundaries of goals and constraints becomes a complex task. Traditional multi-criteria decision-making approaches, designed for precise information are not suitable for such problems. Fuzzy methods allow for the representation of ambiguous or imprecise information through partial memberships dissimilarly to crisp sets. Fuzzy settings have been shown to be more beneficial when dealing with problems that heavily rely on human judgement, as they account for linguistic expressions of people during the evaluation of alternatives and criteria in MCDM problems. Consequently, many MCDM methods are extended to fuzzy settings. MCDM methods encompass hierarchical approaches, multi-objective mathematical programming, and outranging methods. Outranking methods rely on pairwise comparison of criteria to determine the best alternative, or the ranking of the alternatives. Among the outranging methods, the ELECTRE methods family is widely used. They are utilized for alternative selection problems, ranking of the alternatives, and assigning them to pre-defined categories. Various fuzzy extensions of the ELECTRE methods exist, enabling the representation of vagueness and ambiguities. Picture fuzzy sets excel in representing human consideration, expressing the thoughts in terms of positivity, neutrality, negativity, and refusal. However, only ELECTRE methods integrated with other methods such as EDAS and TODIM were extended to picture fuzzy settings and a complete ELECTRE method extension has not been made. The motivation behind this thesis is to address the absence of a picture fuzzy ELECTRE method in the existing literature, despite the potential of picture fuzzy sets to capture the impreciseness in human thought. The goal of the study is to extend the ELECTRE method to the picture fuzzy environment. Additionally, the devastating earthquakes that occurred in Turkey, on February 6, 2023, serve as an additional motivation for conducting an experimental study to aid decision-making in the affected region, particularly in Hatay. The main objective of this thesis is to propose a methodology for the selection of long-term shelter site selection following this disaster along with an effective application analysis to ensure its practicality. To ensure the relevance and accuracy of the study, decision-makers from various fields of expertise related to the subject are involved. The criteria for evaluation of the problem are determined by a literature review. Criteria weights are evaluated by the experts, then criteria weights are finalized by using SWARA method. The alternative locations also proposed by a local scholar. The expert also evaluated alternatives with PiF linguistic scale to construct initial decision matrix. After the procedure of the method is completed, the best alternative for shelter site is decided as North Side of the Asi River. A sensitivity analysis by assigning different weights to different types of concordance and discordance sets and using different distance measures are performed, and the results indicates the consistency of method and the solutions. Finally, a comparative study is conducted with the TOPSIS method and MAIRCA-ELECTRE methodology.
-
ÖgeA scheme proposal for the development of machine learning-driven agent-based models through case studies(Graduate School, 2023-09-15) Turgut, Yakup ; Bozdağ, Cafer Erhan ; 507172127 ; Industrial EngineeringAgent-based modeling (ABM) has garnered extensive application across various disciplines, presenting an instrumental tool for researchers. However, the creation of effective and precise agent-based models (ABMs) presents an intricate challenge. The integration of machine learning (ML) methodologies into ABMs could potentially simplify the modeling process and augment model performance. This dissertation presents an exhaustive exploration of the relationship between ABM and ML methodologies, elucidating the advantages and disadvantages of data-driven ABMs. The predominant challenge in the development of ABMs is the delineation of agents' behavioral rules. To surmount this challenge, a main scheme utilizing ML methodologies within ABMs is proposed. This scheme is examined through the lens of pertinent academic literature. Within this central framework, three sub-frameworks are introduced to model agent behaviors in ABMs via ML methodologies. Each of these sub-frameworks pivots around the principle of employing ML methodologies to derive agent behaviors. Sub-Framework I offers a comprehensive roadmap for researchers aiming to implement an ABM with predictive capabilities. This sub-framework intertwines theoretical support with ML methodologies with the aim of enhancing the precision of ML-generated agent behavior. To determine how well ML techniques enhance the accuracy and ease of building ABM, Sub-Framework I was applied to a real-world case using supervised learning methods. Sub-Framework II offers guidance to researchers with the objective of creating ABMs for optimization purposes. The effectiveness of this framework is scrutinized in a simulated environment employing Reinforcement Learning (RL) techniques as the ML methodology. Lastly, Sub-Framework III serves as a guide for researchers endeavoring to create an ABM for understanding objectives. Its empirical validation is undertaken through a real-world case study. This framework utilizes Inverse Reinforcement Learning (IRL) and Reinforcement Learning (RL) as ML methodologies. The findings of these models developed through the frameworks suggest that ML approaches may facilitate the development of ABMs.
-
ÖgeAdvanced scenario planning: New approaches for developing, evaluating, and selecting scenarios with applications(Graduate School, 2024-10-24) Yanmaz, Özgür ; Asan, Umut ; 507162125 ; Industrial EngineeringScenario planning is regarded as a useful tool for strategic planning, particularly in managing uncertainty through the examination of various future scenarios. Since present decisions influence a system's future performance, foreseeing new advancements and problems is critical to the success of future plans. Rather than attempting to accurately predict the future, scenario planning assists in negotiating unexpected and complex developments. Strategic planners can use scenarios to create a more sustainable system by considering how future events can unfold, addressing uncertainties, providing insights into the long-term consequences of decisions, and identifying potential opportunities and threats. A scenario represents a combination of potential developments, which are factors that influence systems in the future. These potential developments are characterized by specific factors and their corresponding levels, all of which have a qualitative nature. In practical scenario planning, the number of possible scenarios can reach into the millions. To formulate effective and actionable plans for the future, it is essential to focus on a manageable subset of scenarios. Therefore, the qualitative nature of the scenarios should first be quantified, and a selection process should be employed to identify a subset of scenarios for further analysis and strategic planning. The studies presented propose a comprehensive methodology for the evaluation and selection of scenarios. Multiple criteria were utilized to assess the scenarios through factor levels from different perspectives. To quantify the factor levels, they were first evaluated with respect to multiple criteria as well as the criteria interactions. Interactions between the criteria are crucial for real-world problems, as decision-making processes often involve these interactions. The Choquet integral was employed to aggregate the evaluations considering criteria interactions, providing numerical values for the factor levels. Since the Choquet integral is defined on measures, a mathematical model was developed to revise the expert assessments thereby obtaining criteria weights that satisfy measure rules. The factor levels were then weighted using a specific criterion (i.e., consistency) to calculate scenario values. After obtaining numerical values for the scenarios, a second mathematical model was developed to select a limited number of high-quality scenarios that best represent potential futures. A total of five criteria were used in the evaluation and selection process. Additionally, a practical application has been conducted to demonstrate the real-world usage of the selected scenarios. Following the selection of scenarios, projects or objectives to be prepared for alternative futures were identified. An actor analysis was performed to determine which stakeholders should collaborate in achieving these objectives within the relevant sectors. This approach ensures that both the evaluation and selection processes are comprehensive, incorporating realistic decision-making dynamics such as criteria interactions and that the selected scenarios can be practically applied in strategic planning.
-
ÖgeAfetlerde yaralı taşıma sistemi tasarımı için benzetimle analiz ve stokastik programlama modeli: istanbul depremi için pilot uygulama(Lisansüstü Eğitim Enstitüsü, 2021) Çağlayan, Nadide ; Satoğlu, Şule Itır ; 682659 ; Endüstri Mühendisliği Anabilim DalıAfetler; ani gelişen, doğal veya doğal olmayan olaylar sonucunda ortaya çıkan ve çok sayıda kişiyi hem sağlık açısından hem de maddi olarak etkileyen olaylardır. Afetin olumsuz etkilerinin üstesinden gelebilmek için öncesinde organizasyon çalışmalarının afet yönetim yaklaşımıyla planlanmış olması gerekir. Afet yönetimi, olayların ortaya çıkmasından önce başlayan ve durumun eski haline döndürülebilmesi ile tamamlanan dinamik yapıda bir yönetim sürecidir. Arama-kurtarma faaliyetlerinin yürütülmesi, ilk yardım, yaralı nakli, geçici sağlık merkezlerinin konumlarının belirlenmesi ve kurulum süreçleri, gerekebilecek kaynak ve ekipmanlar, iletişim ve haberleşme kanalları, sistem elemanlarının koordinasyonu, malzeme akışı gibi birçok konuda afet öncesinde eylem planlarının hazırlanması gereklidir. Afet yönetimi sürecinde alınan neredeyse tüm kararlarda ilk amaç hayat kurtarmaktır. Yaralıların kurtarılması, ilk müdahalenin yapılması ve gerekirse sağlık kuruluşlarına nakledilmesi doğrudan insan hayatıyla ilgili olduğu için büyük öneme sahiptir. Çalışmamızda büyük ölçekli afetlerde yaralıların triyaj alanından hastanelere ulaştırılana kadar taşıma süreci incelenmektedir. Çalışma, yaralı taşıma süreci için karar destek aracı önerisi, etkili faktörlerin belirlenmesi ve ambulans konumlarının, sayılarının belirlenerek yaralı atama ile ilgili kararların alınabilmesi için matematiksel programlama modelinin geliştirilmesi olmak üzere iki bölümde ele alınmıştır. Çalışmanın ilk bölümünde yaralıların ve hastane kapasitelerinin gerçek zamanlı takibini sağlamak için Radyo Frekansı ile Tanımlama teknolojisi bazlı veri temelli bir karar destek aracı önerilmiştir. Afetlerde bilgi sistemleri ile ilgili çalışmalarda karar destek sisteminin etkileri ve müdahale aşamasında karar verme konularına etkileri yeterince çalışılmadığı görülmüştür. Yaralı taşıma sürecinde bilgi sistemlerine dayalı süreçler ile mevcut durumların karşılaştırılarak değerlendirildiği çalışmaların da sınırlı sayıda olduğu anlaşılmıştır. Afetlerde simülasyon çalışmaları daha çok hastane içi süreçleri ve triyaj politikalarını analiz etmektedir. Ancak bu çalışmalarda da büyük ölçekli ve nadir gelişen olaylar için bilgi sistemi önerisinde bulunulmamıştır. Bu çalışmada, önerilen bilgi sistemi, uygulama stratejisi ve yaralı nakil optimizasyonu için performans kriterlerine göre önemli faktörler analiz edilmiştir. Hazırlık aşamasında hem bilgi sisteminin tasarım aşamaları hem de önerilen uygulama stratejisi için ayrıntılı akışlar hazırlanmıştır.
-
ÖgeAkıllı şehirler ve akıllı şehirlerin sıralanmasına yönelik bir çok kriterli karar verme uygulaması(Lisansüstü Eğitim Enstitüsü, 2022-12-20) Güneş, Mehmet ; Topçu, Yusuf İlker ; 507191118 ; Endüstri MühendisliğiBu tez, son zamanlarda gittikçe yaygınlaşan ve literatürde önemli bir yer edinmeye başlayan "akıllı şehir" kavramını incelemeyi amaçlamaktadır. Son zamanlarda yaşanan teknolojik gelişmelerin ardından, teknoloji artık hayatımızın her alanında yer almaya başlamıştır. Her geçen gün gelişmeye devam eden bu teknoloji, insanların yaşama biçimlerini de etkilemektedir. Telefonların, ödeme yöntemlerinin, arabaların yıllar içinde ne kadar radikal değişikliklere uğradıkları açıktır. İnsanlık tarihinin başından bu yana insanlar topluluklar halinde yaşamamaktadır. Bu topluluklar başlangıçta köy ya da kasaba adını verdiğimiz çok küçük topluluklar olarak karşımıza çıkmaktaydı. Daha sonra bu topluluklar gittikçe büyüdü ve şehir adı verilen yapıları oluşturmaya başladı. Yukarıda bahsetmiş olduğumuz teknolojik gelişmeler sebebiyle insanlık tarihinde oldukça eskiye dayandığı söylenebilecek "şehir" kavramı da değişikliğe uğramaktadır. Geleneksel şehirler artık yerini teknolojiyle entegre olmuş "akılı şehirlere" bırakmaya başlamıştır. "Akıllı şehir" kavramının henüz tam olarak bir tanımlaması yapılmamış olsa da literatürde konu hakkında olukça fazla çalışma bulunmaktadır. Literatüre göre akıllı şehir kavramı sosyal güçle teknolojiyi harmanlamış ve sistemlerin iletişimini sağlamaya odaklanmıştır. Bu tez, literatürü inceleyip akıllı şehirler için bir tanım oluşturmaya çalışmaktadır. Literatürden yola çıkarak akıllı şehirleri iletişim halindeki alt sistemler olarak tanımlamak mümkündür. Ek olarak, bu çalışma akıllı şehirleri başarılı yapan etmenlerin neler olduğundan, akıllı şehirlerin inşasında karşılaşılabilecek zorluklardan da bahsetmiştir. Çalışmanın büyük bir kısmında, "akıllı şehir" kavramının "sürdürülebilirlik" kavramıyla olan ilişkisi anlatılmıştır. Dünya üzerinde yer alan bir takım akıllı şehir uygulamalarından da ve örneklerinden de bahsedildikten sonra, çok kriterli bir karar verme metodu olan AHP, TOPSIS ve PROMETHEE yöntemleri kullanılarak mevcut olan akıllı şehirlerin sıralaması gerçekleştirilmiştir. Bu yöntemler uygulanırken, ilk olarak literatürde yer alan ve akıllı şehirlerin başarısını etkileyeceği düşünülen kriterler belirlenmiş, ardından şehirlerin bu kriterleri karşılama düzeyleri göz önünde bulundurularak bir sıralama gerçekleştirilmiştir. Böylelikle hangi şehrin akıllılık konseptini daha başarılı bir şekilde uyguladığı ve daha akıllı bir şehir olduğu ortaya koyulmaya çalışılmıştır.
-
ÖgeBaskı çoğaltma endüstrisine yönelik otonom tekliflendirme ve cihaz yönetimi stratejilerinin değerlendirilmesi: Bir karar destek sisteminin tasarımı(Lisansüstü Eğitim Enstitüsü, 2024-06-05) Şimşek, Deniz Işıl ; Çevikcan, Emre ; 507201151 ; Endüstri MühendisliğiTez çalışması dijital baskı endüstrisindeki stratejik karar verme süreçlerini iyileştirme, tekliflendirme sürecini otomatize etme ve sektördeki operasyonel verimlilikle birlikte pazar rekabetçiliğini artırma hedeflerine odaklanmaktadır. Çalışma, baskı endüstrisinin tarihçesine ve dijital teknolojilerin bu alana etkilerine odaklanarak geniş bir literatür taraması ile başlar. Endüstriyel baskı süreçlerinin gelişimi, dijitalleşmesi ve otomasyonun artmasıyla birlikte, firmaların karşılaştığı zorluklar ve bu zorlukların üstesinden gelmek için yapay zeka ve makine öğrenimi teknolojilerinin potansiyeli detaylandırılmaktadır. Çalışma, otonom tekliflendirme sistemlerinin geliştirilmesi ve cihaz yönetimi stratejilerinin değerlendirilmesine yönelik çözümler sunmayı amaçlamaktadır. İlk olarak metodoloji bölümünde veri toplama, veri analiz süreçleri, kullanılan makine öğrenimi modelleri, model değerlendirme ve validasyon yöntemleri, ve tekliflendirme süreci açıklanmaktadır. Çalışmada, gerçek zamanlı piyasa ve müşteri verilerini işleyebilen, dinamik tekliflendirme yapabilen ve müşteri ihtiyaçlarına göre özelleştirilmiş çözümler sunan bir karar destek sistemi geliştirilmiştir. Bu sistem, otonom olarak en uygun cihaz seçimini yapabilme ve rekabetçi fiyatlandırma stratejileri oluşturabilme kapasitesine sahiptir. Uygulama kısmında, firmadan alınan gerçek müşteri verilerinin değerlendirilmesi ve girdilerin belirlenmesi, kullanılacak makine öğrenmesi modelinin detaylandırılması ve değerlendirilmesi, geliştirilen modelin baskı endüstrisi özelinde kullanımı, kullanıcı arayüzü tasarımı, pilot uygulama ve elde edilen sonuçlar değerlendirilmektedir. Kopitek Kopyalama Sistemleri Ltd. Şti. tarafından sağlanan 8600 adet müşteri verisi, CHAID veri analizi yöntemi ile incelenmiştir. CHAID analizi, etkileşimli ağaçlar oluşturarak hangi faktörlerin müşteri tercihlerini en çok etkilediğini belirlemek için kullanılmıştır. CHAID analizinden elde edilen değişkenler, Rastgele Orman algoritması başta olmak üzere 5 farklı makine öğrenimi modeli ile test edilmiştir. Rastgele Orman, Karar Ağaçları Lojistik Regresyon, Destek Vektör Makineleri (SVM), ve K-En Yakın Komşular (KNN) algoritmaları da karşılaştırmalı olarak değerlendirilmiştir. Her bir modelin performansı, doğruluk oranı ile değerlendirilmiştir. Rastgele Orman, özellikle büyük veri setleri ve yüksek boyuttaki verilerde üstün performans gösterdiği için bu uygulama için tercih edilen makine öğrenmesi algoritması olmuştur. Rastgele Orman algoritması ile oluşturulan modelin etkinliği ve güvenilirliği, çapraz doğrulama ve karışıklık matrisleri aracılığıyla ayrıca değerlendirilmiştir. Daha sonra ise modelin sektör özelinde kullanımı adına bir kullanıcı arayüzü geliştirilmiş ve oluşturulan karar destek sisteminin gerçek zamanlı veriler ile uygulaması gerçekleştirilmiştir. Kullanıcı arayüzü, müşteri veri girişlerini kolaylaştırmak ve sistem çıktılarını anlaşılır bir biçimde sunmak üzere tasarlanmıştır. Bu arayüz, kullanıcılara dinamik tekliflendirme yapma, cihaz seçimleri sunma ve rekabetçi fiyatlandırma stratejileri oluşturma imkânı vermiştir. Sonuçlar bölümünde, tezin ana bulguları özetlenmekte ve teorik ile pratik katkılar tartışılmaktadır. Tez çalışması, baskı endüstrisindeki karar verme süreçlerini iyileştirmek için makine öğreniminin etkin bir şekilde nasıl kullanılabileceğini göstermektedir. Ayrıca, bu teknolojilerin endüstriyel uygulamalarda nasıl stratejik avantajlar sağlayabileceği üzerinde durulmaktadır. Tez aynı zamanda gelecekteki araştırmalar için önerilerde bulunarak, baskı endüstrisindeki dijitalleşme sürecinin gelişimine katkıda bulunmayı hedeflemektedir. Bu araştırma, baskı endüstrisinde faaliyet gösteren firmalara, karar verme süreçlerinde veriye dayalı, dinamik ve etkin çözümler sunma potansiyeli taşımaktadır. Geliştirilen karar destek sistemi, endüstriyel uygulamalarda yenilikçi bir yaklaşım olarak değerlendirilebilir ve baskı sektöründe dijitalleşme trendlerine uyum sağlamak, operasyonel verimliliği artırmak ve pazar rekabetçiliğini güçlendirmek için stratejik bir araç olarak ön plana çıkmaktadır. Özellikle dijital baskı teknolojilerinin sürekli gelişim gösterdiği bir dönemde, bu tür yenilikçi çözümler sektöre büyük değer katabilir ve baskı hizmetlerinin daha etkin ve verimli bir şekilde sunulmasını sağlayacaktır.
-
ÖgeBayes ağları ile uluslararası rekabetçilik ölçümü(Lisansüstü Eğitim Enstitüsü, 2024-06-28) Yılmaz, Rabia ; Polat, Seçkin ; 507211124 ; Endüstri MühendisliğiBu tez, bir ülkenin bir sektörünün uluslararası rekabet gücünü ölçmek için bir model sunmaktadır. Porter'a göre, uluslararası rekabet gücü, yıllar içinde ekonomilerin yüksek bir performans düzeyine ulaşma mücadelesinde hedef haline gelmiştir. Uluslararası rekabet gücünü ölçen bu model, yüksek performans elde etmek için stratejiler geliştirmek ve bu geliştirilen stratejilerin rekabet gücü üzerindeki etkisini öngörmek için pratik faydalar sağlar. Bu çalışmada, Porter'ın uluslararası rekabet gücü çerçevesi (yani Porter'ın elmas modeli) doğrultusunda Bayes modeli oluşturulmuştur. Literatürde, bir ülkenin bir sektöründeki uluslararası rekabet gücü üzerine Porter çerçevesini kullanarak yapılan çalışmalar iki kısma ayrılabilir. Çalışmaların ilk kısmı doğası gereği nitelikseldir. Bu çalışmalarda, uluslararası rekabet gücünü etkileyen faktörler ve alt faktörler subjektif olarak değerlendirilmiştir. İkinci kısım çalışmalar ise faktörler arasındaki ilişkiyi analiz etmeyi amaçlayan doğrusal istatistiksel modellerden oluşmaktadır. İlk gruptaki çalışmaların ana sorunu subjektiflik, ikinci gruptaki çalışmaların ise değişkenler arasında doğrusal bir ilişkinin olmasıdır. Oluşturulan Bayes ağı modelinin bu sorunları aşacağı değerlendirilmektedir. Porter, uluslararası rekabet gücü çerçevesini elmas modeli aracılığıyla açıklamaktadır. Elmas modeli, birbirleriyle etkileşim halinde olan dört ana faktör (talep koşulları, faktör koşulları, firma stratejisi, yapısı ve rekabet ve ilgili ve destekleyici endüstriler) ile birlikte, tüm bu faktörleri etkileyen devlet ve şans (şans faktörünün tanımlanmasındaki zorluktan dolayı bu çalışmaya dahil edilmemiştir.) ile açıklar. Elmas modelinde ayrıca bu ana faktörlere ilişkin alt faktörler de bulunmaktadır. Uluslararası rekabet gücünün Bayes ağ modeli ile ölçülebilmesini sağlamak için değişkenlerin tanımları, ilişkileri, kategorileri ve olasılık değerleri belirlenmiştir. Bu alandaki sınırlı veriler nedeniyle, oluşturulan Bayes modeli veriye dayalı değildir. Geliştirilen model Porter'ın teorik değişkenlerini ve uzmanların olasılıklar konusundaki inançlarını birleştiren bir hibrit model sunmaktadır. Porter'ın çerçevesinde birçok alt faktör olduğundan, literatürden seçilen çalışmalardaki kullanım sıklığı nispeten yüksek olanlar Bayes modelinde kullanılmıştır. Uzmanların olasılıklar konusundaki inançlarını toplamak için anketler oluşturulmuştur. Geliştirilen Bayes ağ modeli GeNIe yazılımı aracılığıyla analiz edilmiştir. Modelin bütün olarak değerlendirilmesi ve sonuçların çeşitli koşullar altında analiz edilmesi için duyarlılık ve senaryo analizleri yapılmıştır. Modelin geçerliliği için, ilgili literatürdeki iki çalışmanın sonuçları, bu çalışmada geliştirilen modelle karşılaştırılmıştır. Sonuçlar, bu iki çalışmayla benzerdir. Ayrıca, duyarlılık analizlerinin sonuçları çoğunlukla Porter'ın çerçevesi ile uyumludur. Uluslararası rekabet gücünü en önemli derecede etkileyen faktörler ve alt faktörler analizlerle belirlenmiştir. Bu model, akademik amaçlar doğrultusunda uluslararası rekabet gücünün değerlendirilmesi için kapsamlı, niceliksel bir yaklaşım sunar. Bu çalışmanın sınırlaması, olasılıkların gerçek verilere dayanmaması, uzmanların inançlarına dayanmasıdır, bu nedenle model gerçekliği daha az temsil edebilir. Gelecekteki araştırmalarda, Porter'ın tanımladığı bir ulusun gelişim aşamalarına göre (faktör odaklı, yatırım odaklı ve inovasyon odaklı) Bayes modelde kullanılabilecek alt faktörlerin belirlenmesi, potansiyel bir çalışma konusudur.
-
ÖgeBilişim teknolojisi altyapı kütüphaneliği çerçevesinde operasyonel süreçlerin süreç madenciliği, tahminleme ve kesikli olay simülasyonu ile iyileştirilmesi(İTÜ Lisansüstü Eğitim Enstitüsü, 2025-06-16) Kaçar, Ayşegül ; Işıklı, Erkan ; 507151102 ; Endüstri MühendisliğiBu tez çalışması, Information Technology Infrastructure Library (ITIL-Bilgi Teknolojisi Altyapı Kütüphanesi) çerçevesinde yönetilen bilgi teknolojisi (BT) süreçlerinden etkileşim, olay ve değişim süreçlerinin etkinliğini artırmayı hedeflemiştir. ITIL, BT hizmet yönetiminde dünya çapında kabul görmüş bir çerçevedir ve süreçlerin yapılandırılması, sürekli iyileştirilmesi ve işletmelerin rekabet avantajını artırması amacıyla kullanılmaktadır. Bu kapsamda, süreç madenciliği, zaman serisi analizleri ve kesikli olay simülasyonu yöntemlerinin bir araya getirildiği entegre bir yaklaşım geliştirilmiştir. Çalışmada, bu üç yöntemin birlikte kullanımıyla BT operasyonel süreçlerinin dinamik yapısının anlaşılması, süreçlerin optimizasyonu ve operasyonel verimliliğin artırılması amaçlanmıştır. Tez çalışmasının ilk aşamasında, olay, etkileşim ve değişiklik süreçlerine ilişkin veri setleri detaylı bir şekilde analiz edilmiştir. Veri temizliği ve ön işleme süreçleri uygulanarak süreç madenciliği analizleri için uygun hale getirilmiştir. Süreç madenciliği kapsamında, Heuristic Miner algoritması kullanılarak etkileşim ve değişim süreçlerini modelleyen Petri ağı modelleri çıkarılmıştır. Bu modeller, süreçlerin görsel ve analitik bir şekilde anlaşılmasına olanak tanımış ve süreçlerdeki darboğazlar ile kritik noktaların belirlenmesini sağlamıştır. Örneğin, yazılımsal değişiklik süreçlerinde onay sürelerinin uzunluğu ve yoğun değişiklik dönemlerinde kaynakların dengesiz kullanımı gibi sorunlar bu analizlerle ortaya çıkarılmıştır. İkinci aşamada, süreç madenciliği ile elde edilen veriler üzerinden kapsamlı bir özellik mühendisliği gerçekleştirilmiştir. Özellikle yazılımsal değişikliklerden türetilen metrikler, tahmin modellerinin doğruluğunu artırmada önemli bir rol oynamıştır. Bu metrikler arasında değişiklik yoğunluğu, acil değişiklik oranı, Change Advisory Board (CAB-Değişiklik Danışma Kurulu) onay oranı, yazılımsal değişiklik benzerliği ve değişiklik backlog sayısı gibi nitelikler bulunmaktadır. Ayrıca, süreçlerin dinamik yapısını anlamak için grafik tabanlı ve zaman tabanlı nitelikler de türetilmiştir. Bu zengin nitelikler kümesi, gelecekteki etkileşimlerin tahmin edilmesi için zaman serisi analizleri (SARIMAX) ve makine öğrenmesi algoritmaları (XGBoost, Random Forest, LSTM) ile analiz edilmiştir. Yapılan analizler sonucunda, SARIMAX modelinin tahmin performansı açısından en başarılı sonuçları verdiği görülmüştür. Yazılımsal değişikliklerden türetilen niteliklerin tahmin doğruluğunu artırdığı ve süreç yönetiminde proaktif stratejiler geliştirilmesine olanak sağladığı belirlenmiştir. Üçüncü aşamada ise kesikli olay simülasyonu kullanılarak etkileşim ve olay süreçlerinin dinamik yapısı modellenmiştir. Bu modeller, gerçek veri setlerinden elde edilen parametreler doğrultusunda oluşturulmuş ve süreç performansı farklı senaryolar altında değerlendirilmiştir. Simülasyon senaryoları arasında servis masası kapasitesinin artırılması, İlk Çağrı Çözüm Oranı (FCR) hedefinin yükseltilmesi ve değişiklik süreçlerindeki darboğazların iyileştirilmesi gibi stratejiler yer almıştır. Simülasyon sonuçları, kaynak artırımı ve FCR oranının yükseltilmesinin süreç performansını önemli ölçüde artırdığını göstermiştir. Bu sonuçlar, süreçlerin optimize edilmesine yönelik stratejilerin karar destek sistemleriyle desteklenmesi gerektiğini vurgulamaktadır. Bu çalışmanın temel katkılarından biri, ITIL süreçlerinin dinamik yapısını anlamaya yönelik yenilikçi bir çerçeve sunmasıdır. Süreç madenciliği teknikleri ile süreçlerin analizi ve görselleştirilmesi, süreçlerdeki darboğazların belirlenmesini sağlamış ve operasyonel verimliliğin artırılmasına katkıda bulunmuştur. Yazılımsal değişikliklerden türetilen niteliklerin gelecekteki etkileşimlerin tahmininde kullanılması, süreç yönetiminde daha bilinçli ve stratejik kararlar alınmasını sağlamıştır. Ayrıca, simülasyon modelleri ile farklı senaryolar altında süreç performansının değerlendirilmesi, işletmelere süreçleri iyileştirme ve müşteri memnuniyetini artırma konusunda önemli bir rehber sunmuştur. Bu tez çalışması, ITIL süreçlerinin daha etkin yönetilmesine yönelik kapsamlı bir analiz ve modelleme süreci sunmaktadır. Gelecek çalışmalar için, tahmin ve simülasyon modellerinin entegrasyonu ile bu yaklaşımın daha da geliştirilmesi önerilmektedir. Ayrıca, daha geniş veri setlerinin kullanılması ve süreç modellerinin adaptif bir yapıya kavuşturulması, BT hizmet yönetiminde daha ileri düzeyde karar destek sistemlerinin geliştirilmesine katkı sağlayabilir. Bu bağlamda, süreç madenciliği, öngörme analizi ve simülasyon yöntemlerinin entegrasyonu, ITIL süreçlerinin dinamik yapısını daha iyi anlamaya ve optimize etmeye yönelik güçlü bir araç olarak öne çıkmaktadır.
-
ÖgeBusiness card as a bank product and establishment of a new business card tendency model(Graduate School, 2023-04-17) Bozkurt, Onur ; Beyca, Ömer Faruk ; 507191121 ; Industrial EngineeringSpecially issued for the commercial needs of SMEs, the business card is equipped with the features of different products that also allow personal use. Within the scope of this product; commercial credit cards, overdraft accounts, and credit products with equal installments or seasonal payments are combined into a single card. However, during the data analysis phase, it will be seen that this product is used by individual customers as well as SMEs. Individual customers referred to here are customers with legal entities called partnership customers. The business card tendency model currently used for the related product, which has an important place for banks, does not work successfully. The success rate of this model is well below the other models used in the bank, and therefore the accuracy of the data and the model is doubted. In order to improve this situation, the existing model will be observed, deficiencies and errors will be examined, and then a new model will be established. In this process, there will be stages of data preparation, model building, analyzing the output, and evaluating the results. In the literature, there are many studies prepared for credit cards and related issues by banks and various institutions. Some of these are artificial intelligence-supported credit card models, neural approaches to credit scoring, and calculation of the default rate of loans and fraud detection with the help of machine learning. This study aims to design an end-to-end business card modeling process in the light of other studies in a similar context, but with modern approaches that are not thought to be included in the literature. In light of the studies in the above-mentioned literature, it can be said that there are quite advanced approaches to credit cards. The first problem here is that security-related models such as default rate and fraud are emphasized instead of sales-oriented models of credit cards. Another problem is that the existing sales-oriented models do not attach the necessary importance to sustainability and are established with a shorter-term profit and success focus. In general, the studies conducted in the banks related to the subject were investigated, and various similar and different deficiencies were observed in these studies. A similar and common mistake is that the process ends when customers purchase a product that they do not already have. Another problem is the use of customers' information, which is likely to be erroneous and whose accuracy is doubtful, instead of market information with higher validity, such as BKM and GIB. Finally, most models put less emphasis on activity and continuity, and focus on customer balances. During the case analysis phase, the business card product, which can be tracked through monthly sales at the bank, will be examined. In order to establish a model for this product, first the target definition will be determined, the necessary data will be collected from the relevant tables, and some of them will be selected by filtering these data. Afterward, this data set will be prepared for the model-building phase by making the necessary manipulations on it, and then the model-building phase will be started. Following the model setup, the results will be examined, the most appropriate option will be considered, and success will be measured. In this study, the number of variables, which was 83 at the beginning, is reduced to 11 during the model-building phase, in accordance with the principle of parsimony. A meaningful result is tried to be obtained by entering these variables into the logistic regression and random forest models. According to the results obtained, the logistic regression model works with 98% accuracy, while the random forest model works with 99% accuracy. In addition, the precision value obtained in the random forest model is higher than that in the logistic regression model. The precision metric shows how many of the values that are estimated as positive are actually positive. For these reasons, it is decided that the model to be used should be random forest. In this way, the detection rate of customers with a target definition of 1 for the business card product will be higher, which will increase the bank's customer portfolio and profitability. It is aimed in this thesis study to eliminate these deficiencies and errors in existing exercises to establish a more beneficial and efficient model for banks. In addition, it is recommended that banks expand their perspectives on which data they will use while establishing the relevant model. At the end of this process, financial institutions will be able to establish healthier models by integrating and using more accurate and consistent market data into their databases, if necessary. This research will provide a successful trend model with meaningful explanatory variables for business card-like products for future works.
-
ÖgeBütünleşik ürün karması planlaması için yeni bir optimizasyon yaklaşımı ve perakende sektöründe uygulaması(Lisansüstü Eğitim Enstitüsü, 2024-05-29) Konur, Muhammed Can ; Durmuşoğlu, Bülent M. ; 507162109 ; Endüstri MühendisliğiBu çalışmada, perakende sektöründe ürün karması optimizasyonuna odaklanılarak, çok ürünlü ve çoklu mağaza zincirlerinde satış performansını ve net karı arttırmak amacıyla yeni bir modelleme yaklaşımı geliştirilmiştir. Nitelik bazlı ürün taleplerini ve ürünler arası ikame olasılıklarını tahmin etmek için maksimum olabilirlik tahminleme yöntemi kullanılmıştır. Bununla birlikte tamamlayıcı ürünlerin talebe etkisi için de bir model önerilmiştir. Bu model, "s-tamamlayıcılık" metodolojisi kullanarak ürünleri tek ve çift yönlü tamamlayıcı olarak sınıflandırmakta ve talebe etkilerini tahmin etmek için sezgisel bir yaklaşım sunmaktadır. Ürün karması optimizasyonunda talebin tahmin edilmesinde tamamlayıcılık etkisini göz önünde bulunduran bu yaklaşım, perakendecilere, ürünler arası ilişkileri daha etkin bir şekilde yönetmelerini sağlayarak, müşteri taleplerini daha doğru bir şekilde karşılamalarına olanak tanımaktadır. Çalışma kapsamında, perakendecilerin karşılaştığı ticari ve operasyonel kısıtlamalar da dikkate alınmış, müşteri tercihlerinin dinamik doğası ve pazar koşulları göz önünde bulundurulmuştur. Matematiksel model, ödeme koşulları, satın alma türleri, elde bulundurma maliyetleri, tedarik ve raf alanı kısıtları gibi faktörleri içerecek şekilde tasarlanmıştır. Bütünsel yaklaşım ile gerçek hayatta daha uygulanabilir bir matematiksel model oluşturulmuştur. Modelin çözümü için karışık tam sayılı doğrusal programlama yöntemi kullanılmıştır. Geliştirilen model, Türkiye'nin önde gelen bir ev geliştirme perakendecisinin el aletleri ve aksesuarları kategorisinde uygulanmıştır. Optimize edilmiş ürün karması modeli ile satış gelirleri %9,1 ve net kar %4,9 oranında artmıştır. Aynı zamanda, mağaza-ürün ikililerinin sayısı %11,5 azaltılarak, ürün yönetimindeki karmaşıklıkta da önemli bir iyileştirme imkânı sunulmuştur. Uygulama sonuçlarında, tamamlayıcı etkisi ve maksimum ürün karması çeşidi sayısı için duyarlılık analizi yapılmıştır. Tamamlayıcı ürünlerin talep etkisinin modele dahil edilmesi, gelir ve net karda önemli bir artışa neden olmuştur. Bu durum, tamamlayıcı ürünler birlikte sergilendiğinde, her iki ürünün talebini olumlu yönde etkilediği için ortaya çıkmıştır. Bununla birlikte ürün karmasının, gruplandırılmış mağazalar için uygulanması her bir mağazada ürün karmasının ayrıştırılmasına göre daha etkin bir sonuç ortaya koymuştur. Modelin uygulanabilirliği, çözümün kalitesi üzerinde hesaplama zamanı açısından da değerlendirilmiştir. Model, kısıtlı sayıda ürün içeren alt kategoriler için 300 saniyede, fazla ürün içeren kategorilerde ise 1800 saniyeden az bir sürede en iyi çözüme çok yakın sonuçlar üretebilmiştir. Elde edilen bulgular, perakende sektöründe ürün karması optimizasyonu modellerinin, müşteri tercihlerini karşılayan ve aynı zamanda maliyet-etkin bir ürün karması sunan stratejik araçlar olarak önemli potansiyel taşıdığını ortaya koymaktadır.
-
ÖgeComprehensive risk mapping and fire station optimization for forest fire management: An application in Antalya(Graduate School, 2024-10-30) Yavuz Özcan, Zühal ; Kabak, Özgür ; Çağlayan, İnci ; 507182116 ; Industrial EngineeringForest fires are a significant environmental hazard, exacerbated by climate change, prolonged droughts, and increasing human activity in forested regions. These fires not only threaten biodiversity and ecosystems but also pose severe risks to human life, infrastructure, and natural resources. Efficient forest fire risk (FFR) mapping and strategic fire station placement are critical to mitigating these risks and ensuring rapid response in high-risk areas. However, traditional methods of fire risk assessment and resource allocation often fail to capture the complexity of large-scale forested regions, where environmental variables and fire occurrence probabilities vary widely. This thesis addresses these challenges by developing an integrated framework that combines advanced multi-criteria decision-making techniques and optimization models to enhance forest fire management. The thesis focuses on the Antalya region, offering both theoretical insights and practical applications to improve fire risk mapping and fire station deployment strategies in similarly vulnerable areas. This thesis presents a comprehensive framework for FFR mapping and fire station placement optimization, focusing on large, forested regions. By integrating multi-criteria decision-making techniques with advanced optimization models, the thesis addresses critical challenges in fire management, providing both theoretical advancements and practical applications in resource allocation. The thesis is structured into three main parts: a detailed literature review and taxonomy of FFR assessment methodologies, the selection and application of the Analytic Hierarchy Process (AHP) and Ordered Weighted Averaging (OWA) methods for the Antalya region, and the development and implementation of optimization models for fire station placement using Set Covering Model (SCM) and Maximal Covering Model (MCM). The first phase of this study involves a comprehensive literature review of existing FFR assessment methodologies. The review examines FFR mapping studies published between 2020 and 2022 and follows a systematic analysis process. As a result of this process, 170 studies are classified into 8 main categories and 23 subcategories. This detailed classification reveals both the application areas and methodological approaches of existing studies. Through this review, it becomes clear which methods are more commonly used in the literature such as AHP, and where significant gaps exist like optimization methods in FFR mapping. Techniques frequently used in FFR assessment studies include the AHP, which is chosen for this study due to its widespread use in risk mapping. Additionally, the less commonly used OWA method is included to provide a comparative analysis. These two methods are selected as the primary tools for developing FFR maps in this thesis. The review also identifies key factors, such as wind speed, temperature, and vegetation density, which are incorporated into the risk maps for the Antalya region. These factors are selected based on their relevance to both the literature and the local environmental conditions, ensuring that the risk maps accurately reflect the specific characteristics of the study area. In the second phase, the thesis develops detailed FFR maps for the Antalya region using both AHP and OWA. The region is divided into five distinct risk categories, and the accuracy of these maps is validated using Receiver Operating Characteristic (ROC) curves and the Area Under the Curve (AUC) metric. AHP highlights clear high-risk zones, particularly in coastal and central areas, while OWA distributes the risk more conservatively, identifying moderate risk across a broader area. These findings provide valuable insights into the strengths and limitations of each method for FFR assessment. Based on the validation results, the OWA-generated risk values are selected for the fire station placement optimization phase, as they provide a more balanced risk distribution for long-term planning. The third phase of the thesis focuses on fire station placement optimization. A literature review reveals that most existing optimization models focus on urban areas, leaving a significant gap in the literature for forested regions. To address this, SCM and MCM are selected for their effectiveness in facility location problems and their widespread use in fire station placement optimization. However, since these models are deterministic, they cannot fully capture the uncertainties inherent in forest fire occurrences. To overcome this, stochastic models are developed, incorporating scenario-based approaches to account for the variability and unpredictability of fire events in large-scale regions. A key finding of this thesis is that the MCM achieves similar coverage to the SCM, but with fewer fire stations. This result demonstrates that MCM is more efficient, requiring fewer resources without compromising coverage. Therefore, we recommend MCM for fire station placement in large forested areas where resource constraints are critical. Additionally, an algorithm is developed to identify expected fire locations using inverse transform sampling, focusing on high-risk areas identified by the risk maps. This approach reduces computational complexity by limiting the evaluation to high-risk zones, rather than analyzing every pixel in the study area. A clustering algorithm is then introduced to group expected fire locations, minimizing distances between them on two-dimensional risk maps. This step ensures that fire scenarios are both realistic and manageable, a key challenge in large-scale forested regions. To validate the effectiveness of the stochastic models, they are compared with deterministic solutions using expected fire locations. The Value of Stochastic Solution (VSS) is calculated to further validate the robustness of the models. Additionally, two approaches are used to determine the optimal number of scenarios: first, by evaluating the coverage results of the stochastic models, and second, by using the SCM to ensure that the scenario count is sufficient to achieve robust solutions. In the final phase, the optimization models are applied to the Antalya region using a 1 km by 1 km pixel resolution. The application of these models demonstrates that MCM efficiently achieves desired coverage with fewer fire stations compared to SCM, reinforcing the model's utility in large-scale planning. The stochastic models, in particular, show a high level of adaptability to the unpredictable nature of forest fires, highlighting their value in real-world fire management scenarios. These results underscore the importance of scenario-based planning for enhancing the robustness of fire station placement strategies, especially in regions with significant uncertainties related to fire occurrences. To further enhance the practical application of the optimization models, a Decision Support System (DSS) is developed. The DSS allows fire management agencies to simulate different fire station placements based on varying risk levels and fire scenarios. This tool provides strategic planning capabilities, enabling decision-makers to optimize resource deployment and improve response times in forested areas prone to wildfires. The DSS can also be adapted to other regions, demonstrating the scalability and flexibility of the proposed framework. The contributions of this thesis are multifaceted. First, it offers a comprehensive literature review that identifies key gaps in FFR assessment and fire station placement optimization, highlighting the need for more advanced methodologies. To address these gaps, the thesis introduces a robust framework that integrates both deterministic and stochastic elements, enhancing the flexibility and realism of fire station placement models in large forested areas. Scenario-based approaches are incorporated to improve traditional models like SCM and MCM, making them more applicable to the unpredictable nature of forest fires. The development of FFR maps for the Antalya region, validated through AHP and OWA, provides a strong foundation for fire management strategies. The introduction of clustering and scenario-generation algorithms further enhances the practicality and efficiency of fire station placement. Additionally, the DSS developed in this study offers actionable insights for policymakers, enabling more adaptive and effective strategies for fire prevention and response. This framework is particularly valuable for fire-prone regions like Turkey, where the Mediterranean climate, extensive forests, and limited resources pose significant challenges. The methodology developed, especially MCM, optimizes resource allocation under these constraints, making it suitable for countries with similar environmental and budgetary conditions. The user-friendly DSS allows fire management agencies to implement these strategies more efficiently, improving response times and resource deployment. Moreover, the scalability of this approach makes it applicable not only to Turkey but also to other Mediterranean regions and beyond, contributing to global fire management efforts. In summary, the thesis applies AHP and OWA for risk mapping, with OWA selected for its conservative risk distribution after validation. Optimization models like SCM and MCM are developed for fire station placement, with a stochastic approach supported by an algorithm for expected fire locations and clustering. Ultimately, MCM is recommended for the Antalya region due to its superior performance with fewer fire stations, demonstrating both resource efficiency and scalability.
-
ÖgeConceptualisation and instrument development for mobile application usability based on android operating system(Lisansüstü Eğitim Enstitüsü, 2021) Kazdaloğlu, Abdullah Emin ; Gümüşsoy Altın, Çiğdem ; 682769 ; Endüstri MühendisliğiNotions such as mobile internet and mobile applications ceased to be a nascent concept when basic cell phones, which became prevalent in the society in the late 1990s, left their dominations to smartphones in the early 2010s. The technological infrastructure, which has made substantial progress in the framework of mobile concept, the organisational models of the companies and the penetration rate of the mobile internet among users exceeding the usage rate of desktop internet, has significantly speeded up the use of smartphones and mobile applications that may be used anywhere and anytime. Large-scale usage of mobile applications is based on companies developing mobile applications and directing their services to the context of mobile applications to remain firm in the competitive market. In this perspective, the Google Play Store and Apple App Store platforms, where mobile applications are delivered to users by Android and iOS operating systems respectively, stand out as an important figure with millions of different applications. The large number of mobile applications has given users the opportunity to turn to lots of different options. Hence, it has become requisite for companies to gain advantage in a strong competitive environment by better marketing their products and services in the digital environment in order to continue their viability. One of the essential points of ensuring adoption, preferability, and continuity in such a rapidly growing mobile application universe is that mobile applications can be used in a way that makes user experience better. Yet, when the literature was scrutinised well, it was noticed that mostly desktop computer or website usability models were adapted to the mobile device and application context or mobile application usability was tried to be evaluated with very usual criteria such as satisfaction, learnability, memorability, effectiveness, and effectiveness. It is crystal clear that the usability concept, which plays a more vital role in mobile technology, should not be addressed with the evaluation methods of desktop computers and these methods should not be directly adapted to the mobile device or mobile application concept. Therefore, mobile devices and particularly mobile applications with which users interact directly should have their own usability evaluation criteria. However, the lack of such a usability model for the Android operating system, which is one of the two largest operating systems and is currently preferred by roughly 4 out of every 5 smartphone user, is a major gap realised in the literature. Hereby, a comprehensive and conceptualised usability model for mobile applications running on the Android operating system should be established. In the literature part of this research, mobile technologies, mobile shopping applications that will be the subject of the analysis phase of the study, and the concept of usability are explained meticulously. A conceptual model for mobile application usability running on the Android operating system was established and verified with a survey instrument. Specifically, the guide for interface design of Android-based mobile applications, published by Google, was thoroughly analysed and adapted to the conceptual model. Then, in the light of this reviewed guide, 13 constructs illustrating the usability of mobile applications running on the Android operating system were originated. Open and axial coding was done following the methodology. The matrix was designed by listing these codes, and used in the next stage of this study. In the second phase of the methodology of this thesis, firstly items representing each construct within the context of the matrix were created and collected in the item pool. These items were first evaluated by experts and then by the end user, and items that were confusing, ambiguous and meaningless were removed from the pool or modified. In order to develop the scale, face validity check (pre-test), pilot test (n = 30) and content validity check (n = 41) were carried out, respectively. By virtue of these checks, a qualitative and quantitative (using PSA and CSV indices) evaluation of the scale was made. The study was strengthened by gathering feedback about the scale from those who voluntarily participated in these survey studies, and the corrections were made in the item pool thanks to the feedback received. The survey method was used in the analysis stage of this study. People using mobile shopping applications were selected as a target sample. In the analysis part, items in the item pool were adapted to the mobile shopping application concept. Several grounds for the analysis based on mobile shopping applications: increasing mobile shopping volume and popularity because of the Covid-19 pandemic, the reason some of the most downloaded applications in Google Play Store and Apple App Store in Turkey are shopping applications, large investments in the retail sector, policies of companies that direct their customers to mobile shopping and convenience and comfort factors with respect to customers. For exploratory and confirmatory factor analyses, two large samples (n1 = 293 and n2 = 340) were picked and factor, convergent and discriminant validation was fulfilled using IBM SPSS Statistics 26 and IBM SPSS AMOS 26 software. In addition, Cronbach's alpha values of the factors were calculated in both analysis stages and reliability was also measured. During the confirmatory factor analysis phase, nomological validation was made. For nomological validation, 13 constructs were taken into account as independent variables and examined how they affect the variables of brand loyalty, continued intention to use and satisfaction, which are frequently associated with usability in the literature. According to the analysis results, it was proved that the usability model created for Android-based applications has a significant effect on satisfaction, continued intention to use and brand loyalty and predicts these variables decently. Moreover, in the evaluation phase of both factor analysis, the fact that the loadings of the items included in the factors were above the required threshold approved this thesis. As a result, this study is very significant for practitioners working in the field of mobile applications. It will be a guide for mobile application developers and companies working in this sector. The created mobile application usability conceptualisation will allow the use of the practitioners to develop new mobile applications or to enhance an existing application. Therefore, in the last part of the study, the implications of the study and its theoretical contributions for practitioners are mentioned, besides.
-
ÖgeCrew recovery optimization through disruption analysis and deep learning driven column generation(Graduate School, 2024-02-06) Herekoğlu, Ahmet ; Kabak, Özgür ; 507132108 ; Industrial EngineeringThanks to globalization, new travel opportunities and economic development have increased the interest in the aviation industry and air transport. The increase in the number of passengers and compliance with the regulations on passenger rights make transformation inevitable for the aviation industry and airlines. Airlines are reorganizing and managing all their resources in line with this transformation. The most critical resources of commercial airlines are the crew and aircraft, which together with passengers are key components of operational efficiency. Unforeseen events such as bad weather conditions, aircraft malfunctions and crew absence may result in inefficiency in operations and thus in the utilization of aforementioned resources. These events are called disruptions. As disruptions such as delays are the primary and fundamental factor in passenger satisfaction and the airline's financial conditions, aviation companies devote valuable resources to analyzing disruptions and taking necessary actions. Actions known as recovery actions are the ones decided by the airline operations control center to overcome problems in the execution of plans due to disruptions. The crew recovery problem is a complex optimization problem in the airline industry that involves scheduling and assigning crews to flights while taking into account various constraints such as legal regulations, crew availability, and cost. Several methods have been proposed to solve this problem, including heuristic and metaheuristic algorithms, integer programming, and constraint programming. It is a type of optimization problem that aims to choose the best recovery strategies to overcome crew disruptions. The main goal is to find the minimum cost combination of assignments that solve the problems related with crew plans while considering all constraints, especially flight time limitations. One popular method for solving the crew recovery problem is the column generation algorithm, which involves generating and adding columns to the problem's LP relaxation until an optimal solution is obtained. Other optimization methods include simulated annealing, genetic algorithms, and ant colony optimization. However, despite the various optimization methods proposed, the crew recovery problem remains a challenging and computationally expensive task due to the large number of variables and constraints involved. Furthermore, real-world crew recovery problems are dynamic and uncertain, requiring the ability to adapt quickly to unexpected events. This is where machine learning (ML) can play a crucial role in developing an optimization method with AI support. By leveraging machine learning algorithms, we can learn from past data and experiences to make informed decisions and generate optimized solutions quickly and efficiently. Recovery strategies can be realized by using actions known as recovery actions. Especially during the preparation of recovery models, more effective strategies are produced by using the actions learned from the past disruptions as inputs in the model. The main motivation behind using actions as input is that learning-based approaches have the potential to generate more effective algorithms for large-scale and difficult optimization problems by inferring insights from historic datasets. Especially with the learning process, important points that people may miss in the solution process become easily noticeable and increase the success of the recovery process. In this study, recovery actions provided by a customized deep learning (DL) model are used as input to the proposed optimization model, in which the objective function minimizes the total assignment cost of crew. Crew disruption data including some of the flight disruptions from a large scale airline is analyzed. Based on the analysis of the data, features are generated and recovery actions are extracted. The recovery actions are used as label and supervised learning methodology is used to train a customized deep learning model. Our hypothesis is based on the assumption that deep learning can provide needed insights in order to solve the problem in a shorter time while preserving the optimality at a certain level. The fundamental insight that we derive from the deep learning model is the recovery actions, which will be used while generating new columns. The actions are used in order to configure the columns faster than the classical column generation by either directly modifying the column itself or narrowing down the solution space. The resource or resource groups including crew and aircrafts are filtered according to the information provided by the deep learning. This makes it possible to search for new columns in a narrower solution space, which makes the search time shorter compared to the classical column generation techniques. The primary goal of the study was to develop a model that balances solution quality and speed. Results indicate that the proposed method outperforms the reference model in terms of runtime while maintaining an acceptable level of optimality. This approach can be valuable for airline companies looking to efficiently address crew recovery challenges. Moreover, it contributes to the existing literature by introducing a new mathematical model and approximation method, demonstrating the potential of deep learning and optimization techniques for addressing complex aviation sector optimization problems and offering valuable insights for future research in the field of crew recovery.
-
ÖgeÇevik yazılım geliştirme projelerinde kritik başarı faktörlerinin modellenmesi: Çevik projelerin Türkiye'deki uygulamaları(Lisansüstü Eğitim Enstitüsü, 2024-06-04) Binboğa, Burcu ; Gümüşsoy Altın, Çiğdem ; 507152102 ; Endüstri MühendisliğiSon yıllarda hızla gelişen teknoloji ile değişen müşteri ihtiyaçlarına kaliteden ödün vermeden hızlı bir şekilde cevap vermek çok önemlidir. Günümüzde, piyasada her ihtiyaç duyulan ürünün muadili bulunmaktadır. Ürünleri, muadillerinden farklılaştıran bir çok özellik örneğin müşteri odaklılık, ihtiyaçlara hızlı cevap verebilme, kalite ve güvenilirlik gibi kavramlar sadece müşteri memnuniyetini artırmakla kalmaz aynı zamanda tüm paydaşların memnuniyetini artıracaktır. Yazılım geliştirmede kullanılan proje yönetimi metodolojileri de teknolojik gelişmelerle değişeme uğramaktadır. Önceki yıllarda daha çok şelale yöntemleri diye adlandırdığımız klasik yazılım geliştirme metodolojileri kullanılırken günümüzde çevik yazılım proje yönetimi yaklaşımları tercih edilmektedir. Çevik proje yazılımı, hızla değişen gereksinimlere uyum sağlayabilmek için esnek ve dinamik bir yaklaşım sunan bir proje yönetim metodolojisidir. Kısa geliştirme döngüleriyle çalışan ekipler, müşteri geri bildirimlerini doğrudan kullanarak yazılım geliştirme sürecini yönlendirir. Böylece yazılımın kalitesi, müşteri memnuniyeti ve proje verimliliği artar. Sürekli iyileştirme ve işbirliğini teşvik eden bu metodoloji, özellikle belirsizlik ve sürekli değişimle karşılaşılan sektörlerde projelerin başarılı bir şekilde yürütülmesine yardımcı olmaktadır. Bu nedenle çevik yazılım geliştirme metodolojileri son yıllarda müşteri ve iş gereksinimlerini hızlı ve etkili bir şekilde karşılamak amacıyla giderek daha popüler hale gelmektedir. Yazılım gereksinimlerindeki belirsizlikler ve değişiklikler, şirketleri yazılım geliştirme projelerinde daha çevik olmaya zorlamaktadır. Günümüzde çevik bir ortamda şirketler ilerleyebilmek için projelerine çevik yazılım geliştirme metodolojilerini entegre etmektedir. Ancak çevik metodolojinin uygulanma şekli projenin başarısını belirleyebilir. Bu tez kapsamında, çevik uygulayıcıların bakış açısından çevik projelerin başarısını etkileyen kritik başarı faktörleri ve çevik başarı ölçütlerinin belirlenmesi amaçlanmaktadır. İlk olarak Çevik Manifesto, Çevik İlkeler ve Scrum Kılavuzu'nun detaylı incelenmesiyle kapsamlı bir sistematik literatür taraması yapılarak Çevik Yazılım Proje Başarı Modeli geliştirilmiştir. İkinci olarak altı çevik proje uygulayıcısı ile bire bir görüşmeler yapılarak kritik başarı faktörleri ve çevik başarı ölçütleri güncellenmiş ve ardından model üzerinde fikir birliğine varmak için katılımcılarla grup toplantısı yapılarak nihai Çevik Yazılım Proje Modeli geliştirilmiştir. Modelde çevik başarı ölçütleri olarak süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyeti belirlenmiştir. Kritik başarı faktörleri ise müşteri faktörleri, ekip faktörleri, organizasyonel faktörler, çevik süreç faktörleri, teknik faktörler ve proje faktörleri olarak altı ana başlıkta tanımlanmıştır. Sonrasında kritik başarı ölçütleri ile çevik başarı ölçütleri arasındaki ilişki literatürden desteklenerek Çevik Yazılım Proje Modeli tanımlanmıştır. Ayrıca kritik başarı faktörlerinin ve çevik başarı ölçütlerinin alt başlıkları da tanımlanmış ve bu alt başlıkları tanımlayan soru ölçekleri geliştirilmiştir. Tasarlanan Çevik Yazılım Proje Anketi çevik proje başarısını etkileyen kritik başarı ölçütlerinin belirlenmesinde kullanılabilecektir. Geliştirilen modeli test etmek için çevik yazılım proje yönetimi deneyimi olan 596 katılımcıdan veri toplanarak proje başarısına etki eden faktörler belirlenmiştir. Veri analizi için yapısal eşitlik modeli kullanılmıştır. IBM Amos 20.0 ve IBM SPSS Statistics versiyon 28 yazılım programlarından faydalanılmıştır. İlk olarak açıklayıcı faktör analizi kullanılarak kritik başarı ölçütlerinin faktör yapısı ortaya çıkarılmış ve modelde belirlenen faktör sayısı ile aynı sayıda faktör elde edilmiştir. Daha sonraki adımda doğrulayıcı faktör analizi ile belirlenen faktörlerin teorik yapısının geçerliliği gösterilmiştir. En son adımda ise kritik başarı faktörleri ile çevik başarı ölçtüleri arasındaki ilişki yapısal eşitlik modellemesi ile test edilmiştir. Sonuçlara göre müşteri faktörleri, ekip faktörleri, çevik süreç faktörleri ve proje faktörlerinin süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyeti açısından çevik proje başarısının önemli belirleyicileridir. Kritik başarı faktörleri arasında müşteri faktörleri ve çevik süreç faktörleri diğer faktörlere kıyasla süreç verimliliği, sürdürülebilir yazılım ürün kalitesi ve paydaş memnuniyetini etkileyen güçlü belirleyicilerdir. Bu çalışma ile teorik ve pratik çıkarımlar sunulmuş ve olası gelecek çalışmalar için önerilerde bulunulmuştur. Geliştirilen Çevik Yazılım Proje Başarı Modeli, projelerin başarılı bir şekilde yürütülmesi için kritik olan faktörlerin belirlenmesinde önemli bir rol oynamaktadır. Bu model, çevik yazılım geliştirme süreçlerinin daha iyi anlaşılmasını sağlamakta ve çevik metodolojilerin uygulanmasındaki etkinliği artırmak için yol gösterici olmaktadır. Araştırmanın bulguları, özellikle müşteri ve süreç odaklı yaklaşımların çevik projelerde başarıya ulaşmada kilit olduğunu vurgulamaktadır. Bu faktörler, projelerin zamanında ve bütçe dahilinde tamamlanmasını, aynı zamanda yüksek kaliteli yazılım ürünlerinin teslim edilmesini sağlamakta büyük bir rol oynamaktadır. Ayrıca çevik metodolojilerin daha etkili bir şekilde uygulanabilmesi için çevik uygulayıcılar ve proje yöneticileri için somut adımlar önermektedir. Bunun yanı sıra tasarlanan Çevik Yazılım Proje Anketi, gelecek çalışmalarda çevik proje yönetimi uygulayan farklı sektörlere de uygulanarak sektöre özel kritik başarı faktörleri belirlenmesine yardımcı olacaktır.
-
ÖgeÇok amaçlı kaynak kısıtlı çoklu proje çizelgeleme problemi ve bir traktör firmasında uygulama(Lisansüstü Eğitim Enstitüsü, 2024-07-02) Biçer Dinçkurt, Cemre Nur ; Kabak, Özgür ; 507211106 ; Endüstri MühendisliğiProje yönetiminde, projelerin zamanında ve önceden belirlenen bütçe dahilinde tamamlanması büyük önem taşımaktadır. Proje çizelgeleme sürecini karmaşıklaştıran nokta, genellikle sınırlı kaynaklarla birlikte birden fazla projenin aynı anda yürütülmesidir. Gerçek hayat proje çizelgeleme süreçlerinde; projeleri en kısa sürede, gecikme olmadan ve bütçeyi aşmadan kaynakları en verimli şekilde kullanarak tamamlamak gibi birden fazla amaç aynı anda gerçekleştirilmek istendiğinden durum daha da karmaşık bir hale gelmektedir. Bu tür problemler Kaynak Kısıtlı Proje Çizelgeleme Problemi (KKPÇP) çatısı altında toplanmıştır. Bu yüksek lisans tez çalışması, birden fazla amacı aynı anda gerçekleştirmeyi ve birden fazla projenin çizelgelenmesini amaçlayan Çok Amaçlı Kaynak Kısıtlı Çoklu Proje Çizelgeleme Problemi üzerine odaklanmaktadır. Bu tür problemler, genellikle birbiriyle çelişen hedeflere sahip olurlar; proje süresinin minimize edilmesi, maliyetlerin düşürülmesi veya kaynak kullanımının dengelenmesi gibi çeşitli amaçlar örnek olarak gösterilebilir. Çok amaçlı KKPÇP çözümü için çeşitli matematiksel modelleme ve optimizasyon teknikleri kullanılmaktadır. Bu çalışmada, belirli bir zaman dilimi içinde tamamlanması gereken birden fazla projenin, sınırlı kaynaklar göz önünde bulundurularak en iyi şekilde planlanması ve çizelgelenmesi amaçlanmıştır. Ağırlıklı hedef programlama, farklı hedeflerin önem derecelerine göre ağırlıklandırıldığı ve bu hedeflerin aynı anda optimize edilmeye çalışıldığı bir teknik olarak kullanılmaktadır. Bu çalışmada, problemin çözümü için önerilen matematiksel model, OPL dilinde kodlanmış ve ağırlıklı hedef programlama yöntemi kullanılarak ve IBM ILOG CPLEX çözücüsünden faydalanılarak çözülmüştür. CPLEX, özellikle doğrusal programlama problemlerinin ve karmaşık matematiksel modellerin çözümünde etkili bir araç olarak kullanılmaktadır. Matematiksel modelin amaç fonksiyonunda bulunan ağırlıklar duyarlılık analizi yapılarak ve son karar verici tarafından şirketlerin hedefleri doğrultusunda belirlenmiştir. Modelin doğruluğunu ve etkinliğini test etmek amacıyla başta daha küçük bir örnek üzerinde çalışma yapılmıştır. Bu tez çalışmasında, bir traktör firmasının geliştirdiği traktör projelerinin AR-GE test süreçlerinin çizelgelemesi üzerine çalışılmıştır. Odaklanılan amaçlar; belirli kaynak sayısı ve testlerin öncüllük ilişkileri dikkate alınarak, projelerin toplam gecikme sürelerinin ve toplam fazla mesainin minimize edilmesidir. Her bir projenin birbirinden farklı sayıda ve tipte validasyon test ihtiyacı olduğu, 6 farklı kaynağı kullanan 25 projenin çizelgelenmesi için ağırlıklı hedef programlama matematiksel modeli geliştirilmiştir. Dikkate alınan AR-GE validasyon test süreci kaynak tipleri: Motor & HVAC, Hidrolik & Güç Aktarma Organları, NVH & Araç Doğrulama, Atölye, Saha Testi & Güvenilirlik, Elektrik & Elektronik test mühendislerinden oluşmaktadır. Her proje için, uygulanacak validasyon testlerinin öncüllük-ardıllık ilişkisi, testlerin gerçekleştirileceği süreler ve projelerin tamamlanması gereken gün sayısı gibi parametreler model içerisinde tanımlanmıştır. Yapılan bu çalışma sonucunda; gerçekte toplam 45 gün gecikerek ve toplam 126 adam*gün fazla mesai yapılarak tamamlanan projeler, hiç gecikme yaşanmadan toplam 110 adam*gün fazla mesai yapılarak tamamlanmıştır. Ayrıca kaynak kapasitesinin yeterliliği ile ilgili çeşitli senaryolar denenmiş ve analiz sonuçları paylaşılmıştır.
-
ÖgeDairesel sezgisel bulanık CODAS (D-SB CODAS) yöntemi ile yeşil lojistik merkezi yeri seçimi: İstanbul ili örneği(Lisansüstü Eğitim Enstitüsü, 2023-12-15) Kamber, Eren ; Baskak, Murat ; 507182121 ; Endüstri MühendisliğiLojistik faaliyetlerinin önemi günümüzde çevresel etmenler doğrultusunda giderek artmaktadır. Hammadde tedâriğinden başlayarak nihaî ürünün müşteriye teslim edilmesine kadar olan süreçlerde, malların, insanların, bilgilerin ve diğer kaynakların taşınması, lojistik faaliyetleri olarak tanıtılmaktadır. Lojistik faaliyetleri arasında depolama yönetimi, stok yönetimi, nakliye ve bilgi işleme ile tedârikçiden son tüketiciye dağıtım yer almaktadır. Tanımından da anlaşıldığı üzere, tedârik zinciri yönetiminin her bir adımında yer alan ve önemli roller üstlenen lojistik faaliyetleri, teknolojik ve toplumsal gelişmelerin paralelinde tüm dünya ülkeleri için büyük sorun oluşturan çevre kirliliği sorunlarından etkilenmektedir. Çevresel sorunları dikkate alan çevreci lojistik faaliyetler, yeşil lojistik olarak adlandırılmaktadır. Yeşil lojistik kısaca ürünlerin, insanların ve bilgilerin taşınması faaliyetleri sırasında çevre kirliliği konusunda duyarlı, doğal kaynakları koruyan, karbon emisyon oranlarını en aza indirgemeyi hedefleyen süreçler olarak tanıtılmaktadır. 1970'li yıllardan itibaren yeşil kavramı literatürde ve çeşitli çevre konularını içeren dünya çapında yapılmış konferanslarda, önem arz ederek yer almaktadır. Yeşil lojistik kavramı ise 1990'lı yıllardan itibaren literatürde yer almış bir kavramdır. Çevre kirliliğine dikkat çeken, dünya çapında gerçekleştirilen, 1997 yılı Kyoto Protokolü ve ardından Kopenhag Protokolü, 2015 yılında imzalanan Paris İklim Anlaşması vb. toplantı ve sözleşmelerle yeşil lojistiğin önemi vurgulanmıştır. Çevre raporları incelendiğinde, taşımacılık faaliyetli karbon emisyon oranlarının çevre kirliliği etmenleri arasında oldukça etkili olması, yeşil lojistik kavramını ön plâna çıkaran gelişmelerin özetidir. Çevre kirliliğini önlemek, bu hususta çeşitli önlemler almak adına, son olarak Avrupa Birliği (AB) ülkeleri 2019 yılında Yeşil Mutabakat'ı imzalamıştır. Yeşil Mutabakatın hedefi, özet olarak 2030 yılına kadar sera gazını, 1990 düzeylerine göre en az %50, olanaklı ise %55 azaltmak, 2050 yılında ise sıfırlamaktır. Bu doğrultuda, lojistik, inşaat, enerji, üretim ve birçok sektörde köklü değişiklikler yapılması plânlanmaktadır. Yeşil Mutabakat ile gerçekleştirilmesi plânlanan sektörel değişimler düşünüldüğünde, çalışma kapsamında lojistik sektörünü kapsayan değişimler önem arz etmektedir. Belirlenen hedeflere ulaşabilmek için, Yeşil Mutabakat ana eylem plânında 8 ana başlık oluşturulmuştur. Lojistik konusu bağlamında önemli olan başlık ise, sürdürülebilir ve akıllı hareketliliğe geçişi hızlandırmak ana başlığıdır. AB'de sera gazı salınım oranlarının yaklaşık %25'ine neden olan taşımacılık faaliyetleri bu kapsam altındadır. İlgili başlıkta hedeflenen, taşımacılıkta, çevreci teknolojilere geçişin sağlanması ve çok modlu taşımacılık uygulamalarına geçişlerin teşvik edilmesidir. Lojistik sektörü bağlamında düşünüldüğünde, Yeşil Mutabakatın Türkiye lojistik sektörüne etkileri büyük olacaktır. Çünkü, Yeşil Mutabakat ile Avrupa Birliği ülkeleri salt kendileri için belirli hedefler koymamıştır. Aynı zamanda, Türkiye'nin de içinde olduğu Avrupa Birliği ile ekonomik ve sosyal ilişki içinde bulunan paydaş ülkelerin de belirli yeşil hedeflere ulaşması beklenmektedir. Türkiye bu durumda büyük hacimli ticarî ilişkiler içerisinde bulunduğu AB ülkelerinde yaşanan yeşil dönüşüme kayıtsız kalamayacaktır. Bu bağlamda, tez çalışması kapsamında Türkiye lojistik sektörünün Yeşil Mutabakata uyum sırasında gerçekleştireceği dönüşüm düşünülerek çalışma konusu olgunlaştırılmıştır. Sıfır karbon salınımı için taşımacılık araçlarında revizyon, çok modlu taşımacılık gibi uygulamalar Yeşil Mutabakatın sürdürülebilirlik ve akıllı ulaşım maddesi kapsamında önem arzetmektedir. Yeşil Mutabakat kapsamında taşımacılık sektöründe yaşanacak dönüşüm, çevreci teknolojilere sahip araçların trafikte sıklıkla kullanılmasını sağlayacaktır. Bu bağlamda, Türkiye sınırları içerisinde henüz kurulmamış, Yeşil Mutabakat ve yeşil lojistik ile uyumlu yeşil lojistik merkezlerin plânlanması çalışma kapsamında hedeflenmektedir. Böylelikle, lojistik sektöründe yaşanacak hızlı bir yeşil dönüşüm hareketi içinde yeşil lojistik merkezlerin yer alması önem arzedecektir. Tez kapsamında, yeşil lojistik merkezlerin altyapı ve kapsam olarak plânlanması, konumlarının belirlenmesi öncelikli hedefler olarak oluşturulmuştur. Çalışmada, yeşil lojistik merkezi (park) yer seçimi problemine odaklanılarak problemin çözüm aşamalarında Çok Ölçütlü Karar Verme (ÇÖKV) melez (hibrit) yöntemleri kullanılmıştır. Problemin uygulama kısmında, tez kapsamında geliştirilen dairesel sezgisel bulanık CODAS (D-SB CODAS) yöntemi yeşil lojistik merkezi yer seçimi probleminde kullanılmıştır. D-SB CODAS yönteminin, yeşil lojistik merkezi yer seçimi probleminde uygulanması kararı sonrasında, yöntemin çözüm aşamalarında kullanmak üzere ölçütler, seçenekler ve karar vericiler belirlenmiştir. Bu kapsamda, yeşil lojistik merkezi yer seçimi problemi İstanbul ile sınırlandırılmıştır. Çalışmanın Bunun birçok nedeni bulunmaktadır. Pazara yakınlık, çok modlu taşımacılığa yakınlık, tedârikçilere yakınlık, ekonomik potansiyel vb. etmenler gözönünde bulundurulduğunda, AB Yeşil Mutabakatına uyum sürecinde İstanbul ili özelinde bir çalışma hazırlamanın, lojistik sektörü için önemli olduğu görülmektedir. Uygulama aşamasında, yeşil lojistik merkezi yer seçimi problemi tez kapsamında sunulan D-SB CODAS yöntemi ile çözülerek, yeşil lojistik merkezi için uygun seçenek belirlenmiştir. Sonrasında, karşılaştırmalı analizler gerçekleştirmek adına aynı problem sezgisel bulanık TOPSIS (SB TOPSIS) ve sezgisel bulanık CODAS (SB CODAS) yöntemleri ile yeniden çözülmüştür. Böylelikle, tez kapsamında geliştirilmiş olan D-SB CODAS yönteminin tutarlılığı ve geçerliliği, karşılaştırmalı analizler ile gösterilmeye çalışılmıştır. Bulanık karar verme modeli D-SB CODAS yöntemi kullanılarak çözüldüğünde, karar vericilerin tercihlerine göre yeşil lojistik merkezi için İstanbul ili sınırları içerisinde en uygun ilçenin Tuzla olduğu söylenebilmektedir. Tuzla ilçesi en iyi seçenek olarak seçilirken, diğer seçeneklerin, uygulama sonuçlarına göre, Arnavutköy, Çatalca, Beykoz ve Eyüp ilçeleri şeklinde sıralandığı görülmektedir. Son olarak, çalışma kapsamında elde edilen sonuçlar lojistik sektörü kapsamında değerlendirilmiştir. Değerlendirme aşamasında, Yeşil Mutabakat ile uyum süreci ve yeşil lojistik merkezi kapsamına değinilmiştir. Yeşil lojistik merkezi yer seçimi çalışması sonrasında, kurulması plânlanan yeşil lojistik merkez için bir kapsam önerilmiştir.
-
ÖgeData driven optimization and applications in complex real-life problems(Graduate School, 2024-06-12) Güleç, Nurullah ; Kabak, Özgür ; 507172125 ; Industrial EngineeringData-driven optimization (DDO) is a methodology that uses data analysis and problem modeling techniques together, whose popularity has increased rapidly in recent years and is expected to continue to increase rapidly in the next 10 years. In DDO, information is obtained from past data by using data analysis and this information is used in modeling the problem and solving the model. Thanks to this method, the assumptions made while modeling the problem are reduced and the model is closer to the problem encountered in real life. In addition, the information obtained allows the model to be restructured to get results in shorter time. The popularity of DDO has increased in recent years and therefore the number of studies in the field of DDO has increased in the literature. However, it is seen that the boundaries of DDO and the conceptual framework of this methodology have not been drawn since this is a new research field. For this reason, in this thesis, the literature in the field of DDO was first examined and a conceptual framework was presented. It is aimed that the proposed conceptual framework will guide studies in the field of DDO and contribute to determining the boundaries of DDO area in the literature. The proposed DDO methodology was applied to four different problems in this thesis study and the results were discussed. The first stage of DDO is obtaining information from data. At this stage, machine learning methods, data mining methods, fuzzy approaches and statistical methods are used. The first problem addressed in this thesis is the problem of predicting picking travel times, which is the most basic model parameter in solving operational warehouse problems. In this thesis study, the time required to pick the items in the orders received in the warehouse was predicted by using the historical picking data of a large automobile spare parts supplier warehouse. In the problem studied, the picking process is carried out by many different pickers and the picking times of each picker vary. Therefore, which picker does the picking directly affects the picking time. For this reason, first of all, pickers were grouped according to their picking characteristics using historical data, and pickers with similar picking characteristics were grouped under the same group. Fuzzy c-Means approach was used for this grouping process. Then, the data set was updated according to the cluster information obtained and picking travel times were predicted using the artificial neural networks method. Predicted picking travel times can be used as model parameters in all operational warehouse problems such as order picking problems, picker assignment problems and picker routing problems. The second problem addressed is the joint order batching, assigning and routing (JOBAR) problem, which is complementary to the first problem studied. This problem is a complex problem in which order batching, picker assigning and picker routing problems, which are three problems encountered in the order picking process in a warehouse, are addressed simultaneously. In fact, all of the lower three problems that make up the problem are NP-Hard in nature, that is, they are problem types where the solution time increases exponentially according to the problem size. Meta-heuristic methods are often used to solve such problems. In this study, the JOBAR problem is addressed in accordance with the DDO methodology. First of all, the picking travel time, which directly affects the outcome of each problem, was predicted using historical picking data with the artificial neural network method. In order to increase the accuracy of this prediction, the pickers' past picking characteristics were taken into consideration and included in the prediction process. The pickers were grouped into four groups according to their past picking performances, and this group information was used as input in the training of artificial neural networks. In the modeling phase, which is the second stage of DDO, the problem was first modeled with the mathematical modeling method and a mathematical model of the JOBAR problem was proposed, covering all three sub-problems. In the proposed mathematical model, picker group information reflecting the picking characteristics of the pickers and piking travel times obtained from artificial neural networks were used as model parameters. However, due to the complex structure of the JOBAR problem, it was not possible to obtain results from the mathematical model within the required time, and therefore a new heuristic algorithm based on the k-nearest neighbor algorithm was proposed for the JOBAR problem. The performance of the proposed heuristic algorithm is compared both with the results obtained from the mathematical model within a certain time limit and with the Clark&Wright algorithm, which is a frequently used savings algorithm in the literature. It has been observed that the proposed new heuristic algorithm is quite successful for JOBAR in terms of both performance and solution time. The third problem addressed with the DDO method in this thesis study is the scheduling crude oil operation (SCOO) problem. As in JOBAR, the SCOO problem is also a complex NP-Hard problem. Although there are different mathematical and meta/heuristic methods proposed for the SCOO problem in the literature, the number of studies dealing with a real-sized SCOO problem is very few. In this study, the SCOO problem was approached and solved with DDO methodology. First of all, by using an event-based mathematical model in the literature, the small sizes SCOO problem was solved for a limited planning period. Then, the result obtained from the mathematical model was analyzed using statistical methods and the Apriori algorithm, one of the most frequently used data mining methods in the literature. A new heuristic method has been proposed for the SCOO problem using the parameters obtained as a result of the data coming from previous stage analysis. The proposed heuristic method has been applied for different planning periods and its performance has been tested. The results obtained show that the proposed approach according to DDO methodology is successful. The last problem addressed in this thesis is the data-driven multi-criteria group decision making (MCGDM) problem. In MCGDM problems, two parameters directly affect the outcome of the decision process. These are the individual effects of the evaluations made by group members on the group decision, that is, the weights of the decision makers and the weights of the evaluation criteria. In this study, a flow is proposed in which the weights of decision makers will be obtained from historical data in accordance with the proposed DDO methodology. In the proposed approach, first of all, the performance of the group members in the past was evaluated and their weights were estimated for the current decision problem. Artificial neural networks were used in this determination process. The proposed methodology was applied on the created synthetic data set and the results were shared. In summary, in this thesis study, a new methodology has been proposed that determines the limits and flow of the DDO approach in the literature. It is aimed to use this proposed methodology in the analysis of the existing literature and to guide future DDO studies. In the continuation of the thesis, the proposed DDO methodology was applied to picking travel time prediction, joint order batching, assigning and routing, crude oil operation planning and multi-criteria group decision making problems, respectively, and the obtained results were shared. The results obtained show that successful results are obtained when the proposed DDO methodology is used as a solution approach for problems.
-
ÖgeDepo dijital olgunluk modelinin oluşturulması ve uygulanması(Lisansüstü Eğitim Enstitüsü, 2023-10-25) Coşkun Yardımcı, İlknur ; Baskak, Murat ; 507162107 ; Endüstri MühendisliğiDepolar tedârik zinciri içerisinde, malzemelerin, çeşitli amaçlarla ve farklı zamanlarda kullanılmak üzere korunmak ve stoklanmak üzere istiflendiği, saklandığı ve malzeme türüne göre tasarlanabilen, çeşitli boyut ve niteliklerde olabilen, açık veya kapalı alanlardır. Bugün depolar, ürün veya malzemeleri korumaktan çok bir akış noktası hâline dönüşmüştür. Son yıllarda yaşanan pandemi ve doğal afetler gibi nedenler ile dijitalleşme hız kazanmıştır. Günümüzde dijitalleşme yolculuğunda olan tedârik zincirlerinde, fiziksel doküman ve belgeler, yerlerini elektronik veriye bırakırken, karar verme süreçlerinde akıllı bilişsel sistemler, yazılımlar ve algoritmalar yaygın olarak kullanılmaya başlanmıştır.Dijital depolama, önde gelen çağdaş lojistik sistemleri, otomatik ve robotik teknolojilerle donatılmış dijital iletişim platformlarının bir kombinasyonudur. Dijital depoları otomatik depolardan ayıran en önemli unsur, mal veya ürünün izlenmesinin yalnızca depo içerisinde değil, tüm süreçler boyunca anlık ve gerçek zamanlı olarak yapılabilmesidir. Tüm lojistik sektöründe olduğu gibi depolama faaliyetlerinde de dijitalleşme eğilimi hızlanmış ve birçok firma, dijital depo yönetim sistemlerini kullanmaya başlamıştır. Bununla birlikte, bir depoyu tümüyle dijital olarak nitelendirebilmek için, tüm işlemlerin otomatikleştirilmiş ve manuel işlemlerin en az düzeye indirilmiş olması gerekmektedir. Bir deponun dijital olgunluğunu ölçmek, dijital teknolojilerin ve sistemlerin depo işlemlerine ve süreçlerine ne kadar iyi bütünleştirildiğini değerlendirmeyi içerir. Bu temel etmenleri değerlendirerek, depo yöneticileri dijital altyapılarını iyileştirebilecekleri alanları ve depo işlemlerini optimize edebilecekleri alanları belirleyebilirler. Bu çalışmada, dijital dönüşüm yolculuğunda olan depoların dijital olgunluğunun belirlenerek varolan durumlarının saptanması için depo dijital olgunluk modeli oluşturulmuş, sonrasında ise sahip olunan yatırım bütçesi ve kaynaklar ile dijitalleşme düzeyini en yüksek değere çıkararak en etkili yatırımı gerçekleştirmesine olanak sağlayan dijital yatırım karar modeli inşa edilmiştir. Dijital depo süreçlerini belirlemek adına öncelikli olarak geleneksel depo süreçleri incelenmiş, dijital depo süreçlerinin ve süreç içi adımların belirlenmesi için Uzman Görüşü alımı gerçekleştirilmiştir. Uzman görüşü sonrası bileşenleri ve adımları belirlenen süreçlerin dijital önemlerinin belirlenebilmesi için uzmanların AHP yöntemi ile karar vermesi sağlanmıştır. Çıkan sonuçlar ile hangi depo sürecinin dijitalleşmesinin daha önemli olduğu, dijitalleşmeye katkısının daha büyük olduğu belirlenmiştir. AHP'den elde edilen sonuçlar ile dijitallik değerlendirme ölçeği oluşturulmuş, olgunluk modeli, boyut ve düzeyleri ile tamamlanmıştır. Olgunluk modeli ile varolan durumda hangi süreçte ne durumda olduğu belirlenen depoların yatırım kararını vermelerine destek olacak bir model olan dijital yatırım karar modeli ile her bir süreç için varolan durum temel alınarak yatırım yapılması gereken süreçler saptanmış ve yatırım bütçesini kullanarak dijital skoru en yükseğe çıkaracak süreçlere yatırım yapılmasını sağlayan karar algoritması oluşturulmuş ve validasyonu gerçekleştirilmiştir.