Lisansüstü Eğitim Enstitüsü
Bu topluluk için Kalıcı Uri
Gözat
Başlık ile Lisansüstü Eğitim Enstitüsü'a göz atma
Sayfa başına sonuç
Sıralama Seçenekleri
-
Öge11.-14. yy. Kı̇lı̇kya savunma yapılarının koruma sorunları(Lisansüstü Eğitim Enstitüsü, 2022-07-01) Kök Sökmen, Derya ; Sayar Kahya, Yegan ; 502142205 ; RestorasyonKilikya, kuzeyinde Torosların güneyinde Akdeniz'in coğrafi olarak sınırlarını çizdiği, doğu-batı aksında İskenderun Körfezi ile Alanya arasında kalan, yaşam ve tarım ürünleri için uygun iklime, madencilik, ormancılık, dokumacılık gibi ekonomik getirisi yüksek faaliyetlere sahip bir bölgedir. Anadolu'yu Akdeniz'e ve Mezopotamya'ya bağlayan yollar üzerinde olan konumu stratejik önemini arttırmaktadır. Ayrıca, denize paralel olan Toroslar Anadolu platosu ile arada doğal savunma oluştur ve bu hat üzerinde az sayıdaki geçitlerden bölgeye ulaşımın sağlanması ile kontrol edilebilirliği, hakimiyeti kolay bir bölgedir. Güvenliğin ve ekonomik zenginliğin sağlanabilmesinde sunduğu imkanlar ile yerleşimler için son derece avantajlı olan bölgenin sahip olduğu bu ayırt edici özellikler tarih boyunca Kilikya'nın çok sayıda hakimiyet mücadelesine ev sahipliği yapmasına neden olmuştur. Sahip olunan topraklarda hakimiyetin devamlılığını sağlama veya hakimiyet elde etme isteği ile 'savunma ve saldırı' tarih boyunca gündemde olmuştur. Çalışmada konu alınan 11-14.yüzyıl aralığı savunma yapılarının sayısı, bölgedeki dağılımı ve mimarileri ile savunmanın bölgede son derece önemli olduğu bir dönem olarak ön plana çıkmaktadır. Nitekim, çalışma kapsamında bu döneme ait 90 yapı tespit edilmiştir. Savunmanın antik dönemlerden itibaren ihtiyaç olması, başlangıçta sivil yerleşimlerin saldırılar karşısında güçlendirilmesine, daha sonra ise savunmanın kendine has çözümleri ile sivil yapılardan ayrılan bir mimarinin ortaya çıkmasına neden olmuştur. Yüzyıllar içinde doğal veriler, stratejik noktalar, yapım süresi, mali kaynaklar gibi çeşitli değişkenler ile birlikte savunmaya olan katkılarının deneyimlenmesiyle bazı biçimsel ve yapısal özellikler yüzyıllar boyunca tüm bölgede geliştirilerek kullanılırken, bir kısmının kullanımı son derece seyrekleşmiş veya terk edilmiştir. Bu nedenle, bölgenin coğrafyası, tarihi, stratejik noktaları öncelikle tanımlanmıştır. Ayrıca, çalışma kapsamında ele alınan yapıların mimari özelliklerini geniş bir bakış açısı ile değerlendirebilmek için eski çağdan itibaren çeşitli dönemlere ait tarih katmanları tespit edilmiş savunma yapıları da incelenmiştir. 11-14.yy.'da tüm Anadolu'da olduğu gibi Kilikya'da da savaşların yoğunlaşması ve hakimiyet sağlamanın, savunma yapıları ve idari merkezlerin ele geçirilmesi ile bağlantılı olması, savunma yapılarına olan ihtiyacı arttırmıştır. Bölgenin önemli merkezlerinin (idari, üretim, ticari), haç, askeri veya ticari amaçlarla kullanılan geçitlerin, yolların, yerleşimlerin, tarım alanlarının güvenliği için mevcut yapılar güçlendirilmiş veya yenileri inşa edilmiştir. Ayrıca, birbirlerinin menzil alanı ile kesişim noktaları oluşturarak kontrol edilen sınırın genişlemesine imkân verecek şekilde konumlandırılmışlardır. Yüzyıllar içinde bölgedeki siyasi ve ekonomik gelişmelere bağlı olarak sayıları çoğalırken bir araya geldiklerinde günümüz siluetinde de takip edebildiğimiz yoğun bir savunma sistemi oluşmuştur. Bu sistemin bölge haritası çıkarıldığında, yapıların bölgedeki yerleşiminin detaylı olarak incelenmesi ile homojen bir dağılımın olmadığı, belirli yol, akarsu ve yerleşimlerde yoğunlaşıldığı, buna karşı bazı alanların savunma yapısı ile desteklenmediği görülmüştür. Yapıların bölge içindeki konumlarında olduğu gibi mimari biçimleri de stratejik bir yaklaşımın sonucunda meydana gelmiştir. Dolayısı ile bölge içinde savunulması gereken stratejik noktanın belirlenmesinin ardından yapının inşa edileceği yerleşim yerinin kararı son derece önemlidir. Çalışmada bu nedenle yapıların yerleşim alanı yerinde incelenerek, yüzey şekli ve sahip olduğu çevre elemanları gözlenmiş, buna göre akarsu, ticari yollar, yerleşim yerleri ve stratejik noktaların yapının yerleşim kararlarındaki etkisi araştırılmıştır. Savunma mimarisinin temel elemanları olan beden duvarı, burç ve girişlerin yerleşim planındaki konumu savunma stratejisi için son derce kritiktir. Yapılar peyzaj verileri (bulunduğu arazinin biçimi, akarsular, zemin yapısı vb.), finansal güç (merkezi veya feodal yönetimin katkısı), işin bitim süresi (saldırılar devam ederken hasar gören yerin acilen tamamlanması veya gelecek saldırılar için önlem olarak inşa edilmesi), dönemin askeri ve inşa tekniği, kültür etkisi gibi çok sayıda parametrenin farklı kombinasyonlarla bir araya gelmesi ile inşa edilmiştir. Bu değişkenler, yapıların birbirinden farklı olmasına neden olmakla birlikte bölgesel bir savunma stratejisinin parçaları olarak her yapı için uygulanan kararlarda ve etkili değişkenlerdeki ortaklıkların artması ile benzerliklerin de oluşmasına neden olmuşlardır. Buna yönelik tespitler için burç, beden duvarı, giriş, sivil kütleler olan sarnıç ve şapeller mimari yönden incelenmiş, böylece 11-14.yy. Kilikya savunma yapılarının mimari özellikleri tanımlanmıştır. Çalışma konusunun bölgeselden, yerleşim alanına ve yapısal elemanlara doğru farklı ölçeklerde ele alınması ile yapıların sahip olduğu koruma değerleri tanımlanabilmiştir. İşlevden kaynaklanan ortaklıklar nedeniyle savunma yapılarının sahip olduğu değerler ile çakışma gösterdiği tanımlamalar kaçınılmaz olarak mevcuttur. Ancak, çalışma konusunun farklı bölgelerdeki yapılardan tamamen veya kısmen farklılaşan değerlerinin olduğu tespit edilmiştir. Bu, koruma sorunlarının doğru tespitine imkân verirken korunması gereken değerler olarak çözüm önerilerini de yönlendirecek olması nedeniyle önemlidir. İşlevlerinin sona ermesi ile terk edilen ya da özgün işlevinde kullanılmayan yapılar bozulma sürecine girmiştir. Bu sürecin çalışmaya konu olan her yapı için aynı seyretmediği alan çalışmaları sonunda tespit edilmiştir. Sorunların nedenleri tanımlanmadan önce koruma durumları değerlendirilmiştir. Yapıların bölge içindeki konumu, yerleşim kararları ve mimari özelliklerinin mevcut durumları üzerindeki etkisi araştırılmıştır. Yapıların kentsel, kırsal, izole alanlarda yer almaları, tarım, orman veya kıyı ile ilişkileri, erişilebilirlik ve görünürlüğün ve yapısal özelliklerin yapıların bozulma durumları ile ilişkili olduğu tespit edilmiştir. Koruma sorunlarının arka planı ise bu tespitler ışığında, Kilikya savunma yapıları özelinde aynı parametreler üzerinden ele alınmıştır. Tüm kültür varlıklarında etkisinden söz edilebilecek doğal nedenler, yapıların bölge içindeki konumu, çevre verileri ve yapısal özellikleri ile ilişki kurularak değerlendirilmiştir. Alan çalışmalarında elde edilen birikimin yanında yasal ve yönetsel sorunların tespit edilebilmesi için ilgili kurumlarda tüm yapılar için arşiv araştırılması yapılmıştır. Elde edilen tüm veriler her yapı için bölgesel ve yapıların yakın çevresi ile ilişkilendirilmiştir. Böylece, farklı boyutları ile yapıların koruma durumlarının arka planı çözümlenirken, korumaya sorun teşkil eden noktalar alana özel olarak saptanmıştır. İçinde bulunduğumuz yüzyılın henüz ilk çeyreği tamamlanmamışken Türkiye'de geçmişle kıyaslandığında hiç olmadığı kadar savunma yapısı koruma çalışmasına alınmış ve alınmaya devam edilmektedir. Bu ilginin artması yüzyıllardır doğanın ve insanın tahribi karşısında 'savunmasız' kalan yapılar için olumlu bir süreç olarak değerlendirmek mümkündür. Ancak, çalışma kapsamında, onarım gören yapıların onarım sonrası durumları ve koruma çalışmalarındaki süreç incelendiğinde, her yapı bağlamsal olarak ilişkide olduğu çevresinden ve sistemin geri kalan yapılarından bağımsız olarak ele alınmıştır. Nitekim, çalışmada tanımlanan Kilikya savunma yapılarının koruma değerlerinin tanımlanmamış olduğu görülmektedir. Bu değerlerin korunması için önerilecek koruma çalışmalarının, eksik veya yanlış koruma yaklaşımları ile tespit, tescil, belgeleme, planlama, projelendirme ve uygulama süreçlerinde belirlenen sorunların gölgesinde ilerlemesi Kilikya savunma sisteminin özgünlüğü ve bütünlüğü için önemli bir risk oluşturmaktadır. Her yapının günümüze ulaşan bu bütünlüğün parçası olması ve birinin kaybının bu bütünselliği olumsuz yönde etkileyeceği nedeniyle sorunların çözümü önem ve aciliyet içermektedir. Çalışmada bu bakış açısı ile, sistemi oluşturan her yapının ve dolayısı ile sistemin korunabilmesi için önerilerde bulunulmuştur. Merkezi yönetimin koruma yaklaşımından uygulamaya giden koruma sürecinin bütün adımları için savunma yapılarına yönelik öneriler sunulmuştur. Ayırt edici özellik olarak tanımlayabileceğimiz yüzyıllardır ayakta kalmayı başarmış olan savunma sisteminin sürekliliği için ise bölgeye özgü bütüncül bir koruma yaklaşımı geliştirilmiş, ortak sorunlar ve temalar üzerinden yönetim alanları oluşturulmuştur.
-
Öge19. yüzyıl İstanbul mimarlık ortamında Rum Ortodoks kiliselerinin yapım ve onarım süreçleri(Lisansüstü Eğitim Enstitüsü, 2020-10-15) Pulat Sönmez, Ece ; Mazlum, Deniz ; 502142202 ; Restoration ; Restorasyon18. yüzyılda batı ile etkileşimi artan Osmanlı Devleti 19. yüzyıl ile birlikte idari, sosyo-kültürel ve ekonomik alanda birçok değişim yaşamıştır. Yaşanan bu değişimler kentsel düzene ve mimariye de etki etmiş, kent içinde yeni yapı tipleri ve yeni mimari üsluplar görülmeye başlanmıştır. Bu çalışma ile söz konusu değişimlerin Rum Ortodoks kiliselerinin yapım ve onarım süreçlerine nasıl etki ettiği ele alınmıştır. Özellikle Tanzimat ve Islahat fermanları ile eşitlik olgusunun vurgulanması ve gayrimüslim kesimin yeni haklar elde etmesi, kilise mimarisi için de yeniliklere sebep olmuştur. İstanbul kent merkezinde bulunan tüm Rum Ortodoks kiliselerinin ön çalışma olarak izlenmesi ve onlara dair envanter fişleri oluşturulması ile başlanan bu tezin ana kaynaklarını da Osmanlı arşiv belgeleri oluşturmaktadır. Osmanlı Arşivi dışında, kilise vakıflarına ait arşivlerde ve bazı özel arşivlerde yapılan araştırmalar sonucunda elde edilen belgelerin gün ışığına çıkarılması amaçlanmıştır. Bu belgeler ile seçilen Rum Ortodoks kiliselerinin onarım ve yapım süreçlerindeki, idari işleyiş ve mimari teknik bilgiler incelenmiştir. Onarımlarda kullanılan yapı malzemeleri, çalışan meslek grupları, yapım teknikleri, kullanılan ölçü birimleri, görev alan kurum ve kuruluşlar gibi bilgiler arşiv belgelerinden öğrenilmektedir. Bu belgeler aracılığı ile geçmiş dönem restorasyon uygulamaları ile ilgili bilgi edinmek gelecekteki müdahaleler için yol gösterici niteliktedir. Çalışma sırasında İstanbul'da bulunan 96 adet Rum Ortodoks kilisesi için ön araştırma ve inceleme yapılmıştır. Tüm bu kiliseler için Osmanlı Arşivi'nde bulunan belgeler tespit edilmeye çalışılmıştır. Kiliselerin tarihî ve mimari özelliklerine, eski fotoğraf ve haritalardaki varlıklarına ve haklarında yapılan detaylı çalışmalara yer verilen envanter fişleri hazırlanmıştır. Arşiv belgelerinin niteliğine göre şekillenen bu tezde Galatasaray Panayia Kilisesi'nin genişletilmesi, Şişli Metamorfosis Kilisesi'nin yapımı, Kumkapı Panayia (Elpida) Kilisesi'nin ve Gedikpaşa Ayia Kiryaki Kilisesi'nin yeniden yapım süreçleri detaylı olarak ele alınmıştır. Örnek incelemelerinden önce 19. yüzyılda İstanbul'da mimarlık ve kültür ortamının nasıl olduğu; kent dokusunda, toplumsal ve kültürel alanda yaşanan değişim ve dönüşümler, İstanbul'daki gayrimüslimler ve mimarlık etkinlikleri, gayrimüslimler içinde Rumların yeri alt başlıkları ile ele alınmıştır. 19. yüzyıl İstanbul'unda yapım ve onarım faaliyetleri ise; anıtsal yapıların yapım ve onarım süreçleri, idari yapılanma, yasal süreçte yaşanan değişimler, Rum Ortodoks kiliselerinin yapım ve onarım süreçleri alt başlıkları ile aktarılmıştır.
-
Öge19. yüzyıl İstanbul'unda tarihî camilerin ihyası, örnekler ve arşiv belgeleri üzerinden bir tespit ve araştırma(Lisansüstü Eğitim Enstitüsü, 2022-02-25) Çiçek Ünal, Özlem ; Mazlum, Deniz ; 502082207 ; Restorasyon ; Restoration19. yüzyılda İstanbul'da çok sayıda tarihî cami ve mescit; yaşanan yangınlar, 1894 depremi, bakımsızlık ve imar faaliyetleri gibi nedenlerle kullanılamaz duruma gelmiş ve yeniden inşa/ ihya edilmiştir. O dönemde imparatorluğun Batı ile gelişen ilişkileri, değişen mimari beğeniler, yaşanan maddi sorunlar ve İstanbul'da yaşanan değişim ve dönüşümler yeniden inşa faaliyetlerinin ölçek ve niteliğini etkilemiştir. İstanbul'un artan nüfusu ile orantılı fiziki büyümesi imar hareketlerini beraberinde getirmiş; yeni ulaşım ağları, rıhtımlar, meydanlar gibi düzenlemeler hız kazanmıştır. Üst üste yaşanan yangınlar, pek çok kayba neden olmanın yanında, sonrasında getirilen yeni düzenlemelerle Batılı bir kent görünümüne kavuşmak için fırsat sunmuştur. Yangınlar ve 1894 depremi sonrası pek çok yapının aynı anda hasar görmesi, gerekli onarımların ve inşaatların yapılabilmesi için kaynak bulunmasını güçleştirmiş ve kimi durumlarda yapıların ayakta tutulabilmesi için gerekli olan müdahaleler gecikmiştir. Osmanlı arşivinde bulunan; yangınlar sonrasında hasarlı yapılar ve bağlı bulundukları vakıfların maddi durumları hakkında hazırlanmış defterler yaşanan sorunları ortaya koymaktadır. Vakıf yapısı olan tarihî cami ve mescitler, vakıfların yönetimindeki bozulma ve suistimaller neticesinde düzenli bakım ve onarımları için gereken ödeneklerden mahrum kalmış; yangın ve deprem gibi ani hasarların yanında kimi zaman geçen zaman içinde gelişen hasarların onarım bedellerini de karşılayamayacak duruma gelmiştir. Bu durumun önüne geçebilmek için vakıf yönetimleri ve bütçelerini tek bir çatı altına toplamak için idari adımlar atılsa da yaşanan maddi sorunların önüne geçmek kolay olmamıştır. Sonuç olarak kentteki tarihî cami ve mescitler hem bağlı oldukları vakıfların sorunları hem de içinde bulundukları kentte yaşanan afetler ve değişimler neticesinde ayakta tutulamayarak ihya edilmişlerdir. Tez kapsamında yapılan ve selâtin camilerini kapsam dışında bırakan araştırma, 1780-1920 zaman aralığında İstanbul'da 153 cami ve mescidin çeşitli nedenlerle kısmi ya da bütüncül olarak yeniden inşa edildiğini ortaya koymuştur. Gerçekleşen bu ihyalarda yapıların tarihî kimlikleri değil vakıf kimlikleri önde tutulmuştur. Genel olarak ihyalarda amaçlanan hedef vakfedilen işlevi uzun süre yerine getirebilecek sağlam bir yapı elde etmektir. 19. yüzyılda Batı'da gelişen anıt eser ve koruma kavramları Osmanlı'da gecikmeli olarak yüzyılın sonları ve 20. yüzyılın başlarında tartışılmaya başlanmıştır. Batının etkisiyle antik eserler üzerinde oluşan ilk ilgi zaman içinde daha geç dönem eserlerine kaymıştır. Çoğu vakıf yapısı olan, anıt niteliğindeki eski eserlerin onarımları yaşanan afetler nedeniyle 19. yüzyılda da gerçekleştirilmiş; önemli eserlerin uygulamalarında dönemin genel pratiklerine uygun olarak yabancı ya da yurt dışında eğitim almış mimarlar ağırlıklı olarak görevlendirilmiştir. Yapılan yasal düzenlemelerle onarımların uzman kişilerce ve denetim altında yapılması sağlanmaya çalışılmıştır. Osmanlı arşiv belgeleri; gerçekleştirilen ihyaların nedenleri, ihya kararının alınması, yapıları ihya ettiren kurum ve kişiler, ihya bedellerinin belirlenmesi ve karşılanması, ihya uygulamalarında izlenen süreç ve ihyalarda kullanılan yeni mimari üsluplar konusunda bilgi vermektedir. Yapıların ihyasında yukarıda sıralanan konular her yapının kendi koşulları ve hasar durumu özelinde değişebilmektedir. Yapılar kimi zaman kısmen ayakta tutularak, kullanılabilir durumdaki mevcut malzemesi ile ihya edilirken kimi zaman ise ihya edilecek yapı tamamen ortadan kalktığı için yeni baştan bir yapı inşa edilmektedir. Yapıların ihyasında bunun gibi değişkenlik gösteren durumları ortaya koyan örnekler tez çalışması içinde detaylı olarak aktarılmıştır. Kelime olarak "yeniden canlandırma" ve "diriltme" anlamına gelen "ihya" koruma biliminde rekonstrüksiyon (yeniden yapım) eylemine karşılık gelmektedir. 19. yüzyılda gerçekleştirilen ihyaların amacı yapıyı yaşatmaktan çok vakfedilen işlevi ve vakfedenin adını yaşatmaktır. Bu nedenle yapı tamamen değişse bile adı ve işlevi değişmemektedir. Cami ve mescitlerin, kendi arsalarında yeniden inşa edilmiş olmaları nedeniyle, konumları sabit kalmakta böylece kent tarihinde değişmeyen noktalar olarak günümüze ulaşmaktadırlar. Her ne kadar ihyalarda zamanın ihtiyaç ve yönelimlerine göre; üslup, malzeme, teknik ve ek işlevler değişebilse de yapının adı, işlevi ve konumu korunarak vakıf hizmeti yeniden canlandırılmakta ve devam ettirilmektedir. Rekonstrüksiyon koruma alanında tartışılmaya başlandığı günden itibaren belli sınırlar ve kurallar koyulmaya çalışılan bir uygulamadır. Çoğu zaman maksadını aşan bu uygulama; özellikle ani eser kayıplarına neden olan savaş ve afet gibi durumlarda, toplumun hafızasının devam edebilmesine ve iyileşmesine yönelik olarak başvurulabilir bir uygulama olarak tanımlanmakta ve sınırlandırılmaya çalışılmaktadır. Günümüzde koruma için neredeyse bir problem haline gelen rekonstrüksiyon; toplumsal iyileşme ve kültürel devamlılık gibi nedenlerin dışında; eski eser-turizm ilişkisinin getirdiği ekonomik kazanç, yapılaşma kısıtlaması olan tarihî yerleşimlerde inşaat yapma fırsatı ve simge yapıların hizmet edeceği politik çıkarlar gibi motivasyonlarla uygulanabilmekte, hatta kültür varlıklarının kaybını telafi edebilen bir müdahale olarak değerlendirilmektedir. Bu tezin, günümüzde moda bir tabir ve uygulama olan "ihya"nın koruma tarihimizdeki gerçek yerini anlamaya katkıda bulunması ve incelediği örneklere yapılacak olası müdahalelere ışık tutması umulmaktadır.
-
Öge1920-1960 arası dönemde planlanan çok katmanlı Batı Anadolu yerleşimlerinin modern mimarlık mirası değerlerinin korunması(Lisansüstü Eğitim Enstitüsü, 2023-03-13) Atala Önsel, Zeren ; Salman, Yıldız Sakine ; 502112203 ; RestorasyonOn dokuzuncu yüzyıl sonuna gelindiğinde endüstrileşme hareketleri ile birlikte eski kent merkezlerindeki nüfus hızlı bir biçimde artmıştır. Bunun sonucunda sağlıksız ve konforsuz yaşam alanları oluşmuş ve bu yoğun nüfusu barındırma sorunu ortaya çıkmıştır. Özellikle Birinci Dünya Savaşı sonrasında yeni yaşam biçiminin gerekliliklerini karşılayacak konut tasarımı ve üretiminin yoğun olduğu bir dönem başlamıştır. Konut alanlarının çevresinde ise yine değişen ihtiyaçlara cevap verecek eğitim, sağlık, spor, eğlence, ulaşım ve endüstri yapıları ile açık alan düzenlemeleri gerçekleştirilmiştir. 1923 yılında Cumhuriyet'in kuruluşundan sonra yeni hükümet, millileştirme programı kapsamında kapsamlı ve bütüncül bir kalkınma politikası izlemiştir. Ana ideoloji ve fikirler İzmir İktisat Kongresi'nde açıklığa kavuşturulmuş ve kalkınma planlarıyla uygulamaya konulmuştur. Bu politika, Anadolu'da köylüleri özgürleştirmeyi, tarım ve sanayiyi geliştirmeyi ve bütünleştirmeyi amaçlıyordu. Bu dönemde yeni planlı bir ülke kurma ve ulusal bir peyzaj oluşturma hedefi benimsenmiştir. Kırsal, kentsel, üretim ve ulaşım konularında yapılan düzenlemelerle ulusal peyzaj yeniden tasarlanmıştır. Planlı şehirler, demiryolları, devlet fabrikaları, köy enstitüleri ve devlet çiftlikleri ile kır-kent entegrasyonu sağlanmış ve sanayinin tarım üzerindeki ilerici etkisinden yararlanılmıştır. Ankara'nın Cumhuriyet'in başkenti seçilmesi ulus devletin en önemli mekansal stratejisidir. Dolayısıyla Ankara, yeni Cumhuriyet'in modernleşme projesinin model şehri olmuştur. Bu dönemde kentsel planlama faaliyetleri daha çok on dokuzuncu yüzyılın ikinci yarısında inşa edilen demiryolu ağı ile Ankara'ya bağlantısı olan Batı Anadolu'da yoğunlaşmıştır. Yeni Cumhuriyet'in millileştirme idealine uygun olarak üretilen imar planları da bu idealin gerçekleştirilmesinde araç olarak kullanılmıştır. Bu imar planlarının bileşeni olan tasarlanan mekânlar, modernist ve yerel değerleri yansıtmaktadır. Özellikle İkinci Dünya Savaşı sonrasında tarihi merkezler dünya çapında korumaya konu olmuş; ancak modern kent katmanları görece daha az sayıda olan ülkelerde ancak 1990'lardan sonra miras olarak kabul edilmeye başlanmıştır. 2001 yılında Helsinki'de ICOMOS Finlandiya tarafından bir konferans düzenlenmiş, 2002 yılı 18 Nisan Dünya Anıtlar ve Sitler Günü ise yirminci yüzyıl mirasına adanmış ve aynı yılın Tehdit Altındaki Miras Raporu'nda da yine bu dönem yapıları vurgulanarak akademik çevrede uluslararası farkındalık arttırılmıştır. ICOMOS tarafından 2008 yılında Quebec'te gerçekleştirilen toplantıda yerin ruhu-genius loci kavramı mirasa yönelik olarak geliştirilmiş, 2011 yılında kabul edilen Valetta İlkeleri'nde ise somut ve somut olmayan değerleri de içeren çok yönlü bir yaklaşım oluşturulmuştur. 2011'de ICOMOS ISC20C tarafından kabul edilen ve somut değerlere ek olarak somut olmayan değerlerin de altını çizen Madrid Belgesi, 2017 tarihinde Yeni Delhi'de gerçekleştirilen ICOMOS Genel Kurulu sonrasında, Madrid-Yeni Delhi Belgesi olarak güncellenerek kentsel alanlar ve peyzajları da içerecek şekilde güncellenerek yapılı çevrenin farklı dönem ekleriyle bir katman olarak korunması gerekliğinin altını çizer. Öte yandan, Türkiye'deki mevzuat çerçevesi hiçbir zaman yirminci yüzyıl mirasını kapsayacak şekilde güncellenmemiştir. Korumanın anıtsal yapılardan kentsel ölçeğe genişletilmesi yolunda ilk adım, 1972'de İmar Kanunu'nun revizyonu ile atılmıştır. Bu kanun, anıtlarla bir bütün oluşturan çeşme, sokak ve meydanların korunması gerekliliğini vurgulamıştır. "Koruma alanı" terimi ise ilk kez 1973 tarihli ve 1710 sayılı Eski Eserler Kanunu'nda kullanılmıştır. 1973-1983 yılları arasında yapılan planlama çalışmalarında geleneksel kent merkezleri protokol alanı olarak tanımlanmış ve imar kapsamına alınmamıştır. Mevzuattaki bu eksiklik, Batı Anadolu yerleşimleri için bir süreklilik değeri barındıran ve bu yerleşimlerin bütünlüğünü oluşturan modern katmanların göz ardı edilmesine yol açmıştır. Mevcut koruma planlarının hiçbiri modern kent peyzajı değerlerini korumayı amaçlamamakta, bunun yerine 1980'lerin koruma planlaması anlayışını takip etmektedir. Bu çerçevede gerçekleştirilen ve Batı Anadolu yerleşimlerine odaklanan tez çalışması, 1920-1960 yılları arasında, DPT kurulmadan ve planlı büyüme dönemine geçilmeden önceki dönemde planlanan yerleşimlerde inşa edilen ve o yerleşimin önemli bir tarihsel katmanını oluşturan modern mimarlık mirasını konu edinmiştir. Çalışmanın ana hatlarının çizildiği giriş bölümünün ardından modern kent planlama çalışmalarının İkinci Dünya Savaşı öncesi ve sonrasındaki tarihsel gelişimi ikinci bölümde değerlendirilmiştir. Tezin üçüncü bölümünde Türkiye'de koruma ve planlama pratiğinin gelişimi koruma planlaması kavramı üzerinden, koruma amaçlı imar planı çalışmaları öncesi ve sonrası dönemdeki değişimlerle birlikte ele alınmıştır. Bu bölümde ayrıca Osmanlı'dan Cumhuriyet'e planlamaya ilişkin kurumlar ve yasal düzenlemeler irdelenmiştir. Tezin dördüncü bölümünde, çalışmanın odağı olan Batı Anadolu yerleşimlerinde 1920-1960 arası dönemde gerçekleştirilen planlama çalışmaları ve bu çalışmalardaki koruma boyutu açıklanmıştır. Tezin beşinci bölümü, Batı Anadolu yerleşimlerinde 1920-1960 arası dönemde yürütülen planlama çalışmalarının söz konusu yerleşimler üzerinden değerlendirildiği bölümüdür. Bu değerlendirme, Batı Anadolu'da detaylı irdelenen yerleşimler olan Afyon Merkez, Aydın Merkez, Aydın Nazilli, Aydın Söke, Balıkesir Merkez, Burdur Merkez, Denizli Merkez, Denizli Buldan, İzmir Bergama, İzmir Ödemiş, İzmir Tire, Kütahya Merkez, Manisa Akhisar, Manisa Alaşehir, Manisa Kula ve Uşak Merkez üzerinden gerçekleştirilmiştir. Her bir yerleşimin planlama tarihçesi ve miras değerleri irdelenerek, yürütülmekte olan koruma çalışmaları ve mevcut durum değerlendirilmesi yapılarak, günümüzde bu değerlerin korunmasında karşılaşılan sorunların dökümü yapılmıştır. Tezin altıncı ve son bölümünde, Batı Anadolu yerleşimleri özelinde değerlendirilen yirminci yüzyıla ilişkin kentsel katmanın korunması ve karşılaşılan tehditlerin azaltılmasına yönelik benimsenmesi gereken yaklaşım açıklanmıştır.
-
Öge2-step indoor localization for "smart AGVs"(Graduate School, 2022-06-17) Yılmaz, Abdurrahman ; Temeltaş, Hakan ; 504142101 ; Control and Automation EngineeringWith the fourth industrial revolution, in other words, Industry 4.0 (I4.0), the transition from traditional mass production to personalized production started in factories. One of the components of the next-generation factories compatible with I4.0 is cyber-physical systems (CPSs). Smart manufacturing islands, smart warehouses, and smart material-handling vehicles are examples of CPSs. The material handling vehicles employed in today's factories, such as automated guided vehicles (AGVs), are not ready for use in smart factories, as the digital transformation has not been completed and the vehicles are not equipped with software to perform fully autonomous operations. In smart factories, it is aimed that the new generation AGVs will do all the planning themselves while performing a given task. Thus smart AGVs will be able to use the whole free space in the factory instead of being restricted to the routes reserved for them. With this development, it will be possible to increase flexibility and efficiency in production. There may be no physical difference between the traditional and smart AGVs, but thanks to the capabilities of the embedded software, smart AGVs will be able to operate autonomously. One challenging problem to be overcome for smart AGVs to effectively realize an assigned logistic task is localization. Although localization is an extensively studied topic for both indoor and outdoor environments, there are still open problems. Considering the logistics problem, the localization problem can be divided into three in the general sense. The first is global localization, which means determining where the smart AGV is in the environment at the time the vehicle wakes up. The second problem is position tracking, which means updating the pose information depending on the movements of the robot, while the instantaneous pose of the robot is known. The third and last problem is the kidnapped robot problem, which occurs when the robot is moved from one place to another without informing. Cases that reduce the reliability of the calculated pose, such as instantaneous skidding, slipping, and crashing an object, can also be addressed under this problem. The localization approach to be utilized in smart factories is supposed to overcome these three sub-problems. There are two main tasks in a logistic operation. The first is the docking stage, which covers the cases of taking a load to the smart AGV or dropping the load of the smart AGV. At this stage, the aim is to reach the target (destination) where the load will be taken or left with industrial standards. With I4.0, reaching the target with sub-centimeter precision has become a goal. Therefore, estimating the pose with high accuracy and precision is expected from the docking localization algorithm. The second is the delivery stage, which covers carrying the load to the destination in the fastest and safest way in the parts outside the docking region. It is not essential to follow the planned route exactly in this stage, so rather than the high accuracy of the localization approach, showing similar positioning performance in the entire operating field is more important. Within the scope of this thesis, different localization algorithms have been proposed for the delivery and docking stages. In addition, a probabilistic decision mechanism that determines the boundary between the delivery and docking stages is designed. A variant of the particle filter-based Monte Carlo Localization (MCL) approach, Self-Adaptive MCL (SA-MCL), is taken as the basis localization method for the delivery stage. The main reason for choosing SA-MCL is that it can solve all aforementioned sub-problems of localization. While performing the traditional SA-MCL global localization task, it uses energy maps and assumes that all range sensors are uniformly placed on the robot in energy map generation. However, this assumption is not valid for many real applications, such as AGVs with two-dimensional (2D) laser scanners front and rear. Moreover, three-dimensional (3D) sensing technology is developing day by day with the widespread use of autonomous vehicle technology. With the ellipse-based energy model proposed in this thesis, the energy map-generating part of the traditional SA-MCL has been updated to overcome both of these constraints. The pose estimation accuracy of the SA-MCL approach performs more or less the same across the entire environment, making it suitable for the delivery stage. However, since the pose estimation accuracy level is proportional to the grid dimensions of the occupancy map, it may not be possible to reach the expected sub-centimeter precision within the docking region in large areas such as factories. Therefore, it was decided to use a scan matching-based precise localization algorithm in the docking region, and for this purpose, the affine iterative closest point (ICP) algorithm was adapted to the localization problem. To make the developed method robust against factors such as noises, disturbances, and/or outliers, the correntropy criterion was utilized while constructing the cost function of affine ICP. As a result, an updated SA-MCL method with an ellipse-based energy model is proposed for the solution of global localization, position tracking, and kidnapped robot problems in the delivery stage. On the other hand, an affine ICP-based precise localization approach is presented for position tracking in the docking stage. However, the boundary between the delivery stage and the docking stage may not be clear. For example, limiting the docking stage to a zone very close to the target may require extra maneuvers to tolerate positioning errors during the delivery stage due to the physical constraints of smart AGVs. If a larger area is specified as a docking stage, it may not meet the expectations since the performance of the precise localization approach may decrease further away from the target. For this reason, there is a need for a switching mechanism that can be adapted specifically to the application and decides whether to switch from the delivery stage to the docking stage. Since the pose estimation performance of the SA-MCL-based localization approach is roughly similar on the entire map, the deciding factor in the transition to the docking stage is the performance of the precise localization method used in the docking stage. In the literature, it is emphasized that the amount of overlap between matched point sets is supposed to be above 50% for the scan-matching-based methods to yield successful results. Within the scope of the thesis, a correntropy-based similarity rate definition, which gives better results than the overlap ratio calculation methods in the literature, is presented and utilized as the decision parameter of the switching approach. To avoid instabilities, a gap is left according to Hysteresis curve behavior while switching from the delivery stage to the docking stage or vice versa. Within the scope of the thesis, the two-stage localization method developed for the next-generation AGVs to be used in smart factories has been experimentally tested on a differential drive mobile robot. First, the ellipse-based energy model addition to the SA-MCL method has been verified by field tests, and its superiority in global localization has been demonstrated. Then, the affine ICP-based localization method used in the docking stage has been tested over nine separate real-world scenarios and it has been shown that it is possible to compute pose with sub-centimeter precision and reach the target at industrial standards. In addition, an affine ICP method, which is not available in the literature, was proposed, and the point set matching performance was demonstrated over synthetic point sets. After validating its performance in point set registration, it was also used for precise localization. Finally, the whole system was tested together. The delivery was carried out with improved SA-MCL, and the switching point from delivery to the docking stage was determined by the decision mechanism. As seen through three different scenarios, it is possible to complete the localization tasks in the delivery and docking stages in the smart factories by using the proposed methods.
-
Öge3-D velocity structure of the gulf of Izmir (Western Turkey) by using traveltime tomography(Graduate School, 2022-11-07) Sağlam Altan, Zehra ; Gökaşan Ocakoğlu, Neslihan ; 505142401 ; Geophysical EngineeringThe Gulf of İzmir and its surroundings in western Anatolia are under the influence of active continental extension characterized by crustal thinning, intense seismic activity, the high heat flows associated with volcanism, and geothermal activity. These features make this region attractive for both geothermal and hydrocarbon exploration activities. The study area and surroundings are well investigated in terms of the crustal-scale tomography studies however there are only a few moderate-scale tomography studies exist aiming to understand its velocity structure and stratigraphical architecture, even though there are basins with proven hydrocarbon and geothermal sources across western Anatolia. Structural and stratigraphical interpretations from previous studies are performed on the 2-D time-migrated seismic sections, which are far from depth environment illustration and reliable velocity information. These conventional velocity estimation methods are based on the Dix inversion in which a flat-layered earth model with no lateral velocity variation and small source-receiver offset values are assumed. However, the study area is way more complex than these assumptions. Therefore, the inversion of traveltimes of the reflected events in seismic data is adopted as a velocity estimation method. In this study, the first 3-D Neogene velocity-depth model of the Gulf of İzmir is obtained by using traveltime tomography. Pre-processing steps such as trace edit, muting out unwanted signals, filtering undesired frequency content, and gaining to remove the effects of wavefront divergence are applied to the raw shot gathers to be able to delineate reflection events on the pre-stack data and make the picking phase more accurately by removing the excessive background noise. This more pickable dataset contains 401352 seismic trace recordings from eleven multi-channel seismic lines collected in the NNW-SSE oriented outer Gulf of İzmir between offshore Foça and Karaburun. The resulting grids of traveltimes were then correlated with each other at the tie-points. Additionally, the conventionally processed data was re-interpreted in detail. Three main seismic stratigraphic units (SSU1-SSU3) were interpreted on the time sections. Three subunits (SSU1a, b and c) are also distinguished within the SSU1 seismic unit. These units are bounded above and/or below by the five horizons (H1-H5). Two unconformity surfaces between Upper Miocene-Pliocene and Pliocene-Quaternary sediments are marked. For the 3-D tomography analysis, the initial velocity for the water column is set to 1500 m/s. The velocity constraints for the following layers are chosen as follows: 1500-1780 m/ for SSU1a, 1500-2000 m/s for SSU1b, 1500-2400 m/s for SSU1c, and 1500-2800 m/s for SSU2 based on the conventional velocity analysis conducted by the previous studies. The initial depth values for the reflectors H1, H2, H3, H4, and H5 are chosen as 100, 150, 300, 550, and 900 m, respectively. The principle of minimum time that uses the analytical solution of Snell's law through an iterative procedure is used to compute the synthetic traveltimes and ray paths within a model. The velocity fields between horizons and the depth of the horizons are updated sequentially. An iterative optimization method called the Simultaneous Iterative Reconstruction Technique (SIRT) is used to update the velocity fields by traveltime inversion. The principle of minimum dispersion of the estimated reflection points is used to update the depth and shape of the interfaces. The final tomographic inversion is carried out by using staggered grids. This final high-resolution tomographic image has provided 3-D stratigraphical architecture and velocity distribution of the Gulf of İzmir in the depth domain. Five seismic stratigraphic units/subunits (SSU3, SSU2, SSU1a, SSU1b, and SSU1c) are traced along the study area. These seismic units and unit boundaries are calibrated by the Foça-1 well (drilled by Turkish Petroleum) on the Pre-Stack Depth Migration (PreSDM) section of Line-25. As a result of this calibration, the acoustic basement is associated with SSU3 consisting of tuffs, sandstones, limestones, and volcanics of the Lower-Middle Miocene Yuntdağ Volcanics. They terminate onto the north-dipping horizon H5 along the southern side of the basin, which displays highly variable topography with several depressions and high. It is marked as a major unconformity separating Miocene and older rocks from the Pliocene-Quaternary younger deposits with a depth of ~200 m in the southern sector and deepens to ~900 m in the mid-central sector constituting a basin. Then, it rises to 420 m forming ridges offshore both Foça and Karaburun Peninsula between 15 to 20 km in the central sector. These volcanic ridges bound the basin, unlike the rest of the western Anatolian grabens bounded by normal faults. The depth of the horizon H5 increases considerably in the northern part of the basin, ranging from 900 m (western flank) to 1400 m (eastern flank). The basin deposits have accumulated asymmetrically across the study area following the northwest dipping Miocene-Pliocene unconformity surface (H5). It consists of two asymmetric depressions developed in the northeastern and mid-central sectors. The thickest depocenter is in the northeast (up to ~1400 m) and thinning through the mid-central sector (~850 m) and southern (~140 m) sector, respectively. SSU2 lies on top of the acoustic basement and corresponds to the sandstones, limestones, volcanics, and shales of the Bozköy Formation and the limestones of the Ularca Formation, dating from the Late Miocene to the Pliocene. The deposition of this unit is mostly concentrated on the northeastern and the mid-central sector of the basin, where acoustic basement highs create small depressions. SSU2 comprises a 20-70 m sediment thickness in the SE offshore Uzun Island. The local depression zone in the mid-central part of the basin has ~580 m thickness, whereas SSU2 has ~40 m and ~260 m thicknesses in the eastern and the western flank of the central sector. SSU2 is rapidly thickening in the northern sector. The maximum thickness of ~790 m appears in the eastern flank of the northern sector, whereas thickness gradually decreases westward up to 20 m. SSU2 is separated from the overlying unit SSU1 by the horizon H4. This boundary defines the base of the Quaternary. The depth of H4 ranges from ~200 m to 480 m from southeast to northwest. Then, it dramatically deepens to ~860 m in the northern sector (through the outer gulf). It constitutes a small basin with a depth of ~520 m at the mid-central sector around Foça. H4 is overlaid by the Plio-Quaternary sediments. From Pliocene to Quaternary (SSU1), the depression in the mid-central sector shifted gradually towards the eastern flank of the central sector (~440 m) while the depression in the northeastern sector expanded northwestwardly (~620 m). These two depression areas are separated by the ridges of horizon H4 that mimics the basement high rising in the east-west direction. By contrast, the total thickness of the Plio-Quaternary sedimentary succession is thinning abruptly up to ~180 m towards the western flank of the southern and central sector of the basin following the rising basement. SSU1 comprises three seismic subunits (SSU1c, SSU1b, and SSU1a). The inclination of the subunits decreases from north to south and from bottom to top. A member of the Bayramiç Formation, SSU1c, is deposited on top of the SSU2, which is dated as Quaternary consisting of conglomerates at the base overlain by sandstones and shales above. The thickness of SSU1c is 20 m in the southern termination of the basin and gradually increases northwardly up to ~280 m. Above that, two other members of the Bayramiç Formation lie named SSU1b and SSU1a, separated by horizons H3 and H2. SSU1b also consists of a similar sequence of conglomerates, sandstones, and shales. The thickness of the SSU1b varies between ~100-300 m. SSU1b accumulates up to ~280 m in the eastern flank of the central sector, where the underlying horizon deepens. Horizon H2 represents the upper surface of the seismic unit SSU1b. SSU1a consists of Quaternary sandstones. It has a 40 m thickness in the southern sector, ~60 m in the central sector, and ~140 m in the northern sector. Finally, H1 is located on top of seismic unit SSU1a and represents the seafloor. The seafloor is smoothly deepened from south to north from ~45 m to ~125 m. The strike-slip faulting with generally compressional character (Karaburun Fault Zone and Urla Fault Zone) is the main reason for the recent deformation of both basement morphology and overlying sedimentary succession. Overall, the Gulf of İzmir is quite different than the surrounding grabens (such as Gediz and Bakırçay grabens) in terms of structural and stratigraphical configurations. Our results also provide the first 3-D velocity model reconstructed from the reflected arrivals of the sedimentary sequence boundaries for the whole outer Gulf of İzmir. The model is presented in a set of horizontal depth slices at different depths and vertical cross-sections displaying velocity variations through the study area. The significant low-velocity zones (LVZs) (1650Vp 1850 m/s) are seen in the horizontal depth slices and vertical cross-sections in the eastern flank down to ~500 m and along the northwestern part of the basin down to ~1 km. Another feature observed in the vertical sections is the presence of high-velocity zones (HVZs) (2150Vp 2350 m/s) between low-velocity zones in the mid-central and north-central sectors of the basin. This observation are supported by the P-wave velocity perturbation that defines the velocity deviations from the initial velocity obtained using the tomography results. The velocity variation seen in the eastern flank of the study area overlaps a lenticular structure that presents on both the time migrated and PreSDM section within the Bayramiç Formation. It has ~500 m length and ~90 m width and bounded by steeply dipping faults on either side. Amplitude anomalies appear to be present at both the upper and lower surfaces of the structure. AVO (amplitude versus offset) analysis, modeling, and seismic attributes showed the presence of possible Direct Hydrocarbon Indicators (DHIs) from the top and base reflectors of the established lenticular-shaped structure interpreted as bright and flat spots, respectively. Our observations suggest the presence of a reservoir within the Quaternary-aged Bayramiç Formation, which consists of conglomerates, sandstones, and shales. It is sealed by shales of the Bayramiç Formation and bounded by an unconformity at the base together with the strike-slip faults on both sides. Therefore, it is concluded that this trap is a structural-stratigraphic. The bounding strike-slip faults allow the migration of hydrocarbons from greater depths into the local reservoir. The presence of another LVZ on top of the reservoir along the strike-slip faults indicates the leakage breaching up to the seafloor. The fault-controlled LVZs in the Plio-Quaternary sediments of the Gulf of İzmir is interpreted as the indication of gas/fluid flow and heat transfer from a deeper source to the shallow surface. The depth information provided by this thesis will further increase our understanding of the link between 3-D stratigraphic architecture and the dominant tectonic forces, and it provides a solid foundation for future numerical simulation studies on the possible fluid/heat transport mechanisms. The P-wave velocity characteristics provided in this thesis will be used to detect the vertical and lateral velocity variations, which can be further used to discover possible dramatic lateral and vertical velocity variations indicating the links between faults (tectonic), fluid escape, gas occurrences (hydrothermal processes) and discuss potential geohazard risk beneath the Gulf of İzmir.
-
Öge3B nokta bulutlarının derin öğrenme yöntemiyle semantik segmentasyonu(Lisansüstü Eğitim Enstitüsü, 2022-02-11) Beşiktepe, Mert ; Güner, Caner ; 501181657 ; Geomatik MühendisliğiÜç boyutlu (3B) kent modelleri, kentsel alanlarda yaşanabilecek değişimlerin 3B olarak izlenmesi, kent çevre ilişkisinin modellenmesi ve kentsel simülasyon uygulamaları için altyapı sağlayarak mekansal planlama çalışmaları için veri temelli karar verme süreçlerinin geliştirilmesine olanak tanımaktadır. Söz konusu modelleri geliştirilmesi için; detay düzeyi uygulama amaçlarına bağlı olarak değişen, yüksek doğruluklu, güncel ve büyük miktarda 3B mekansal bilgiye gereksinim duyulmaktadır. Lazer tarama, görüntüleme ve yer gözlem uyduları gibi veri elde etme teknikleri ile fotogrametri ve bilgisayarlı görü alanlarındaki veri değerlendirme yöntemlerine ilişkin yaşanan gelişmeler 3B mekansal bilginin nokta bulutu biçiminde doğrudan ölçme ile ya da başka veri kaynaklarından türetme yolu ile üretilmesine olanak sağlamıştır. 3B nokta bulutları günümüzde klasik kullanım alanları olan ölçme ve planlama çalışmaları haricinde robotik, otonom mobilite, 3B modelleme ve dijital ikiz oluşturma gibi yüksek teknolojili ve katma değerli uygulamalara olanak tanımaktadır. Kent ölçeğinde ve yüksek çözünürlüklü bu veri kaynağının klasik yaklaşımlarla yönetilmesi ve işlenmesi pek mümkün olamamaktadır. Öte yandan derin öğrenme yaklaşımları büyük veriden modern hesaplama donanımları kullanılarak derin yapay sinir ağlarının eğitilmesini sağlayacak bir paradigma değişimi getirmiştir. Derin öğrenme sayesinde sınıflandırma, nesne yakalama ve segmentasyon görevlerinin veri işlem süreçlerinin otomasyonu amacıyla yerine getirilmesi için geçmişe nazaran çok daha güçlü çözümler elde edilebilir hale gelmiştir. Bu çalışmada, 3B nokta bulutlarından derin öğrenme alanının gelişimi incelenmiş, bu modelleri kıyaslamada kullanılabilecek değerlendirme ölçütleri, araştırma grupları tarafından kabul görmüş açık veri setleri, 3B nokta bulutlarını işlemek için mevcut açık kaynaklı derin öğrenme yazılım kütüphanesi, performans yarışmaları tanıtılmıştır. 3B nokta bulutlarının semantik segmentasyonu için yararlanılabilecek modern bulut bilişim olanakları araştırılmıştır. Eğitim sürecini yürütmek için gereksinimler belirlenmiş ve çözüm önerileri geliştirilmiştir. Bulut bilişim imkanları kullanılarak derin öğrenme için oluşturulan bir geliştirme ortamında bir segmentasyon modelinin eğitim ve test süreci uygulama olarak gerçekleştirilmiştir. Yapılan literatür taraması ve yürütülen derin öğrenme ağının eğitimi süreci sonucunda 3B nokta bulutlarından derin öğrenme çalışmalarında 3B şehir modelleme ve diğer pek çok farklı uygulama alanının 3B uzamsal veri gereksinimini gerçek zamanlı olarak dahi karşılayabilecek çözümler geliştirildiği görülmüştür. Bu çözümlerden yararlanmak için ise yüksek performanslı hesaplama donanımlarına erişime ve açık kaynaklı derin öğrenme yazılım kütüphaneleri ile 3B nokta bulutundan derin öğrenme çalışmalarında geliştirilen yazılımlardan oluşan bir dizi teknolojiyi uyumlu biçimde bir araya getirme becerisine sahip olunması gerektiği görülmüştür.
-
Öge4 channel configurable constant-current/voltage mode biphasic implantable neurostimulator ASIC with channel centric active charge balancer(Graduate School, 2022-03-02) Cakalı, Anıl ; Karalar, Tufan Coşkun ; 504161229 ; Electronics EngineeringElectrical stimulation is a technique that let inhibition or exhibition neuron activities with charge injection to a target tissue. Neural stimulators are used as a treatment method for diseases and the restoration of dysfunctional organs. Sacral Nerve Stimulation that is used for the treatment of bladder and urinary functions, Deep Brain Stimulation (DBS) that is used for the treatment of diseases such as Parkinson's disease, epilepsy, tremor, depression, and obsessive-compulsive disorder, Spinal Cord Stimulation that is used for the treatment of chronic pain syndrome, Retinal Stimulation that is used for recovering visual functions and Cochlear Stimulation that is used to recovering of hearing functions are some of the application fields of electrical/neural stimulation. Considering application fields, most neurostimulator/neuromodulation devices are implanted in the human body. These devices are battery-powered devices that have long battery life, because of that an Application Specific Integrated Circuit (ASIC) is needed for implantable applications considering application specifications like target nerve, power consumption and output properties. Neurostimulators interface with target neurons by using electrodes. Charge accumulation on an electrode-tissue interface may cause Ph variation of electrolyte, toxic surface creation between electrode-tissue interface and variation of electrode-tissue impedance. Most importantly, it may cause permanent nerve damage. Using biphasic stimulation and active charge balancer structure together is the preferred method to achieve ideally zero net charges on the target tissue. Constant-current stimulation, constant-voltage stimulation or constant-charge stimulation methods are presented in the literature. Constant-current stimulation is the safest stimulation method. Ideally, zero net charge on tissue may be achieved by controlling anodic and cathodic current amplitudes and durations in a biphasic manner. For constant-voltage stimulation, the amplitude of current that flows through the electrode-tissue interface is determined by the impedance of the electrode-tissue interface. Due to that reason, it is not easy to control transferred charge to tissue. Constant-charge stimulation is a useful method to achieve charge balancing by using switch-capacitor structures. The disadvantage of constant-charge stimulation is that it needs larger capacitors that cause some difficulties with on-chip implementation. In literature, neurostimulator ASICs are designed for only constant-current mode stimulation or only constant-voltage mode stimulation. Similarly, most charge balancer circuits are designed for just constant-current mode stimulation or constant-voltage mode stimulation. In this work, a novel active charge balancing scheme that works with both constant-current mode and constant-voltage mode for monopolar/bipolar/tripolar/quadripolar electrode polarities is proposed. Furthermore, a novel channel circuit and novel channel centric active charge balancer circuit topologies that support both constant-current and constant-voltage stimulation mode in the same structure are developed. Constant-voltage mode stimulation is considered the standard technique of DBS applications for a long time. On the other hand, constant-current mode stimulation is emerging as an alternative solution for DBS applications. Supporting both constant-current mode and constant-voltage mode with active charge balancing makes this work appropriate for DBS applications. The purpose of this work is to increase the flexibility and safety of neurostimulators because this work allows switching stimulation mode after surgery and supplies active charge balancing for both stimulation modes for safety. Neurostimulator ASIC is constructed by 4 channels. Each channel consists of N-Block, P-Block and Channel Centric Active Charge Balancer. Each channel is configurable to supply ground, 10 V, 0-1 mA configurable sink current or 0-1 mA configurable source current in constant-current stimulation mode. Each channel is configurable to supply ground, 10 V, 1-5 V configurable low voltage or 5-9 V configurable high voltage in constant-voltage stimulation mode. N-Block circuit is designed to supply ground, 0-1 mA configurable sink current or 1-5 V configurable low voltage. P-Block circuit is designed to supply 10 V (as VDD), 0-1 mA configurable source current or 5-9 V configurable high voltage. Stimulation period, anodic phase time and interphase delay time are configurable parameters. Cathodic phase duration is not configurable because it is controlled by using outputs of Channel Centric Active Charge Balancer asynchronously. N-Block and P-Block circuits are similar to each other and complementary structures. The supply voltage of the stimulator circuit was chosen as 10 V to prevent headroom problems. Considering high voltage supply requirements, the Taiwan Semiconductor Manufacturing Company (TSMC) 0.18 um Bipolar-CMOS-DMOS (BCD) technology process was chosen. Relatively high biasing currents and enable/disable circuits were used for analog blocks to achieve higher performance with lower power consumption. The actual channel current is estimated by using differences of internal currents. Internal currents are mirrored to channel centric active charge balancer circuit to estimate channel current and use it for charge balancing. Timing setting resolution was chosen as 1 us. All analog blocks that are used in N-Block and P-Block were designed in Cadence Virtuoso considering timing, voltage and process constraints. DC, AC, transient and stability simulations were run to verify analog subblocks with Cadence Spectre. Transient simulations were run to verify constant-current stimulation mode and constant-voltage stimulation mode behaviors of N-Block and P-Block. Maximum current error results for constant-current stimulation, maximum voltage error results for constant-voltage stimulation and channel current estimation error results for both stimulation modes are given as simulation results. Channel centric active charge balancer was designed with Cadence environment. Transient simulations were run considering stimulation duration and current amplitude boundaries to verify functionality and determine performance with Cadence Spectre. Charge errors are presented as simulation results. Register Transfer Level (RTL) design of the stimulator controller was designed with Verilog Hardware Description Language (HDL). Synchronous state machines are used to implement the stimulator controller. Asynchronous digital circuits are used to handle outputs of active charge balancer circuits. The stimulator controller was synthesized by using Cadence Genus tool. Place and route process was performed by using Innovus tool. Digital blocks were integrated with analog blocks in Cadence Environment and Analog-Mixed Signal (AMS) simulations were run to verify the behavior of the neurostimulator ASIC for constant-current and constant-voltage stimulation modes with random test vectors. As a conclusion, 4 channel configurable constant-current/voltage mode biphasic implantable neurostimulator ASIC with channel centric active charge balancer was verified by using AMS simulations for both constant-current and constant-voltage stimulation modes. AMS simulation results show that the ASIC works functional and the proposed channel centric active charge balancing scheme is verified for both stimulation modes.
-
Öge4.5G frekanslarında çok bantlı geniş geliş açısı aralığında etkili yeni bir frekans seçici yüzey tasarımı(Lisansüstü Eğitim Enstitüsü, 2022-07-18) Balta, Şakir ; Kartal, Mesut ; 504132311 ; Telekomünikasyon MühendisliğiDünyada artan nüfüs ve gelişen teknolojiyle birlikte hücresel kablosuz sistemlerinin kullanımı artmakta, kısıtlı miktardaki frekans bantlarının yoğun bir şekilde kullanımı dolayısıyla artan işaretler arası girişimler, birçok hassas elektronik aygıtın çalışmasını etkileyebilmektedir. Bunun yanında, bu frekansları önlemeye yönelik herhangi bir sistem olmaması nedeniyle insanlar, günlük hayatlarında, evde, ofiste, her an her yerde bu frekanslara maruz kalmakta, bunun neticesinde sağlıklarını kaybederek yaşam kaliteleri düşebilmektedir. Bu nedenlerle böylesi sorunlara bir çözüm olabilmesi açısından bu tezde yer verilen çalışmalarla imalatı kolay, maliyeti düşük ve geniş bir kullanım alanına sahip olabilecek frekans seçici yüzey (FSY) kaplama ürünlerinin geliştirilmesi, teknolojinin insan sağlığına verebileceği zararların önlenerek insan yaşam kalitesinin artırılması açısından önemlidir. Günümüzde dünyada mobil haberleşme alanında IMT Advanced, ülkemizde de kısaca 4.5G olarak bilinen ve 800, 900, 1800, 2100 ve 2600 MHz frekans bantları içeren mobil haberleşme sistemi kullanılmaktadır. Tezin ana amacı bu frekans bantlarını engellemektir. Bu frekansların engellenmesi ile radyo dalgalarının insan sağlığına olan etkileri azaltılacak, mobil haberleşmenin olmasının istenmediği yerlerde bir engelleyici olarak kullanılabilecek, bunun yanında farklı frekanslardan gelecek işaretler arası girişimler de engellenebilecektir. Diğer bir amacımız da bir yandan bu frekansları engellerken, bir yandan da belirttiğimiz frekanslar aralığında kalan, ancak günlük hayatta oldukça yoğun kullanım alanı olan, örneğin 2.4 GHz kablosuz ağlar gibi serbest frekans bantlarını da engellememektir. Yakın gelecekte nesnelerin interneti kullanımı ile birlikte kablosuz ağların çok daha yoğun olarak kullanılacağı düşünüldüğünde, sadece ilgili frekansları engelleyen ama kablosuz ağları engellemeyen bu çalışmanın önemi giderek artacaktır. Bu nedenle yürüttüğümüz tez kapsamında, 4.5G frekans bantlarında oluşan radyo dalgalarını engelleyen aynı zamanda diğer frekans bantlarında herhangi bir engelleme yapmayan, bant durduran filtre görevi görecek yapısal yüzey malzemesi tasarlamak, bunun yanında bu frekans bantlarında ortaya çıkan işaret girişim etkilerini en aza indirmek hedeflenmiştir. Bunlara ek olarak çalışmayı yaparken tasarlanan FSY'lerin mümkün olduğunca farklı geliş açılarında etkinliğini koruması amaçlanmıştır. Bu malzemenin, durdurma bandında iletim katsayısının (S_21) minimum -10dB, iletim bandında iletim katsayısının (S_11) 0dB'e yakın bir değerde olması ve ayrıca elektromagnetik dalganın farklı geliş açılarında, ve farklı polarizasyonlarında da amaçlanan frekans karakteristiklerini sağlaması hedeflenmiştir. FSY'lerin frekans karakteristiği yüzeyi oluşturan periyodik eleman geometrilerine bağlı olduğundan çok çeşitli eleman geometrileri literatürde incelenmiştir. Benzer biçimde periyodik eleman geometrilerinin üzerine baskısının gerçekleştirildiği dielektrik tabakaların da yüzeyin frekans karakteristiği üzerine etkileri bulunmaktadır ve bu etkiler literatürde ayrıntılı olarak incelenmiştir. Tez çalışmasında FSY'lerin analiz yöntemleri de incelenmiştir. Dalga denkleminin analitik çözümü sadece bazı basit FSY geometrileri için görülmüştür. Dalga denkleminin diğer bütün FSY geometrileri için çözümü sadece sayısal çözüm yöntemleri ile elde edilebildiği görülmüştür. Bilgisayar teknolojisindeki hızlı gelişmeyle beraber sayısal analiz yöntemleri bu konuda uygulama alanı bulmaya başlamıştır. FSY geometrilerinin analizlerinde Sonlu Farklar Metodu (Finite Difference Time Method), Sonlu Eleman Metodu (Finite Element Method), Momentler Metodu (Method of Moments) gibi sayısal çözüm yöntemlerinin kullanıldığı, bunun yanında Eşdeğer Devre Modeli'nin de FSY yüzey analizlerinde kullanıldıkları literatürde görülmüştür. Yukarıda belirtilen sayısal analiz yöntemleri içinde tasarım aşamasında belirlenen FSY'lerin analizleri "Sonlu Elemanlar Metodu" ile gerçekleştirilmiş ve ilgilenilen frekans aralığında iletim ve yansıma katsayıları hesaplanmıştır. Ansoft HFSS programı "Sonlu Eleman Metodu" ile bu tür yapıların analizlerini yapabilmektedir. FSY'lerin eniyilemesi HFSS programında eşdeğer devre yönteminin yansıması ile, programın parametrik analiz özelliği kullanılarak gerçekleştirilmiştir. Tez aşamasında bu programdan aktif olarak faydalanılmıştır. Tasarımlarda mümkün olan en az sayıda rezonans ile frekans bantları arasındaki girişimler azaltılmaya çalışılarak, birden fazla frekans karakteristiğine sahip olan üç farklı tasarım geliştirilmiştir. Bunun yanında da durdurmak istenilen frekansların haricinde kalan çalışma frekanslarını engellememek amacıyla mümkün olan en dar durdurma bantlarını sağlayan, oldukça keskin kenarlı bant durduran filtreler oluşturulması için çaba harcanmıştır. Tüm bunları yaparken tasarlanan FSY'lerin mümkün olduğunca farklı geliş açılarında ve farklı polarizasyonlarda etkinliğini koruması hedeflenmiş, bu amaçla simetrik ve dalga boyuna göre çok küçük boyutlardaki geometriler kullanılmıştır. Birden fazla bandı durduran FSY tasarımlarında karşılaşılan en büyük problemlerden biri herbir frekans bandı için tasarlanan farklı geometrilerin birbirlerine olan girişim etkileri olmuştur. O nedenle birçok geometri üzerinde araştırmalar yapılmış ve problemin çözümü için farklı yaklaşımlar getirilmiştir. Tasarımlarda düşük maliyetli ürün geliştirmek amacıyla, 1mm kalınlığında, dielektrik sabiti 4.54 ve kayıp tanjant değeri 0.02 olan tek katlı FR4 tabaka üzerinde gerçeklenmiş, radyo frekanslarına FR4 tabakanın tepkisi kötü olmasına rağmen istenilen hedefler gerçekleştirilebilmiştir. Tasarımların analizleri ve eniyileştirme çalışmaları Ansoft HFSS programında yapılmış, yüzey akım yoğunluk grafikleri çıkarılarak herbir frekans bandı için geometrilerin etkinlikleri gösterilmiştir. FR4 tabakalar üzerine gerçeklenen tasarımların ölçümleri alınmış ve benzetim sonuçlarıyla karşılaştırılarak tasarımlar doğrulanmıştır. Geniş bir literatür taraması yapılmış ve 4.5G frekansları üzerinde etkin olan, çoklu rezonans gösteren böyle bir çalışmaya literatürde rastlanmamıştır. Bu çalışma bu alanda yapılmış ilk ve tek başarılı çalışma olması nedeniyle litaratüre katkı sağlamıştır.
-
Öge4x4 askeri araçlar için bütünleşik klima tasarımı(Lisansüstü Eğitim Enstitüsü, 2022-06-16) Zengin, Barbaros Bahadır ; Böke, Yakup Erhan ; 503181102 ; Isı-AkışkanBu tez çalışmasında, 4x4 tekerlekli MRAP sınıfı araçlar için klima sistemi tasarımı konusu ele alınmıştır. Bu tip askeri araçlarda, mürettebatın zamanının önemli bir kısmını araç içerisinde geçirdiğinden, araç içi termal konfor şartlarının, mürettebatın hareket kabiliyeti ve araç içi ekipmanların üzerinde önemli etkisi olduğundan dolayı, iklimlendirme sistemi, askeri araçlardaki önemli sistemlerden biri olarak öne çıkmıştır. Bununla birlikte, klima sisteminin oluşturduğu hacmin, hem mürettebat hareket alanı hem de diğer ekipmanların konumlandırılması açısından önem arz ettiği belirtilmiştir. Otomotiv klima sistemlerinin genellikle, ısıtma ve soğutma sistemi olarak iki ayrı sistemden oluştuğuna değinilmiştir. Bu iki sistemin aracın içersinde önemli bir hacim işgal ettiği anlaşılmıştır. 4x4 askeri araç içerisinde soğutma ve ısıtma sistemini, iki ayrı sistem olarak kullanmak yerine bütünleşik tek bir sistem olarak kullanmanın önemli bir hacim kazanımı sağlayacağı belirtilmiştir.
-
Öge5-fluorourasil için polimer/biyoseramik ve grafen oksit içerikli ilaç taşıyıcı malzeme üretimi ve kinetik çalışmaları(Lisansüstü Eğitim Enstitüsü, 2023-05-04) Kahraman, Ebru ; Saygılı Nasün, Gülhayat ; 506162003 ; Kimya Mühendisliğiİnsan yaşamı için ciddi bir tehdit oluşturan kanser, dünya çapında önde gelen ölüm nedenlerinden biri olmaya devam etmektedir. Dünya Sağlık Örgütü (WHO) tarafından kanserin 183 ülkenin 112'sinde 70 yaş öncesi için birinci veya ikinci ana ölüm faktörü olduğu tahmin edilmektedir. Kanser tedavisi sürecinde karşılaşılan en önemli zorluklardan birisi, uygulanan yüksek toksisiteye sahip ilaçların vücut içerisinde ani ve kontrolsüz salımının, kanser hücreleri dışındaki sağlıklı dokuları da etkileyerek yorgunluk, ateş, saç dökülmesi, deri döküntüsü ve mide bulantısı gibi istenmeyen yan etkilere yol açabilmesidir. Bununla birlikte, biyolojik ortamla ilaç arasında meydana gelen etkileşimler, aktivite ve terapötik etki kaybına neden olarak tedavinin etkinliğini azaltabilmektedir. Bu nedenle, ilaçları uygun terapötik seviyede tutarak yan etkileri azaltmak ve dış etkenlerden koruyarak tedavinin etkinliğini arttırmak amacı ile tasarlanan ilaç taşıyıcı sistem çalışmaları önem taşımaktadır. 5-Fluorourasil (5-FU) ilacı, günümüzde kolon kanseri başta olmak üzere, rektum, göğüs, yumurtalık, pankreas, mide, beyin ve cilt kanseri gibi pek çok kanser türünün tedavisinde yaygın olarak kullanılan bir anti kanser ajanıdır. Bu ilaç, C(Karbon)-5 pozisyonunda hidrojen atomu yerine flor atomu bulunan bir urasil primidini analoğu türüdür. Anti kanser etkinliği oldukça üstün olmasına rağmen, kan plazmasında yarılanma süresi oldukça kısa olan (8-20 dakika) ve kanserli hücreler tarafından seçiciliği olmayan 5-FU ilacı sağlıklı hücreleri de etkileyerek istenmeyen yan etkilere ve tedavi veriminin düşmesine sebep olabilmektedir. Bununla birlikte, düşük molekül ağırlığı ve hidrofilik karakteri, 5-FU ilacının ilaç taşıyıcı sistemlere yüklenme kapasitesinin düşük olmasına neden olmakta ve kontrollü bir salımın sağlanmasına engel oluşturmaktadır. Bu nedenlerden dolayı, 5-FU'nun vücut içerisinde dolaşım süresini arttırabilecek ilaç taşıyıcı malzemelerin geliştirilmesi önem taşımaktadır. Grafen oksit (GO), grafenin oksidasyonu ile elde edilen ve oksijen içeren fonksiyonel gruplara sahip iki boyutlu bir grafen türevidir. Grafene benzer şekilde katmanlı bir yapıya sahip olan grafen oksit; epoksi, hidroksil, karbonil ve karboksilik gruplar gibi oksijen içerikli fonksiyonel gruplar bulundurmaktadır. Bu grupların varlığı, grafen oksite hidrofilik bir karakter kazandırmakta ve biyolojik ortamda çözünürlüğünü arttırarak biyouyumluğunu iyileştirmektedir. Yüksek spesifik yüzey alanı ile birlikte - etkileşimi ve hidrojen bağı oluşumuyla ilaç molekülleri ile etkileşeme geçebilme kapasitesi, grafen oksitin ilaç yükleme ve salım çalışmalarında tercih edilen bir malzeme olarak ortaya çıkmasına neden olmuştur. Bununla birlikte, grafen oksitin vücut içerisinde yalnız başına uygulanması durumunda hücre canlılığında düşüşe sebep olabileceği raporlanmış olup, biyouyumluluğunu iyileştirmek ve mümkün olabilecek toksik etkileri azaltmak için farklı biyomalzemeler ile birlikte fonksiyonelleştirilerek kullanımı tercih edilmektedir. Hidroksiapatit (HAp, Ca10(PO4)6(OH)2), insan vücudu içerisinde diş ve kemik yapısında bulunan, biyoseramik yapılı kalsiyum fosfat bir malzemedir. Biyoaktif, biyouyumlu, yavaş bozunan, osteokondüktif ve osteoindüktif yapısı nedeni ile diş hekimliği, kemik doku mühendisliği alanları başta olmak üzere, ilaç taşıyıcı sistemler ve hücre görüntüleme gibi biyomedikal alanlarda yaygın olarak kullanılmaktadır. Nanoboyutlu hidroksiapatit parçacıklarının farklı kanser hücreleri üzerinde büyümeyi önleyici etki gösterebilmesi nedeni ile, hidroksiapatit içeren kompozit malzemeler kanser ilaçları için geliştirilen ilaç taşıyıcı sistemlerde tercih edilebilmektedir. Bununla birlikte, sert ve kırılgan bir yapıya sebep olmasından kaynaklanan mekanik dezavantajları, hidroksiapatitin tek başına klinik uygulamalarda kullanımını kısıtlayabilmektedir. Ek olarak, yalnızca hidroksiapatitin taşıyıcı malzeme olarak kullanıldığı ilaç salım çalışmalarında yüksek ilk ani salım oranları görülmüştür. Bu nedenlerle, mekanik özellikleri ve kontrollü salımı iyileştirebilecek çeşitli malzemelerin katkısı ile kompozit halinde kullanımı tercih edilmektedir. Jelatin (GEL), kollajenin kısmi hidrolizi ile elde edilen doğal bir polimerdir. Asidik veya bazik prosesler ile elde edilme şekline göre sırası ile A ve B tipi olarak sınıflandırılmakta olup; hayvan derisi, kemik, kıkırdak ve bağ dokusundan elde edilebilmektedir. Düşük immünojenikliği, toksik olmaması, biyouyumluluğu, biyolojik bozunabilirliği ve düşük maliyeti nedeniyle, biyomedikal alanda yaygın olarak kullanılan doğal polimerlerden biri olarak ortaya çıkmıştır. Poliüretan (PU), termoplastik ve termoset polimer sınıfında yer alan, üretimi ve kullanım alanı açısından pek çok çeşidi bulunan bir polimerdir. Yapısal olarak yumuşak parça ve sert parça olmak üzere iki farklı şekilde sınıflandırılan bloklardan oluşan poliüretanlar, moleküler düzeydeki bu parçalı yapıları nedeni ile elastiklik, aşınma dayanımı, kimyasal stabilite ve işlenebilirlik gibi avantajlı özellikler barınıdırmaktadır. Esneklik ve mekanik dayanımın birlikte sağlanabilmesi, poliüretanların medikal alanda kullanımı avantajlı bir malzeme olarak öne çıkmasına neden olmuştur. Bununla birlikte, biyouyumlu ve pH değişimine duyarlı özellik göstermeleri nedeni ile, kontrollü ilaç salım sistemi çalışmalarında kullanımı tercih edilen malzemeler arasında yer almaktadırlar. Yapılan çalışmanın amacı; 5-FU kanser ilacının in vitro ortamda kontrollü salımını sağlayabilecek polimer/biyoseramik ve grafen oksit içerikli ilaç taşıyıcı malzemelerin geliştirilmesi, bu malzemelerin ilaç yükleme ve salım performanslarının araştırılması, deneysel tasarım ve kinetik modelleme çalışmaları ile optimizasyonun yapılmasıdır. Polimer malzemeler olarak jelatin ve poliüretan seçilirken, biyoseramik malzeme olarak hidroksiapatit tercih edilmiştir. İlk olarak, değişen jelatin konsantrasyonları içeren grafen oksit/jelatin (GO/GEL) kompozitleri üretilmiş ve bu kompozitlere adsorpsiyon yolu ile 5-FU ilacı yüklenmiştir. Deneysel tasarım çalışmaları sonucunda, düşük jelatin konsantrasyonu ve pH 8 değerinde 5-FU adsorpsiyonun maksimum olduğu görülmüştür. Adsorpsiyon izotermi çalışmaları sonucunda, 5-FU adsorpsiyonu için en uygun modelin Freundlich modeli olduğu görülmüştür. In vitro salım çalışmaları sonucunda, düşük jelatin konsantrasyonlarında birinci derece kinetik modele ve yüksek jelatin konsantrasyonlarında Higuchi kinetik modeline uygunluk görülmüştür. MCF-7 göğüs kanseri hücre hattına karşılık yapılan MTT testinde 5-FU yüklü GO/GEL kompoziti %22.8'lik bir hücre canlılığı göstermiş, 5-FU ilacının salımını ve etkisini doğrulamıştır. L-929 fibroblast hücre hattına karşılık yapılan MTT testi sonucu,15 μg/ml 5-FU yüklü GO/GEL konsantrasyonlarına kadar %80 hücre canlılığı elde edilmiş ve kompozitlerin biyouyumluluğu doğrulanmıştır. İkinci aşamada, değişen grafen oksit (GO) miktarları içeren grafen oksit/hidroksiapatit (GO/HAp) kompozitleri üretilmiş ve adsorpsiyon yolu ile 5-FU ilacı yüklenmiştir. Deneysel tasarım çalışmaları sonucunda, düşük pH (pH 2) ve düşük başlangıç 5-FU konsantrasyonlarında 5-FU adsorpsiyonu oranının maksimum olduğu görülürken, grafen oksitin hafif bir artışa sebep olduğu görülmüştür. 5-FU adsorpsiyonu için en uygun modelin Freundlich modeli olduğu görülmüş ve maksimum adsorpsiyon kapasitesi (Qm) pH 2.0 koşullarında 36.9 mg/g olarak hesaplanmıştır. In vitro salım çalışmalarında, pH 7.4 koşullarında tüm GO oranlarında salımın sıfır derece kinetik modele uygunluk görülürken, düşük pH değerlerinde ise Higuchi kinetik modele uyum görülmüştür. Üçüncü aşamada, GO/HAp kompozitlerinin 5-FU ilacı için adsorpsiyon yüzdesini iyileştirmek amacı ile, aminlenmiş grafen oksit üretimi yapılmıştır. Aminlenmiş grafen oksit/hidroksiapatit (GO-NH2/HAp) kompoziti sentezlenmiştir ve adsorpsiyon yolu ile 5-FU ilacı yüklenmiştir. GO/HAp kompoziti ile benzer şekilde, GO-NH2/HAp için yüksek GO-NH2, düşük pH ( pH 2) ve düşük başlangıç 5-FU konsantrasyonlarında en yüksek 5-FU adsorpsiyon oranı görülmüştür. Grafen oksitin aminlenmesi işlemi sonrası maksimum adsorplanan ilaç oranında %9.7'lik bir artış belirlenmiştir. 5-FU adsorpsiyonu için en uygun modelin Freundlich modeli olduğu görülmüş ve maksimum adsorpsiyon kapasitesi (Qm) pH 2.0 koşullarında 21.2 mg/g olarak hesaplanmıştır. In vitro salım çalışmalarında, tüm pH koşullarında 5-FU salımı sıfır derece kinetik modele uygunluk göstermiştir. Son aşamada, grafen oksit/poliüretan (GO/PU) kompozit film üretimi yapılmıştır. Poliüretan üretimi aşamasında, biyouyumlu ve ekonomik bir alternatif olan ayçiçek yağı ve hint yağı hidroksil kaynağı olarak kullanılmıştır. 5-FU yükleme işlemi, üretimi aşamasında 5-FU ilacının enkapsülasyonu ile gerçekleştirilmiştir. Deneysel tasarım çalışmaları sonucunda, 5-FU'nun GO/PU kompoziti içerisinden salım yüzdesinin, yüksek pH (pH 10), yüksek GO miktarı ve düşük başlangıç 5-FU konsantrasyonlarında arttığı görülmüştür. Kompozitlerde pH'a duyarlı ilaç salımı gerçekleştiği görülmekle birlikte, yüksek GO içeren kompozit için tüm pH koşullarında, Higuchi kinetik modeline uygunluk sağlanmıştır. Azalan GO miktarlarında ise, salım profilinin sıfır derece kinetik modele uyum gösterdiği belirlenmiştir. Bu tezin bulguları, sentezlenen GO/GEL, GO/HAP, GO-NH2/HAp ve GO/PU malzemelerinin 5-FU kanser ilacı için kontrollü salımı sağlayabilecek biyoyumlu ve ekonomik ilaç taşıyıcı malzemeler olarak potansiyele sahip olduğunu göstermiştir.
-
Öge50 MV kurulu güçteki güneş kulesi santralinin tasarımı ve modellenmesi(Lisansüstü Eğitim Enstitüsü, 2022) Karakaş, Yusuf ; Karabetoğlu, Sevan ; 708692 ; Enerji Bilim ve Teknoloji Ana Bilim DalıGeçmişten günümüze insan faaliyetlerinin sürdürülebilmesini sağlamak amacıyla kullanılan enerji, uygarlığın sürdürülebilirliğinin bileşeni olup, bilimin ve teknolojinin gelişiminde vazgeçilmez bir araçtır. Bugün sahip olunan teknolojik ve bilimsel birikimlerin geliştirilmesi ve yeni bilimsel, teknolojik buluşların ortaya çıkması için direkt veya dolaylı enerji ihtiyacı bulunmaktadır. Enerji miktarı aynı zamanda ülkelerin gelişmişlik düzeyinin bir göstergesi olup, enerji gelişmiş ve gelişmekte olan ülkelerin ana ihtiyaçlarından biridir ve dünya genelinde enerji tüketimi sürekli olarak artmaktadır. Fosil yakıtlar günümüzde ihtiyaç duyduğumuz enerjinin büyük bir kısmının üretildiği kaynaklar olup, geri kalan kısmı nükleer ve yenilenebilir enerji kaynaklarından yararlanılarak üretilmektedir. Fosil yakıtların yakılmasıyla ortaya çıkan sera gazlarının atmosferdeki yoğunluğunun artmasıyla küresel ortalama yıllık sıcaklık artışı gibi küresel iklim değişikliği sonuçları gözle görülür nitelikte ivme kazanmıştır. Bu da neredeyse tüm canlı ekosistemlerini barındıran habitatları olumsuz etkilemekte ve devasa miktarda CO2' in çok kısa sürede atmosfere salınımı sebebiyle canlı türlerinde ölümler hatta soy tükenmesi gibi sonuçları beraberinde getirmektedir. Çevre ve canlılara zarar veren fosil yakıtların kullanımı sürdürülebilinir değildir. Önlem alınmadığı takdirde bu zararların bedelinin çok büyük boyutlara ulaşacağı göz ardı edilmemelidir. Bundan dolayı fosil enerji kaynaklarının alternatifi olan yenilenebilir enerji kaynakları kullanılarak üretilen enerjinin artırılması ve sıfır emisyona ulaşılması zorunluluğu gün geçtikçe daha iyi fark edilmesi sağlanmalıdır. Yenilenebilir enerji kaynakları arasında en çok bulunan ve jeotermal enerji hariç diğer yenilenebilir enerji kaynaklarının kaynağı güneş enerjisidir. Güneş enerjisinden faydalanılarak direkt veya dolaylı olmak üzere iki metotla enerji üretimi gerçekleştirilir. Direkt yöntemle elektrik üretimi gerçekleştiren fotovoltaik hücreler yarı iletken malzemelerden yapılır ve bir diyot gibi çalışarak güneş ışığında bulunan enerjiyi fotoelektrik etkiden yararlanarak elektrik enerjisine dönüştürür.
-
ÖgeA generalized deep reinforcement learning based controller for heading keeping in waves(Graduate School, 2022-06-21) Beyazit, Afşin Baran ; Kınacı, Ömer ; 508191229 ; Offshore EngineeringReinforcement Learning (RL) is a machine learning method where a learner (the agent) tries to maximize a reward by learning how to act under different environmental circumstances. The agent looks at the state of its environment (through the state vector), takes an action, and then gets a reward and the next state of its environment. The agent improves its action-taking strategy (policy) with every action it experiments with. RL methods have been used for many decision-making problems including control problems with promising results. Unlike many traditional control methods, a model-free RL doesn't need any environment dynamics to operate. This is especially beneficial for problems where the model dynamics are non-linear or not well-known. However, classical controllers are still the most used method of control for maritime applications. Heading-keeping is a maritime control problem where a controller's objective is to keep the heading (yaw) angle of a vehicle constant. Generally speaking, the industry standard is to use traditional feedback controllers such as PID for this problem. This study focuses on designing a generalized RL controller for the heading-keeping problem in waves. The study compares the designed RL controller to a traditional controller in terms of yaw error and rudder usage and observes that the designed RL-based controller performs better than the used traditional controller. The first iterations of the RL agent had many issues. Unlike traditional controllers, the RL agents don't inherently recognize that in an idealized environment they can deal with waves coming from 0 and 180 degrees with almost zero rudder usage. On top of that, the first few developed agents had problems with excessive rudder usage, steady-state error, and overshooting behavior. All of these problems have been solved in the final iteration of the RL agent. Instead of just explaining the final agent, the thesis starts off with a weak RL agent and explains how it can be improved iteratively. This way the thesis explains how one might approach the problem of developing an RL-based controller. The first section focuses on giving a rough summary of RL and the problem case, explains the purpose of the thesis, then talks about previous work over marine movement control in literature. Some detailed information about the used tools and simulation environment is also given here. The second section introduces LQR controllers and designs an LQR controller for the heading keeping problem. The third section explains RL in-depth to lay the foundation for the upcoming sections. The fourth section starts with a naively designed simple RL agent and iteratively improves it. In each iteration of development, the agent is compared to the designed LQR controller, its weaknesses are analyzed, and the improvements for the next iteration are determined. The fifth section summarizes the previous sections, explains the contributions of the thesis, and discusses possible future work.
-
ÖgeA hierarchical key assignment scheme for access control in cloud computing(Graduate School, 2022-06-10) Çeliktaş, Barış ; Özdemir, Enver ; 707182002 ; Cyber Security Engineering and CryptographyToday, organizations no longer have to spend huge amounts of money on physical servers, related information technologies infrastructures such as server rooms or data centers because large initial capital expenditure and operational expenditures are significantly reduced due to relatively new method called cloud computing. In addition, administrative challenges include establishing well-designed disaster recovery and business continuity plans, building fault-tolerant and scalable systems, full-time availability, and greater collaboration with stakeholders needed by organizations. These all lead companies to outsource the services such as storage systems, large-scale computations and hosting. Among cloud deployment models, the public cloud is currently the most preferred by companies due to its cost-effectiveness, although it raises many concerns, especially for military, health, and banking organizations, where confidentiality and privacy are crucial. The main concerns of these organizations, which operate in a hierarchical manner, are confidentiality, privacy, availability, integrity, reliability, data lock-in, and regulatory compliance. Besides the above-mentioned concerns, the integration of data access control policy to any cloud deployment models by the data owner is also a challenging topic in the research community. In this thesis, we will focus on finding a solution to confidentiality and privacy concerns. The first solution that comes to mind for the focused concerns should be found in cryptography tools. It is very crucial to follow a secure key management policy by organizations to ensure the confidentiality of sensitive data using encryption. What motivates us to conduct this research is to introduce a secure, flexible, hierarchical, and practical key access control mechanism that eliminates or minimizes confidentiality and privacy concerns in the transition to the cloud for hierarchical organizations utilizing sensitive data. In this context, we will present two different hierarchical access control schemes to be used in the secure adoption of the public cloud for hierarchical organizational structures and demonstrate that the use of these schemes provides a flexible, efficient, and secure hierarchical key access control mechanism for the entirety of hierarchy. Note that these schemes can also be used for organizations that do not consume cloud services to manage their internal key management and access controls. The first proposed scheme is based on an inner product space and orthogonal projection method, whereas the second is based on Shamir's secret sharing algorithm and polynomial interpolation method. These are also different in approach. The first one adopts a top-down approach where a user of any security level can access the key/data of the same and/or lower security level by default, while the second one needs the approval of the users at the same and/or higher security level to access the key/data, in other words, it adopts a bottom-up approach. The first scheme is based on an inner product space and can be utilized in any cloud delivery model where the data owner implements a hierarchical access control policy. While distributing a basis for each class by the data owner, a left-to-right and bottom-up policy can ensure much more flexibility and efficiency, especially during any change in the structure. For each class, the secret keys can be derived only when a predetermined subspace is available. This scheme is resistant to collusion/collaboration attacks and privilege creep problems, as well as provides key recovery and key indistinguishability security. The performance analysis also shows us that the data storage overhead is much more tolerable than other schemes in the literature. In addition, the other advantage is that it requires only one operation to derive the secret key of child classes securely and efficiently. In other words, these experimental results satisfy all of the desired performance and security requirements. The second scheme is based on Shamir's secret sharing algorithm and polynomial interpolation method. We provide a secure method for each user of this entity to access the public cloud from both inside and outside the company's network. The scheme offers a secure, flexible, and hierarchical key access mechanism for organizations utilizing sensitive data. It also minimizes concerns about moving sensitive data to the public cloud and ensures that only users with sufficient approvals from the same or higher privileged users can access the data by making use of the topological ordering of a directed graph, including self-loop. Our policy in this scheme is to obtain permission approval for bottom-up access. Main overheads such as public and private storage needs are reduced to a tolerable level, and the key derivation is cost-effective. From a security perspective, this scheme is both resistant to collusion/collaboration attacks and provides key indistinguishability security. Since the key does not need to be kept anywhere, the key disclosure risk is also eliminated. In summary, in this thesis, to take full advantage of these different approaches, the data owner can choose the best one that is suitable for the security policy and hierarchical structure of the organization. If required, the data owner can also design an infrastructure that is a mixture of these two approaches.
-
ÖgeA high-order finite-volume solver for supersonic flows(Lisansüstü Eğitim Enstitüsü, 2022) Spinelli, Gregoria Gerardo ; Çelik, Bayram ; 721738 ; Uçak ve Uzay MühendisliğiNowadays, Computational Fluid Dynamics (CFD) is a powerful tool in engineering used in various industries such as automotive, aerospace and nuclear power. More than ever the growing computational power of modern computer systems allows for realistic modelization of physics. Most of the open-source codes, however, offer a second-order approximation of the physical model in both space and time. The goal of this thesis is to extend this order of approximation to what is defined as high-order discretization in both space and time by developing a two-dimensional finite-volume solver. This is especially challenging when modeling supersonic flows, which shall be addressed in this study. To tackle this task, we employed the numerical methods described in the following. Curvilinear meshes are utilized since an accurate representation of the domain and its boundaries, i.e. the object under investigation, are required. High-order approximation in space is guaranteed by a Central Essentially Non-Oscillatory (CENO) scheme, which combines a piece-wise linear reconstruction and a k-exact reconstruction in region with and without discontinuities, respectively. The usage of multi-step methods such as Runge-Kutta methods allow for a high-order approximation in time. The algorithm to evaluate convective fluxes is based on the family of Advection Upstream Splitting (AUSM) schemes, which use an upwind reconstruction. A central stencil is used to evaluate viscous fluxes instead. When using high-order schemes, discontinuities induce numerical problems, such as oscillations in the solution. To avoid the oscillations, the CENO scheme reverts to a piece-wise linear reconstruction in regions with discontinuities. However, this introduces a loss of accuracy. The CENO algorithm is capable of confining this loss of accuracy to the cells closest to the discontinuity. In order to reduce this accuracy loss Adaptive Mesh Refinement (AMR) is used. This algorithm refines the mesh near the discontinuity, confining the loss of accuracy to a smaller portion of the domain. In this study, a combination of the CENO scheme and the AUSM schemes is used to model several problems in different compressibility regimes, with a focus on supersonic flows. The scope of this thesis is to analyze the capabilities and the limitations of the proposed combination. In comparison to traditional implementations, which can be found in literature, our implementation does not impose a limit on the refinement ratio of neighboring cells while utilizing AMR. Due to the high computational expenses of a high-order scheme in conjunction with AMR, our solver benefits from a shared memory parallelization. Another advantage over traditional implementations is that our solver requires one layer of ghost cells less for the transfer of information between adjacent blocks. The validation of the solver is performed in different steps. We assess the order of accuracy of the CENO scheme by interpolating a smooth function, in this case the spherical cosine function. Then we validate the algorithm to compute the inviscid fluxes by modeling a Sod shock tube. Finally, the Boundary Conditions (BCs) for the inviscid solver and its order of accuracy are validated by modeling a convected vortex in a supersonic uniform flow. The curvilinear mesh is validated by modeling the flow around a NACA0012 airfoil. The computation of the viscous fluxes is validated by modeling a viscous boundary layer developing on a flat plate. The BCs for viscous flows and the curvilinear implementation are validated by modeling the flow around a cylinder and a NACA0012 airfoil. The AUSM schemes are tested for shock robustness by modeling an inviscid hypersonic cylinder at a Mach number of 20 and a viscous hypersonic cylinder at a Mach number of 8.03. Then, we validate our AMR implementation by modeling a two-dimensional Riemann problem. All the validation results agree well with either numerical or experimental results available in literature. The performance of the code, in terms of computational time required by the different orders of approximation and the parallel efficiency, is assessed. For the former a supersonic vortex convection served as an example, while the latter used a two-dimensional Riemann problem. We obtained a linear speed-up until 12 cores. The highest speedup value obtained is 20 with 32 cores. Furthermore, the solver is used to model three different supersonic applications: the interaction between a vortex and a normal shock, the double Mach reflection and the diffraction of a shock on a wedge. The first application resembles a strong interaction between a vortex and a steady shock wave for two different vortex strengths. In both cases our results perfectly match the ones obtained by a Weighted Essentially Non-Oscillatory (WENO) scheme documented in literature. Both schemes are approximating the solution with the same order of accuracy in both, time and space. The second application, the double Mach reflection, is a challenging problem for high-order solvers because the shock and its reflections interact strongly. For this application, all AUSM-schemes under investigation fail to obtain a stable result. The main form of instability encountered is the Carbuncle phenomenon. Our implementation overcomes this problem by combining the AUSM+M scheme with the formulation of the speed of sound of the AUSM+up scheme. This combination is capable of modeling this problem without instabilities. Our results are in agreement with those obtained with a WENO scheme. Both, the reference solutions and our results, use the same order of accuracy in both, time and space. Finally, the third example is the diffraction of a shock past a delta wedge. In this configuration the shock is diffracted and forms three different main structures: two triple points, a vortex at the trailing edge of the wedge and a reflected shock traveling upwards. Our results agree well with both, numerical and experimental results available in literature. Here, a formation of a vortex-let is observed along the vortex slip-line. This vorticity generation under inviscid flow condition is studied and we conclude that the stretching of vorticity due to compressibility is the reason. The same formation is observed when the angle of attack of the wedge is increased in the range of 0-30. In general, the AUSM+up2 scheme performed best in terms of accuracy for all problems tested here. However, for configurations, in which the Carbuncle phenomenon may appear, the combination of the AUSM+M scheme and the computation of the speed of sound formula of the AUSM+up scheme is preferable for stability reasons. During our computations, we observe a small undershooting right behind shocks on curved boundaries. This is imputable to the curvilinear approximation of the boundaries, which is only second-order accurate. Our experience shows that the smoothness indicator formula in its original version, fails to label uniform flow regions as smooth. We solve the issue by introducing a threshold for the numerator of the formula. When the numerator is lower than the threshold, the cell is labeled as smooth. A value higher than 10^-7 for the threshold might force the solver to apply high-order reconstruction across shocks, and therefore will not apply the piece-wise linear reconstruction which prevents oscillations. We observe that the CENO scheme might cause unphysical states in both inviscid and viscous regime. By reconstructing the conservative variables instead of the primitive ones, we are able to prevent unphysical states for inviscid flows. For the viscous flows, temporarily reverting to first-order reconstruction in the cells where the temperature is computed as negative, prevents unphysical states. This technique is solely required during the first iterations of the solver, when the flow is started impulsively. In this study the CENO, the AUSM and the AMR methods are combined and applied successfully to supersonic problems. When modeling supersonic flow with high-order accuracy in space, one should prefer the combination of the AUSM schemes and the CENO scheme. While the CENO scheme is simpler than the WENO scheme used in comparison, we show that it yields results of comparable accuracy. Although it was beyond the scope of this study, the AUSM can be extended to real gas modeling which constitutes another advantage of this approach.
-
ÖgeA holistic data analytics approach to ship inspection reporting(Graduate School, 2023-08-08) Biçen, Samet ; Çelik, Metin ; 512192016 ; Maritime Transportation EngineeringMaritime inspection analysis has become an emerging topic in recent years, as practical solutions are sought to improve the pre- and post-inspection analysis in shipping operations. With a focus on finding practical solutions to enhance the pre- and post-inspection process in shipping operations, such as The Oil Companies International Marine Forum (OCIMF) Ship Inspection Report Programme (SIRE), RightShip, The Tanker Management Self-Assessment (TMSA), Chemical Distribution Institute (CDI), there is a growing demand for effective methodologies. The objective of this research is to enhance this field by examining documented observations through the utilization of both natural language processing (NLP) and machine learning (ML) methods. The main goal of this study is to make a valuable contribution to this field by analyzing reported observations. This will be accomplished by employing a combination of natural language processing (NLP) and machine learning (ML) techniques. Additionally, a statistical algorithm model will be utilized to conduct analysis using demographic data. To achieve the objectives of the study, a robust methodology was developed, which leverages the benefits of the American Bureau of Shipping Maritime Root Cause Analysis Tool (ABS-MARCAT). This tool enables the systematic initiation of a potential causes database, incorporating a substantial number of 2383 observations. By employing ABS-MARCAT, the study aims to provide a comprehensive foundation for analyzing and understanding the causes behind reported observations and determining corrective and preventive action tips for elimination of this causes. One of the key contributions of this research is the development of an NLP-based ML algorithm. This algorithm plays an important role in predicting the causes of new entries and determining corrective and preventive action tips in the inspection report's observations. The algorithm's performance demonstrates high accuracy, with results varying between 0.90 and 0.98 across different causation categories. Such accuracy is promising, as it allows for effective identification and classification of causes, providing valuable insights for decision-making in the maritime industry. Another important contribution of this research is the statistical algorithm model that can produce frequencies of causes based on independent variables such as ship name, inspector name, oil major company name and port name. The statistical algorithm model provides predictions about the areas to be considered according to the information required before the inspection. By presenting the frequencies of the cause categories according to the independent variables, it provides a decision support system in the process of predicting the inspection parts to be considered before the inspection. Another important contribution of this research is to suggest corrective and preventive action tips to eliminate the causes of the observations after the causes are identified. The corrective and preventive action tips determined by maritime experts will add a different dimension to the decision-making processes by providing solution suggestions after the analysis of the inspection reports. The pre- and post-inspection analysis model developed in this study holds great potential for enhancing fleet safety and efficiency. By providing maritime executives with an accurate tool to analyze inspection data, it enables them to make informed decisions and take proactive measures to address potential issues. The model serves as a third-party solution for the shipping industry, offering an independent and reliable means of analyzing and assessing inspection data. Looking ahead, future studies are planned to further refine and expand this model. The aim is to conceptualize it as a platform as a service (PaaS) offering, which would enable wider access and utilization by stakeholders in the maritime industry. By transforming the model into a PaaS, it has the potential to become a valuable resource for multiple organizations, facilitating improved fleet safety, operational efficiency, and informed decision-making. In conclusion, this study addresses the emerging field of maritime inspection analysis by developing a robust pre- and post-inspection analysis model. Through the integration of statistical algorithm model, NLP, ML, and the MARCAT tool, the study offers a holistic approach to analyzing reported observations and statistical data. With its high accuracy, the model has the potential to make a significant contribution to the improvement of fleet safety and efficiency. Furthermore, by conceptualizing it as a platform as a service, the study paves the way for wider adoption and application of the model within the shipping industry.
-
ÖgeA hybrid deep learning metaheuristic model for diagnosis of diabetic retinopathy(Graduate School, 2022-10-17) Gürcan, Ömer Faruk ; Beyca, Ömer Faruk ; 507142109 ; Industrial EngineeringDiabetes is a disease that results in an increase in blood sugar due to the pancreas not producing enough insulin, insufficient effect of the produced insulin, or ineffective use of insulin. According to the International Diabetes Federation 2021 report, approximately 537 million adults aged between 20 and 79 live with diabetes worldwide. It is estimated that the number of people with diabetes will increase to 643 million in 2030 and 783 million in 2045. Diabetic retinopathy (DR) is an eye condition that can cause vision loss, irrecoverable visual deterioration, and blindness in people with diabetes. Today, it is one of the leading diseases that cause blindness. Anyone with any diabetes can become a DR. In ophthalmology, type 2 diabetes can lead to DR if left untreated for more than five years. Diabetes-related high blood sugar leads to DR. Over time, having too much sugar in the blood damages the retina. The deterioration of this disease in the eye begins when sugar blocks the capillaries leading to the retina, causing fluid leakage or bleeding at a later stage. The eye produces new vessels to compensate for the blocked vessels, but these newly formed vessels often do not work well and can bleed or leak easily. DR can lead to other serious eye conditions. For example, about one in 15 people with diabetes develop diabetic macular edema over time. DR can lead to the formation of abnormal blood vessels in the retina and prevent fluid from leaving the eye. That causes a type of glaucoma. It is crucial for people with diabetes to have a comprehensive eye examination at least once a year. Follow-up of diabetes; factors such as staying physically active, eating a healthy diet, and using medications regularly can stop the damage to the eye and help prevent or delay vision loss. Some risk factors increase the development of DR, such as pregnancy, uncontrolled diabetes, smoking addiction, hypertension, and high cholesterol. In addition to being detected by magnifying the pupil in eye examination, DR is also diagnosed with the help of image processing techniques. It is common to use fundus images obtained by fundus fluorescent angiography to detect DR and other retinal diseases. Nowadays, with the increasing number of patients and the developments in imaging technologies, disease detection from medical images by various methods has increased. Deep learning is one of the methods whose application area has increased exponentially in recent years. Deep learning is a subfield of machine learning; both are a subfield in artificial intelligence. Deep learning methods draw attention with their versatility, high performance, high generalization capacity, and multidisciplinary use. Technological developments such as the collection of large amounts of data, graphics processing units, the development of robust computer infrastructures, and cloud computing support the building and implementation of new models.Increasing the number of images for a particular patient case and high-resolution images increases specialists' workload. Diagnosis of DR manually by an ophthalmologist is an expensive and time-consuming process. It requires experts who have remarkable experience. In addition, the complexity of medical images and the variations between specialists make it difficult for radiologists and physicians to make efficient and accurate diagnoses at any time. Deep learning is promising in providing decision support to clinicians by increasing the accuracy and efficiency of diagnosis and treatment processes of various diseases. Today, in some medical studies, the success levels of expert radiologists have been achieved or exceeded. Convolutional neural networks (CNNs) are the most widely used deep learning networks in image recognition, image/object recognition, or classification studies. A CNN model doesn't need manually designed features for training; it extracts features from data directly while network training on images. The automated feature extraction property and their success make CNNs highly preferred models in computer vision tasks. This study proposes a hybrid model for the automatic diagnosis of DR. A binary classification of DR (referable vs. non-referable DR) is made using a deep CNN model, metaheuristic algorithms, and machine learning algorithms. A public dataset, Messidor-2, is used in experiments. The proposed model has four steps: preprocessing, feature extraction, feature selection, and classification. Firstly, fundus images are pre-processed by resizing images and normalizing pixel values. The inception-v3 model is applied with the transfer learning approach for feature extraction from processed images. Then, classification is made using machine learning algorithms: Extreme Gradient Boosting (XGBoost), Random Forest, Extra Trees, Bagged Decision Trees, Logistic Regression, Support Vector Machines, and Multilayer Perceptron. XGBoost gives maximum accuracy of 91.40%. The best potential features are selected from the extracted features by three metaheuristic algorithms: Particle Swarm Optimization, Simulated Annealing, and Artificial Bee Colony. Selected features are classified with the XGBoost algorithm. The metaheuristics significantly reduced the number of features obtained from each fundus image and increased the classification accuracy. According to the results, the highest accuracy of 93.12% is obtained from the features selected with Particle Swarm Optimization. When the study results are compared with the existing studies in the literature, it has shown that this study is competitive in terms of accuracy performance and obtained low features. On the other hand, the proposed model has some advantages; it has a few pre-processing steps, training number of parameters are considerable low, and model can be trained with a small amount of data. This study is one of the first studies showing that better results can be obtained in DR classification by using deep learning and metaheuristic algorithms together. The proposed model can be used to give another idea for ophthalmologists in diagnosing DR.
-
ÖgeA modified anfis system for aerial vehicles control(Lisansüstü Eğitim Enstitüsü, 2022) Öztürk, Muhammet ; Özkol, İbrahim ; 713564 ; Uçak ve Uzay MühendisliğiThis thesis presents fuzzy logic systems (FLS) and their control applications in aerial vehicles. In this context, firstly, type-1 fuzzy logic systems and secondly type-2 fuzzy logic systems are examined. Adaptive Neuro-Fuzzy Inference System (ANFIS) training models are examined and new type-1 and type-2 models are developed and tested. The new approaches are used for control problems as quadrotor control. Fuzzy logic system is a humanly structure that does not define any case precisely as 1 or 0. The Fuzzy logic systems define the case with membership functions. In literature, there are very much fuzzy logic applications as data processing, estimation, control, modeling, etc. Different Fuzzy Inference Systems (FIS) are proposed as Sugeno, Mamdani, Tsukamoto, and ¸Sen. The Sugeno and Mamdani FIS are the most widely used fuzzy logic systems. Mamdani antecedent and consequent parameters are composed of membership functions. Because of that, Mamdani FIS needs a defuzzification step to have a crisp output. Sugeno antecedent parameters are membership functions but consequent parameters are linear or constant and so, the Sugeno FIS does not need a defuzzification step. The Sugeno FIS needs less computational load and it is simpler than Mamdani FIS and so, it is more widely used than Mamdani FIS. Training of Mamdani parameters is more complicated and needs more calculation than Sugeno FIS. The Mamdani ANFIS approaches in the literature are examined and a new Mamdani ANFIS model (MANFIS) is proposed. Training performance of the proposed MANFIS model is tested for a nonlinear function and control performance is tested on a DC motor dynamic. Besides, ¸Sen FIS that was used for estimation of sunshine duration in 1998, is examined. This ¸SEN FIS antecedent and consequent parameters are membership functions as Mamdani FIS and needs to defuzzification step. However, because of the structure of the ¸Sen defuzzification structure, the ¸Sen FIS can be calculated with less computational load, and therefore ¸Sen ANFIS training model has been created. These three approaches are trained on a nonlinear function and used for online control. In this study, the neuro-fuzzy controller is used as online controller. Neuro-fuzzy controllers consist of simultaneous operation of two functions named fuzzy logic and ANFIS. The fuzzy logic function is the one that generates the control signal. It generates a control signal according to the controller inputs. The other function is the ANFIS function that trains the parameters of the fuzzy logic function. Neuro-fuzzy controllers are intelligent controllers, independent of the model, and constantly adapting their parameters. For this reason, these controllers' parameters values are constantly changing according to the changes in the system. There are studies on different neuro-fuzzy control systems in the literature. Each approach is tested on a DC motor model that is a single-input and single-output system, and the neuro-fuzzy controllers' advantages and performances are examined. In this way, the approaches in the literature and the approaches added within the scope of the thesis are compared to each other. Selected neuro-fuzzy controllers are used in quadrotor control. Quadrotors have a two-stage controller structure. In the first stage, position control is performed and the position control results are defined as angles. In the second stage, attitude control is performed over the calculated angle values. In this thesis, the neuro-fuzzy controller is shown to work perfectly well in single layer control structures, i.e., there was not any overshooting, and settling time was very short. But it is seen from quadrotor control results that the neuro-fuzzy controller can not give the desired performance in the two-layered control structure. Therefore, the feedback error learning control system, in which the fuzzy controller works together with conventional controllers, is examined. Fundamentally, there is an inverse dynamic model parallel to a classical controller in the feedback error learning structure. The inverse dynamic model aims to increase the performance by influencing the classical controller signal. In the literature, there are a lot of papers about the structure of feedback error learning control and there are different proposed approaches. In the structure used in this work, fuzzy logic parameters are trained using ANFIS with error input.The fuzzy logic control signal is obtained as a result of training. The fuzzy logic control signal is added to the conventional controller signal. This study has been tested on models such as DC motor and quadrotor. It is seen that the feedback error learning control with the ANFIS increases the control performances. Antecedent and consequent parameters of type-1 fuzzy logic systems consist of certain membership functions. A type-2 FLS is proposed to better define the uncertainties, because of that, type-2 fuzzy inference membership functions are proposed to include uncertainties. The type-2 FLS is operationally difficult because of uncertainties. In order to simplify type-2 FLS operations, interval type-2 FLS is proposed as a special case of generalized type-2 FLS in the literature. Interval type-2 membership functions are designed as a two-dimensional projection of general type-2 membership functions and represent the area between two type-1 membership functions. The area between these two type-1 membership functions is called Footprint of Uncertainty (FOU). This uncertainty also occurs in the weight values obtained from the antecedent membership functions. Consequent membership functions are also type-2 and it is not possible to perform the defuzzification step directly because of uncertainty. Therefore, type reduction methods have been developed to reduce the type-2 FLS to the type-1 FLS. Type reduction methods try to find the highest and lowest values of the fuzzy logic model. Therefore, a switch point should be determined between the weights obtained from the antecedent membership functions. Type reduction methods find these switch points by iterations and this process causes too much computation, so many different methods have been proposed to minimize this computational load. In 2018, an iterative-free method called Direct Approach (DA) was proposed. This method performs the type reduction process faster than other iterative methods. In the literature, studies such as neural networks and genetic algorithms on the training for parameters of the type-2 FLS still continue. These studies are also used in the interval type-2 fuzzy logic control systems. There are proposed interval type-2 ANFIS structures in literature, but they are not effective because of uncertainties of interval type-2 membership functions. FLS parameters for ANFIS training should not contain uncertainties. However, the type-2 FLS should inherently contain uncertainty. For this reason, Karnik-Mendel algorithm is modified, which is one of the type-reduction methods, to apply the ANFIS on interval type-2 FLS. The modified Karnik-Mendel algorithm gives the same results as the Karnik-Mendel algorithm. The modified Karnik-Mendel algorithm also gives exact parameter values for use in ANFIS. One can notice that the ANFIS training of the interval type-2 FLS has been developed successfully and has been used for system control.
-
ÖgeA molecular dynamics study of the prion protein(Graduate School, 2023-05-12) Tavşanlı, Ayşenaz ; Balta, Bülent ; 521152101 ; Molecular Biology-Genetics and BiotechnologyTransmissible spongiform encephalopathies are caused by the conversion of the cellular prion protein PrPC into a misfolded form, PrPSc. In sheep populations there is a polymorphism at positions 136 (alanine/valine), 154 (arginine/histidine) and 171 (arginine/glutamine). While the A136-R154-R171 (ARR) variant confers highest resistance to scrapie, the V136-R154-Q171 (VRQ) variant leads to highest scrapie susceptibility. The A136-R154-Q171 (ARQ) variant with intermediate resistance is considered as wild type. To identify important conformational rearrangements at the initial steps of misfolding, microseconds long restrained and unrestrained molecular dynamics simulations have been prefomed at neutral pH, at 310 K and 330 K on naturally existing prion variants. Also, unfolding potentials of all three helicas of prion protein structure were also conducted at differentiated temperatures with the help of replica exchange molecular dynamic simulations. Moreover, at differentiated pH conditions unfolding potential of helix 1 and interaction of helix 1 with some other sequences were also conducted. Susceptibility of the disease might be related to hyrophobic side chain of the valine at position 136 which seemed to ease the unfolding process. While arginine at position 171 worked as a clamp to keep helix 2 and helix 3 of the cellular prion protein structure together. That might be the reason why VRQ is the most susceptable one where ARR is the most resistance. On the other hand, unfolding of helix 1 played the most critical role since it was the most stable helical structure in all conducted simulations. Inter- and/or intramolecular salt bridges of helix 1 were important to keep helix 1 stable in both helical structure and/or unfolded structure. Energy calculation showed that not high energy was needen to unwind helix 1. This helical structure of hydrophilic H1 might be broken by another hydrophilic sequence of the same prion protein, and its unwinding might be the key point to catalyze the complete unfolding of the protein
-
ÖgeA multi-disciplinary design approach for conceptual sizing of advanced rotor blades(Lisansüstü Eğitim Enstitüsü, 2022-07-19) İbaçoğlu, Hasan ; Arıkoğlu, Aytaç ; 511072102 ; Aeronautics and Astronautics EngineeringRotorcrafts are versatile vehicles with their unique hovering flight capability. However, their forward flight speed limitations and high noise levels are shortened to their usage in much wider areas. Therefore, the rotorcraft industry working on advanced rotorcraft, which are called compound rotorcrafts, development projects increasingly to overcome these problems. The conceptual design phase is the beginning of a development project where the most critical decisions are taken in this stage. So, vehicle-level optimization algorithms are needed for decision-making to lead the project correctly. On the other hand, simplified low-level approaches must be used during conceptual design optimization because of too many design parameters to avoid impractical solution times. Furthermore, rotorcrafts with advanced rotors require advanced design approaches to obtain superior performance, structural, and noise-level characteristics. Therefore, advanced conceptual design approaches are needed to overcome this contradiction. The rotor is the most critical component, which is also the source of the most problems of a rotorcraft such as lack of performance and noise. Therefore, rotor blade optimization is the main issue in the conceptual design phase at the beginning of a project. A multidisciplinary rigid rotor blade design optimization approach that is suitable for the conceptual design, sizing, and evaluation stages of helicopter development processes is suggested. Performance, structural strength of the blade, and noise-level predictions are considered for the objective function. Blade outer surface and structure are represented by a geometrical model in which the chord, thickness ratio, chamber ratio, and twist distributions along the blade radial stations can be defined as linear or nonlinear functions. The distribution of the number of layers for both skin and spar was also defined in the presented model parametrically. Low-level but sufficient fidelity analysis methods were chosen to be able to reduce the computing time. Performance analysis and sizing of the vehicle were obtained by Blade Element Momentum Theory (BEMT) based in-house developed helicopter sizing code called ROTAP. A trim algorithm for compound helicopters that may have additional lifting surfaces and thrust components is suggested. Airfoil Characteristics are calculated by the well-known panel method code Xfoil. Both these codes are modified and embedded in the code developed for this study. Structural analysis was obtained using the 1D FEM approach. Cross-sectional properties of the composite beam are calculated by VABS and displacements under the loads are calculated by GEBT. Reduced FfowcsWilliams-Hawkings equations are used to estimate loading, thickness, and high-speed impulsive noise levels. A hybrid optimization algorithm is suggested to get optimal results. Sequential Quadratic Programming (SQP) can be used to find local optimal points. And then the global optimal point is searched by RSM over local optimal points iteratively. RSM-based surrogate modeling, evaluation, and optimization tool was also developed for manual inspection of the design space. As a case study, multi-objective aerodynamic performance optimization of aircraft propeller is performed.