Yapay Sinir Ağları Ve Genetik Algoritmalar Kullanılarak Ekg Vurularının Sınıflandırılması

thumbnail.default.alt
Tarih
2000
Yazarlar
Dokur, Zümray
Süreli Yayın başlığı
Süreli Yayın ISSN
Cilt Başlığı
Yayınevi
Fen Bilimleri Enstitüsü
Institute of Science and Technology
Özet
Kalple ilgili hastalıkların teşhisinde, EKG (elektrokardiyogram) kayıtlarının hızlı yorumlanması önemlidir. Ancak, kalbin durumu hakkında yeterli ve anlamlı bilginin elde edilebilmesi, uzun kayıtların analizini gerektirir. Analizde harcanan süreyi kısaltmak, sistemde saklanan veri miktarını azaltmak ve bilgisayar destekli teşhise imkan sağlamak, EKG vurularının çeşitli hastalıklar hakkında ön bilgi içeren kategorilere otomatik olarak ayrılması ile mümkün olur. Bilgisayar destekli analizi daha da iyileştirmek kategori sayısını artırmakla mümkündür. Ancak, kategori sayısı arttığında, sınıfları biribirlerinden ayırabilme başarımı da azalmaktadır. Yapılan tez çalışması içerisinde, hem kategori sayısını artırmak hem de sınıfları biribirlerinden başarıyla ayırabilmek için dalgacık temelli yeni bir öznitelik çıkartma yöntemi ve karşılaştırma amacıyla 3 yeni yapay sinir ağı yapısı geliştirilmiştir. Çalışmada EKG vurulan l'i normal, 9'u anormal olmak üzere 10 kategoriye ayrılmıştır: Normal vuru (N), sol dal blok vurusu (L), sağ dal blok vurusu (R), erken karıncık kasılması (V), yapay vuru (P), iletilmeyen P dalgası (p), anormal kulakçık erken vurusu (a), karıncık ve normal vuru birleşimi (F), yapay ve normal vuru birleşimi (f), karıncık kaçak vurusu (E) 'dur. Çalışmada karar verme işlemi üç aşamada gerçeldeştirilmiştir: Normalizasyon işlemi, öznitelik çıkartma işlemi ve sınırlayıcı olarak yapay sinir ağlarının kullanımı. Normalizasyon İşlemi Öznitelik çıkartma işlemleri, işaretin tepeden tepeye genlik değişimlerinden, ofsetten ve EKG işareti içerisinde R tepesinin pozisyonundan etkilenmektedir. Bu etkiler hastanın fizyolojisine, yaşma, cinsiyetine ve ölçüm sisteminin parametrelerine bağlı olarak ortaya çıkmaktadır. Normalizasyon işlemi üç aşamada gerçekleştirilir: 1) Tek bir QRS kompleksini içeren dikdörtgen bir pencere oluşturulur. R tepesi pencere merkezine yerleşecek şekilde EKG işareti ayarlanır. 2) EKG'nin tepeden tepeye genliği 1 mV değerine normalize edilir. Böylece sınıflama performansının, EKG işaretinin maksimum genliğine bağımlılığı yok edilir. 3) Pencere içindeki EKG işaretinin ortalaması sıfır yapılarak ofset etkisi yok edilir. Öznitelik çıkartma yönteminin, işaretin tepeden tepeye genliğine ve ofset değerine bağımlılığı, normalizasyon işlemi ile azaltılmıştır. XI Öznitelik Çıkartma Yöntemleri Çalışmada her EKG vurusu için R tepesi ortada olacak şekilde 256 ayrık veriden bir pencere oluşturulur. Test ve eğitim kümeleri farklı seçilmiştir ve herbiri 256 boyutlu 10x50 adet vektör içermektedir. Vektörlere önce normalizasyon daha sonra öznitelik çıkartma işlemi uygulanır. Her iki öznitelik çıkartma yönteminde de vektör boyutu 15 olarak seçilmiştir. Boyutu büyütmek avantaj sağlar, ancak hesaplama yükünü artırmaktadır. Çalışma içersinde diverjans analizi, iki farklı öznitelik çıkartma işleminin karşılaştırılmasında ve en iyi özniteliklerin belirlenmesinde kullanılmaktadır. Diverjans analizi, smıf vektörlerinin saçılımı hakkında bilgi vermektedir. Sınıf vektörleri saçıldıkça, diverjans değeri de düşmektedir. EKG vurularını sınıflamada, Fourier ve dalgacık (wavelet) analizlerini kullanan iki öznitelik çıkartma yöntemi karşılaştırmalı olarak incelenmiştir. Çalışmanın başlangıcında, öznitelik vektörleri ayrık Fourier dönüşümü kullanılarak elde edilmiştir. Hesaplanan 40 adet ayrık Fourier katsayısından, işareti en iyi temsil eden 15 katsayıdan oluşan alt küme, dinamik programlama kullanılarak diverjans analizi ile belirlenmiştir. İşaretin ayrık Fourier dönüşümü ile elde edilen öznitelik vektörlerinin saçıldığı, bu nedenle de dönüşümün düşük diverjans değeri verdiği gözlenmiştir. Elde edilen bulgular, çalışmayı, yeni bir öznitelik çıkartma yöntemi arayışına yöneltmiştir. Literatürde yaygın olarak kullanılan dalgacık analizinin EKG işaretlerini sınıflamada basan ile kullanıldığı gözlenmiştir. ikinci öznitelik çıkartma yönteminde, 256 örnekten oluşan pencere içindeki EKG işaretine ayrık dalgacık dönüşümü uygulanır. Daubechies-2 dalgacıkları kullanılarak her bir EKG vurusu için dalgacık katsayıları hesaplanıp, ayrık dalgacık düzlemi oluşturulur. Araştırmanın ilk aşamalarında, öznitelik vektörü elemanları, 2-4. dalgacık ayrıştırma seviyelerindeki ayrıntı (d2, d3, d4) katsayılanyla oluşturulmuştur. Ancak, bu şekilde oluşturulan vektörlerin uzayda saçıldığı ve düşük diverjans değeri ürettiği gözlenmiştir. Bu nedenle, 4. seviyedeki dalgacık yaklaşıklık katsayıları (a4) ve bu katsayıların otokorelasyonlan da önceki özniteliklere ilave edilmiştir. Yeni oluşturulan öznitelik kümesine diverjans analizi uygulandığında, 4. seviye yaklaşıklık katsayıları ve bunların otokorelasyonlannm önceki katsayılardan daha avantajlı olduğu gözlenmiştir. EKG vurularını sınıflandırmak için öznitelik vektörlerinin oluşturulmasmda 4. seviye yaklaşıklık katsayıları ve bunların otokorelasyonlan literatürde ilk kez kullanılmıştır. Diverjans analizi, dalgacık temelli öznitelik vektörlerinin de bir miktar saçıldığını göstermektedir. Sınıflayın Olarak Yapay Sinir Ağları Sınıflama işlemlerinde karşımıza çıkan en önemli problem, incelenen fiziksel olayı temsil edebilecek doğru öznitelik uzayının her zaman oluşturulamamasıdır. Fiziksel olayların tümüne uyacak tek bir öznitelik çıkartma yöntemi de mevcut değildir. Bu yüzden sorunun çözümü, sınıflayıcı yapılan içinde aranmaktadır. Diverjans analizi, her iki yöntemle oluşturulan öznitelik vektörlerinin EKG'yi yeterince karakterize edemediğini göstermiştir. Bu nedenle tez çalışmasında, sınıflama başanmmı artırmak için sınırlayıcı olarak yapay sinir ağlan (YSA) kullanılmıştır. Yapay sinir ağlarının sınıflayıcı olarak kullanılmasma başlıca dört neden gösterilebilir: 1) Çözümleri XII temsil eden ağırlıklara adım adım eğitimle yaklaşılır, 2) YSA'lann fiziksel olarak gerçeklenme imkanı bulunmaktadır, 3) YSA'lar karmaşık smıf dağılımlarını kolaylıkla temsil edebilmektedir, 4) YSA'lar genelleme özellikleri sayesinde önceden karşılaşmadığı girişler için uygun sonuç üretebilmektedir. Çalışmada, sınıflama başanmını artırmak ve düğüm sayısını azaltmak için 3 yeni ağ yapısı geliştirilmiştir. Literatürde her ağın kendi özel algoritması ile eğitildiği gözlenmektedir. Tez içerisinde, yeni sinir ağı yapılarım kolayca eğitebilmek için genetik algoritmalar (GA) kullanılmıştır. GA'lar yeni ağ yapılarının eğitiminde başarılı sonuçlar vermiştir. Geliştirilen her yeni yapı için eğitim algoritması fazlaca değişmemiş, böylece yeni yapıların tasarımında ve onların eğitiminde bir zorlukla karşılaşılmamıştır. Yeni ağ yapılan araştırılırken test ve gözlem amaçlı iki boyutlu örnek bir uzay tanımlanmıştır. Örnek uzayın iki boyutlu olması, smıf sınırlarının ağ düğümleri tarafından temsil edilişinin görsel incelenmesine imkan vermiştir. Bu uzay, aynı zamanda klasik ağ eğitim algoritmalarının düğümleri yönlendirişi hakkında bilgi de vermektedir. Örnek uzayda beyaz, açık gri, ve koyu gri ile renklendirilmiş 3 tane smıf vardır (siyah renkli bölgeler herhangi bir sınıfa ait değildir). Her sınıftan 100 adet vektör alınarak eğitim kümesi oluşturulur. Ağların sınıflama yeteneklerini zor koşullarda test edebilmek için özellikle düşük diverjans değerli bir uzay seçilmiştir. Bu analiz, yeni sinir ağı yapılarının geliştirilmesinde kullamlmaktadır. Tez çalışmasında, genetik algoritmalar ile eğitilen 3 adet yeni YSA yapısı geliştirilmiştir. Smıf dağılımına ait bilgi düğümlerde iki şekilde temsil edilir: 1) Düğümlerin sadece yerel bilgiyi temsil etmesi, 2) Düğümlerin global bilgiyi temsil etmesi. İlk kısım için Kohonen, kısıtlı Coulomb enerji ağı (RCE, restricted Coulomb energy), büyü ve öğren ağı (GAL, grow and learn) ve öğrenen vektör nicemleyici ağını (LVQ, learning vector quantization) örnek olarak verebiliriz. Çok katmanlı ağ (ÇKA) ise ikincisine verilebilecek en önemli örnektir. GetKoh Ağı Genetik algoritmalar ile eğitilen Kohonen (GetKoh) ağında smıf dağılımı, yerel bilgi içeren düğümler tarafindan temsil edilir. GetKoh iki katmanlı bir ağdır. İlk saklı katmandaki düğümlerin ağırlık değerleri GA'lar ile belirlenir. İkinci katman lojik OR işlemini gerçekler. GetKoh ağı, GAL ve Kohonen ağlan ile karşılaştırmalı olarak incelenmiştir. GAL ve Kohonen ağlarına göre GetKoh ağının örnek uzayı ve EKG test kümelerini daha az düğüm ile daha iyi sınıfladığı gözlenmiştir (Tablo 1). Eğitim sırasında, GAL ağının düğümleri smıf sınırlarına yerleşir. Öznitelik uzayında vektörler saçılırsa, eğitim tamamlandıktan sonra ağda aşın sayıda düğüm üretilir. Kohonen'de eğitim sonrasında düğüm dağılımı GAL' dan farklıdır. Kohonen ağında vektörler, sınıfların iç bölgelerine homojen bir şekilde dağılır. Ancak, eğitim öncesinde yeterli sayıda düğüm ataması yapılmamışsa, smıf sınırlan yeterince iyi temsil edilememekte ve ağın sınıflama performansı düşmektedir. GetKoh ağında ise vektörler, ne smıf iç bölgelerinde ne de smıf sınırlarında yerleşme eğilimi gösterir. Genetik algoritmalar sayesinde vektörler optimum pozisyonlara yerleşir. GetÇKA Genetik algoritmalar ile eğitilen ÇKA'da (GetÇKA) smıf dağılımı, global bilgi içeren düğümler tarafından temsil edilmektedir. GetÇKA üç katmanlı bir ağdır. İlk X111 saklı katmandaki düğümlerin ağırlıkları n-boyutlu öznitelik uzayında hiper düzlemleri temsil eder. Bu katmandaki düğümlerin ağırlık değerleri GA'lar ile belirlenir. İkinci katmanda, ilk katman çıkışları ile ikinci katman düğümlerinin ağırlıkları arasındaki minimum mesafe araştırılır. Bu katmanda sadece kazanan düğüm aktif yapılır. Üçüncü katman ise lojik OR işlemini gerçeklemektedir. GetÇKA, çok katmanlı ağ ile karşılaştırılmıştır. ÇKA'ya göre GetÇKA ağının örnek uzayı ve EKG test kümelerini daha az düğüm ile daha iyi sınıfladığı gözlenmiştir. ÇKA'da üç dezavantaj bulunmaktadır: 1) Geriye-yayılma algoritması eğitim sırasında uzun zaman almaktadır. 2) Katmanlardaki düğüm sayısı eğitimden önce belirlenmelidir. Yapı, eğitim sırasında otomatik olarak belirlenemez. 3)Geriye- yayılma algoritması yerel minimumlara yakalanmakta, bu ise ağın başanmmı düşürmektedir. Çalışmada yukarda sıralanan problemlere GA'lar ile çözümler getirilmiştir. Eğitim algoritması ile saklı katmana artımsal bir yapı özelliği kazandırılmış, ağın eğitim sırasında büyümesi sağlanmıştır. GetPrz ve GetRCE ağları Genetik algoritmalar ile eğitilen prizma (GetPrz) ve RCE (GetRCE) ağlan tez içerisinde ilk kez geliştirilmiştir. Bu ağlarda smıf dağılımı, global bilgi içeren düğümler tarafından temsil edilir. İlk saklı katmandaki düğümlerin ağırlıkları, n- boyutlu öznitelik uzayında hiper prizmaları (GetPrz'de) ve hiper küreleri (GetRCE'de) temsil etmektedir. ÇKA'nın ilk saklı katmanındaki düğümlerin ağırlıkları ise hiper düzlemleri temsil eder. ÇKA'da hiper düzlemler kesiştirilerek bölgeler oluşturulmaktadır. Yeni hibrit yapılarda da hiper prizma ve hiper küreler birbirleriyle kesiştirilerek bölgeler oluşturulmaktadır. Geliştirilen yeni ağlar, öznitelik uzayında düğüm sayısından daha fazla sayıda bölge oluşturmaktadır. Analizler, hiper prizma ve kürelerin ÇKA'da kullanılan düzlemlerden daha avantajlı olduğunu göstermektedir. Hiper kürelerin/prizmaların kesiştirilmesi ile ÇKA'nın oluşturabileceğinden daha fazla sayıda bölge elde edildiği gözlenmiştir. RCE ağında iki dezavantaj bulunmaktadır: 1) RCE ağında, hiper küreler biribirleriyle kesişim yapmaz. Bir hiper küre tek bir kapalı bölge oluşturmaktadır. Oysa geliştirilen yeni yapılar, öznitelik uzayını daha fazla bölgeye ayırabilme yeteneğindedir. 2) RCE'nin eğitim algoritması hiper küreleri optimum pozisyona yerleştirmez. GetPrz ve GetRCE ağlan üç katmana sahiptir. İlk saklı katmandaki düğümlerin ağırlık değerleri GA'lar ile belirlenir. İkinci katmanda, ilk katman çıkışlan ile ikinci katman düğümlerinin ağırlıklan arasındaki minimum mesafe araştınlır. Bu katmanda sadece kazanan düğüm aktif yapılır. Üçüncü katman ise lojik OR işlemini gerçekler. GetPrz ve GetRCE ağlan, RCE ağı ile karşılaştınlmıştır. RCE'ye göre GetPrz ve GetRCE ağlarının, örnek uzayı ve EKG test kümelerini daha az düğüm ile daha iyi sınıfladığı gözlenmiştir. GetNicAğı Genetik algoritmalar ile eğitilen nicemleme (GetNic) ağı tez içerisinde ilk kez geliştirilmiştir. Bu ağda smıf dağılımı, global bilgi içeren düğümler tarafından temsil edilmektedir. İlk saklı katmandaki düğümlerin ağırlıklan n-boyutlu öznitelik uzayında hiper düzlemleri temsil eder. Ancak hiper düzlemler için bir kısıt getirilmiştir: Herbir hiper düzlem tek bir boyut eksenine dik, diğerlerine paralel olmalıdır. Böylece birinci katmandaki bir düğüm, tek bir parametre ile temsil edilir. Yeni hibrit yapıda da hiper düzlemler birbirleriyle kesiştirilerek öznitelik uzayı XIV bölmelenmektedir. Analizler, bu ağın incelenen tüm ağlardan daha az sayıda parametre kullanarak daha fazla bölge oluşturabildiğini göstermiştir. GetNic üç katmana sahiptir. İlk saklı katmandaki düğümlerin ağırlık değerleri GA'lar ile belirlenir, ikinci katmanda, ilk katman çıkışları ile ikinci katman düğümlerinin ağırlıkları arasındaki minimum mesafe araştırılır. Bu katmanda sadece kazanan düğüm aktif yapılır. Üçüncü katman ise lojik OR işlemini gerçekler. İncelenen tüm ağlara göre GetNic ağının örnek uzayı ve EKG test kümelerini daha az parametre kullanarak daha iyi başarımla sınıfladığı gözlenmiştir. Bir düğüm tek bir parametre ile temsil edildiğinden, ilk saklı katmandaki düğüm sayısı aşın derecede büyür. Bu sorunu gidermek için, aynı boyut eksenini bölmeleyen düğümler toplanır ve herbir boyut için tek bir çıkış oluşturulur. Böylece, ilk saklı katmandaki çıkış düğümü sayısı, giriş düğümü sayışma (boyut sayışma) eşitlenir. Tablo l'de ağların ilk katmanlarındaki parametre sayılan (PS) ve sınıflama başanmlan verilmiştir. Dalgacık öznitelik kümesi ile daha az düğüm kullanılarak daha iyi sınıflama basanını elde edildiği gözlenmiştir. Sonuçlar, ayrık dalgacık dönüşümü ile elde edilen öznitelik vektörlerinin ayrık Fourier dönüşümü ile elde edilenlerden daha az saçıldığını göstermektedir. Tablo 1. YSA'lann örnek uzayı ve EKG öznitelik kümelerini sınıflama başanmlan RCE, ÇKA, Kohonen ve GAL ağlarına kıyasla, genetik algoritmalar ile eğitilen ağların daha az parametre kullanarak daha yüksek başanmlar verdiği gözlenmektedir. Çalışmada kullanılan EKG verileri MIT-BIH veri tabanından alınmıştır. Algoritmalar, C dili ve MATLAB paket programı kullanılarak PC'de geliştirilmiştir. XV Classification of ECG Beats by Using Artificial Neural Networks and Genetic Algorithms SUMMARY The electrocardiogram (ECG) has considerable significance in cardiac disease diagnosis. However, long-term ECG records are required to get meaningful information about the heart condition. In order to analyse fast and to reduce the data stored in the system, ECG beats must be automatically separated into categories that contain a-priori information about the diseases. Only the ECG beats of specific types are stored in the system upon request. Since the amount of the saved data is reduced, search and analysis become quite fast. It is important to increase the number of categories to enhance the analysis. However, as the number of categories increases, performance of the class separation decreases. In this thesis, a new feature extraction method based on wavelet transform and 3 new neural network structures are developed to increase both the number of categories and the performance of class separation. ECG beats are classified into 10 categories: Normal beat (N), left bundle branch block beat (L), right bundle branch block beat (R), premature ventricular contraction (V), paced beat (P), nonconducted P wave (p), aberrated atrial premature beat (a), fusion of ventricular and normal beat (F), fusion of paced and normal beat (f), and ventricular escape beat (E). Decision making is performed in three stages: Normalization process, feature extraction methods, and artificial neural networks as the classifiers. Normalization Process Feature extraction processes are affected by the peak-to-peak magnitudes, the offset of the signal, and R-peak position in the windowed ECG. These effects are due to physiology, sex and age of the patient, and parameters of the measurement system. In the normalization, three processes are realized: 1) A rectangular window is formed so that a single QRS complex is contained in this window. ECG signals are adjusted so that the positions of the R-peaks are centered in the window. 2) Peak-to-peak magnitudes of the ECG signal are normalized to 1 mV value. Thus, it is provided that classification decision does not depend on the maximum amplitude of the ECG records. 3) Mean value of the ECG signal in the window is fixed to zero value. Thus, offset is removed from the signal. The dependence of the feature extraction method to the offset and the peak-to-peak magnitude of the signal is decreased by the normalization process. 
The electrocardiogram (ECG) has considerable significance in cardiac disease diagnosis. However, long-term ECG records are required to get meaningful information about the heart condition. In order to analyse fast and to reduce the data stored in the system, ECG beats must be automatically separated into categories that contain a-priori information about the diseases. Only the ECG beats of specific types are stored in the system upon request. Since the amount of the saved data is reduced, search and analysis become quite fast. It is important to increase the number of categories to enhance the analysis. However, as the number of categories increases, performance of the class separation decreases. In this thesis, a new feature extraction method based on wavelet transform and 3 new neural network structures are developed to increase both the number of categories and the performance of class separation. ECG beats are classified into 10 categories: Normal beat (N), left bundle branch block beat (L), right bundle branch block beat (R), premature ventricular contraction (V), paced beat (P), nonconducted P wave (p), aberrated atrial premature beat (a), fusion of ventricular and normal beat (F), fusion of paced and normal beat (f), and ventricular escape beat (E). Decision making is performed in three stages: Normalization process, feature extraction methods, and artificial neural networks as the classifiers. Normalization Process Feature extraction processes are affected by the peak-to-peak magnitudes, the offset of the signal, and R-peak position in the windowed ECG. These effects are due to physiology, sex and age of the patient, and parameters of the measurement system. In the normalization, three processes are realized: 1) A rectangular window is formed so that a single QRS complex is contained in this window. ECG signals are adjusted so that the positions of the R-peaks are centered in the window. 2) Peak-to-peak magnitudes of the ECG signal are normalized to 1 mV value. Thus, it is provided that classification decision does not depend on the maximum amplitude of the ECG records. 3) Mean value of the ECG signal in the window is fixed to zero value. Thus, offset is removed from the signal. The dependence of the feature extraction method to the offset and the peak-to-peak magnitude of the signal is decreased by the normalization process. XVI Feature Extraction Methods In this study, the window is formed by 256 discrete data. Test and training sets are separately formed by choosing 10x50 vectors of 15 dimensions. Feature extraction is carried out after the normalization process. Feature vector dimension is selected as 15 in both feature extraction methods. Increasing the dimension is advantageous, but high computational cost is introduced. In the study, divergence analysis is utilized to compare the performances of the two different feature extraction methods and to determine the best features. Divergence analysis enables us to order the features in the vectors according to their importance in class separation, and gives information about the distribution of the class vectors. As the class vectors scatter, the divergence value decreases. Two feature extraction methods, Fourier analysis and wavelet analysis, for ECG beat classification are comparatively investigated. At the beginning of the study, the elements of the feature vectors were formed by using the discrete Fourier transform (DFT). Divergence analysis together with dynamic programming was used to find a subset of best 15 features from a set of calculated 40 coefficients of the signal. It is observed that vectors formed by the DFT of the signal scatter, leading to a low divergence value. Results directed us to find new feature extraction methods. At that moment, wavelet analysis emerged as a promising feature extraction method that is highly used in the literature. The second feature extraction method involves a dyadic wavelet transform of a window of data of length 256 around the R-peak. Feature vectors are formed by using Daubechies-2 wavelets. For each ECG beat, wavelet coefficients are computed. Using these wavelet coefficients, wavelet plane is formed. At the beginning of the study, feature vectors were formed by using the wavelet detail coefficients (d2, d3, d4) at the levels from 2 to 4. However, it is observed that feature vectors formed by these coefficients scatter, leading to a low divergence value. For that reason, 4th level wavelet approximation coefficients (a4) and autocorrelation coefficients of these approximation values were added to the previous features. Divergence analysis on this new feature set showed the 4th level wavelet approximation coefficients and their autocorrelations to be more advantageous than the previous coefficients. 4th level wavelet approximation coefficients and their autocorrelations are firstly used in the literature in ECG beat classification. Divergence value shows that wavelet based feature vectors also scatter in the feature space. Artificial Neural Networks as Classifiers Constitution of the right feature space for the physical process under study is a common problem in connection with classification. There is not a unique feature extraction method that can suit all kinds of data items. In this case, the solution of the problem is searched in the classifier structures. Hence, divergence analysis showed that the required representation of the ECG signal could not be achieved by the feature vectors obtained in the preceding methods. Therefore, in this thesis, artificial neural networks (ANNs) are used as classifiers to increase the classification performance. There are four reasons to use an artificial neural network as a classifier: 1) Weights representing the solutions are found by iteratively training, 2) ANN has a simple structure for physical implementation, 3) ANN can easily map complex class xvn distributions, 4) Generalization property of the ANN produces appropriate results to the input vectors that are not present in the training set. In order to increase the classification performance and to decrease the number of nodes, 3 new neural network structures are developed. In the literature, it is observed that each neural network was trained by its own special algorithm. In this thesis, genetic algorithms (GAs) are used to train the new neural network structures easily. GAs gave satisfactory solutions in the training of the new neural network structures. The training algorithms of the developed networks are similar. Thus, no difficulty is encountered in the design and training of the new networks. During the search of new network structures, a two dimensional sample space is formed for test and observation purposes. Analysis in two dimensions gives a visual information about the representation of the class boundaries by the nodes. The sample space also gives information about how the training algorithms of the classical networks direct the nodes in the feature space. In the sample space, there are three classes: white, light gray, and dark gray (black coloured region does not belong to any class). Training set is formed by taking 100 vectors from each class in the space. A sample space with a low divergence value is specially selected to force the networks and to test their classification abilities. This analysis will be used in the development of new neural network structures. In this thesis, 3 new ANN structures trained by genetic algorithms are developed. Information about the class distribution is represented by the nodes in two ways: 1) By using nodes which represent only local information. 2) By using nodes which represent global information. Kohonen, RCE (restricted Coulomb energy), GAL (grow and learn), and LVQ (learning vector quantization) networks are examples for the first method. MLP (multi layer perceptron) is the best example for the second method. GetKoh Network In the first developed neural network (GetKoh, Kohonen network trained by GAs), class distribution is represented by using nodes that contain local information. GetKoh has two layers. The weights of the nodes in the first hidden layer are adjusted by the GAs. Second layer is used to perform logical OR operation. GetKoh is comparatively examined with the GAL and Kohonen networks. It is observed that, sample space and ECG test sets are successfully classified by the GetKoh with less number of nodes compared to the GAL and Kohonen networks (Table 1). The nodes of the GAL network locate at the boundaries of the classes during the training. If the vectors scatter in the feature space, excessive number of nodes is generated after the training. The nodes of the Kohonen network homogenously move to the inner regions of the classes. If enough number of nodes is not assigned before the training, class boundaries can not be sufficiently represented, and the classification performance of the network decreases. The nodes of the GetKoh neither move to the inner regions, nor locate at the boundaries. They are directed to optimum vector positions by the GAs. GetÇKA Network In GetÇKA (MLP trained by GAs), class distribution is represented by using nodes that contain global information. Weights of the nodes in the first hidden layer form xvin hyper planes in n-dimensional feature space. GetÇKA has three layers. The weights of the nodes in the first hidden layer are adjusted by the GAs. Second layer is used to search the minimum distance between the weights of the second layer nodes and the output of the first layer. Only the output of the winner node is activated. The third layer is used to perform logical OR operation. GetÇKA is compared with MLP. It is observed that, sample space and ECG test sets are successfully classified by the GetÇKA with less number of nodes compared to the MLP. MLP has three disadvantages: 1) Back-propagation algorithm takes too long time during learning, 2) The number of nodes in the hidden layers must be defined before the training. The structure is not automatically determined by the training algorithm, 3) Back-propagation algorithm may be caught by locaLminima, which decreases network performance. It is observed that GAs have produced solutions to the problems mentioned above. By the use of GAs, learning takes less time to reach a satisfactory solution, and the structure of the hidden layer can be made incremental allowing the network structure to evolve during the learning. GetPrz and GetRCE Networks GetPrz (prism network trained by GAs) and GetRCE (RCE network trained by GAs) neural networks are new structures that are developed in this thesis. In these networks, class distribution is represented by using nodes that contain global information. Weights of the nodes in GetPrz and GetRCE represent hyper prisms and hyper spheres in n-dimensional feature space, respectively. The nodes in the first hidden layer of the MLP represent hyper planes. Class regions are formed by intersecting the hyper planes with each other. In the new hybrid structures, class regions are formed by intersecting the hyper prisms and hyper spheres with each other. There are more closed regions than the number of nodes in the feature space. Analyses show that in forming class regions, hyper prisms and hyper spheres are more advantages than the hyper planes used in MLP. More regions are formed by intersecting the hyper spheres/prisms compared to the MLP. RCE network has two disadvantages: 1) Hyper spheres do not make intersections with each other. Each hyper sphere forms a single closed region. However, the new networks partition the feature space more than the RCE network does. 2) Training algorithm of the RCE does not direct the hyper spheres to the optimum positions. GetPrz and GetRCE networks have three layers. The weights of the nodes in the first hidden layer are adjusted by the GAs. Second layer is used to search the minimum distance between the weights of the second layer nodes and the output of the first layer. Only the output of the winner node is activated. The third layer is used to perform logical OR operation. GetPrz and GetRCE are comparatively examined with RCE network. It is observed that, sample space and ECG test sets are successfully classified by the GetPrz and GetRCE with less number of nodes compared to the RCE. GetNic Network GetNic (restricted MLP trained by GAs) network is another new structure that is developed in this thesis. In the network, class distribution is represented by using nodes that contain global information. Weights of the nodes represent hyper planes in n-dimensional space. But, there is a constraint on the hyper planes. Each hyper plane should be perpendicular to one dimension axis, and should be parallel to the others. XIX Therefore, one node of the new network is formed by a single parameter. In the new hybrid structure, class regions are formed by intersecting the hyper planes with each other. Analyses show that the new network generates more regions than the other networks by using less number of parameters. GetNic has three layers. The weights of the nodes in the first hidden layer are adjusted by the GAs. Second layer is used to search the minimum distance between the weights of the second layer nodes and the output of the first layer. Only the output of the winner node is activated. The third layer is used to perform logical OR operation. GetNic is comparatively examined with MLP. It is observed that, sample space and ECG test sets are successfully classified by the GetNic with less number of parameters compared to all other networks examined. "~ Since a node is represented by a single parameter, the number of nodes in the first hidden layer increases excessively. In order to solve this problem, the nodes, which partition the same dimension axis, are summed and a single output is formed for each dimension. Thus, the number of output nodes at the first hidden layer is made equal to the number of input nodes and the number of dimension. Table 1 shows the number of parameters (NoP) in the first layer and classification performances (CP) of the networks. Wavelet feature set is found to result in better classification accuracy with less number of nodes. These results show that feature vectors obtained by the wavelet transform scatter less than the ones obtained by DFT. Table 1. Classification results of the sample space and ECG feature sets by neural networks It is observed that neural networks trained by genetic algorithms give satisfactory results using less number of parameters compared to RCE, MLP, GAL and Kohonen networks. All the evaluations in this thesis are performed on the MrT-BLH arrhythmia database. The results presented in this thesis were produced by software implementation of the algorithms. The programs were developed using C language and MATLAB tools on PC. 
Açıklama
Tez (Doktora) -- İstanbul Teknik Üniversitesi, Fen Bilimleri Enstitüsü, 2000
Thesis (Ph.D.) -- İstanbul Technical University, Institute of Science and Technology, 2000
Anahtar kelimeler
Dalgacık dönüşümleri, Elektrokardiyografi, Genetik algoritmalar, Yapay sinir ağları, Wavelet transforms, Electrocardiography, Genetic algorithms, Artificial neural networks
Alıntı