Derin öznitelikler ile anlambilimsel görüntü bölütleme
Yükleniyor...
Dosyalar
Tarih
2018-07-05
Yazarlar
Dergi Başlığı
Dergi ISSN
Cilt Başlığı
Yayıncı
Institute of Electrical and Electronics Engineers Inc.
Erişim Hakkı
info:eu-repo/semantics/closedAccess
Özet
Derin evrişimsel sinir ağları (ESA) pek çok sınıflandırma probleminde olduğu gibi anlambilimsel görüntü bölütlemede de çok ciddi başarı göstermiştir. Fakat derin ağların eğitilmesi hem zaman alıcıdır hem de geniş bir eğitim veri kümesine ihtiyaç duymaktadır. Bir veri kümesinde eğitilen ağın başka bir görev ya da veri kümesine uygulanabilmesi için transfer öğrenme ile yeniden eğitilmesi gerekmektedir. Transfer öğrenmeye alternatif olarak ağ katmanlarından çıkarılan öznitelik vektörleri doğrudan sınıflandırma amaçlı kullanılabilir. Bu bildiride genel ESA mimarilerinden elde edilen özniteliklerin eğitim gerektirmeyen bir görüntü etiketleme yönteminde kullanılmasının sınıflandırma başarımına katkısı incelenmiştir. Derin ağlarda ‘öğrenilmiş’ öznitelikler ile SIFT gibi ‘el yapımı’ özniteliklerin birlikte kullanılmasının etiketleme doğruluğunu artırdığı gösterilmiştir. Varolan ön eğitimli ağların kullanılması sayesinde önerilen yaklaşım herhangi bir veri kümesinde yeniden eğitime gerek olmadan kolayca uygulanabilmektedir. Önerilen yöntem iki veri kümesinde test edilmiş ve etiketleme doğruluğu benzer yöntemlerle karşılaştırmalı olarak sunulmuştur.
Deep convolutional neural networks (CNN) have shown significant success in many classification problems including semantic image segmentation. However training of deep networks is time consuming and requires large training datasets. A network trained in one dataset could be applied to another task or dataset through transfer learning and retraining. As an alternative to transfer learning, feature vectors that are extracted from network layers could be directly used for classification purposes. In this paper we investigate the improvement in classification performance when features extracted from generic CNN architectures are used in an image labeling algorithm that does not require training. We show that the use of 'learned' features from deep networks together with 'hand-crafted' features such as SIFT increases the labeling accuracy. Since existing pre-trained networks are used, the proposed approach could be easily applied to any dataset without any retraining. The proposed method is tested in two datasets and labeling accuracies are compared with similar existing methods.
Deep convolutional neural networks (CNN) have shown significant success in many classification problems including semantic image segmentation. However training of deep networks is time consuming and requires large training datasets. A network trained in one dataset could be applied to another task or dataset through transfer learning and retraining. As an alternative to transfer learning, feature vectors that are extracted from network layers could be directly used for classification purposes. In this paper we investigate the improvement in classification performance when features extracted from generic CNN architectures are used in an image labeling algorithm that does not require training. We show that the use of 'learned' features from deep networks together with 'hand-crafted' features such as SIFT increases the labeling accuracy. Since existing pre-trained networks are used, the proposed approach could be easily applied to any dataset without any retraining. The proposed method is tested in two datasets and labeling accuracies are compared with similar existing methods.
Açıklama
Anahtar Kelimeler
Anlambilimsel bölütleme, Derin ağlar, ESA öznitelikleri, Classification performance, CNN features, Deep convolutional neural networks, Deep networks, Deep neural networks, Dogs, Feature extraction, Feature vectors, Generic CNN architectures, Hand-crafted features, Histograms, Image classification, Image enhancement, Image labeling algorithm, Image representation, Image segmentation, Labeling, Labeling accuracies, Learning (artificial intelligence), Network layers, Neural nets, Neural networks, Pattern classification, Pre-trained networks, Scene labeling, Semantic image segmentation, Semantic image segmentations, Semantic segmentation, Semantics, Training, Training data sets, Training datasets, Transfer learning
Kaynak
26th IEEE Signal Processing and Communications Applications Conference, SIU 2018
WoS Q Değeri
N/A
Scopus Q Değeri
N/A
Cilt
Sayı
Künye
Sünetci, S. & Ateş, H. F. (2018). Semantic image segmentation with deep features. Paper presented at the 26th IEEE Signal Processing and Communications Applications Conference, SIU 2018, 1-4. doi:10.1109/SIU.2018.8404257