Arama Sonuçları

Listeleniyor 1 - 5 / 5
  • Yayın
    Uyarlanır yerel bağlı katman kullanan dikkat tabanlı derin ağ ile sesli komut tanıma
    (Institute of Electrical and Electronics Engineers Inc., 2020-10-05) Turkan, Yasemin; Tek, Faik Boray
    Sesli komut tanıma insan-makine ara yüzüyle ilişkili aktif bir araştırma konusudur. Dikkat tabanlı derin ağlar ile bu tür problemler başarılı bir şekilde çözülebilmektedir. Bu çalışmada, var olan bir dikkat tabanlı derin ağ yöntemi, uyarlanır yerel bağlı (odaklanan) katman kullanılarak daha da geliştirilmiştir. Orijinal yönteminde sınandığı Google ve Kaggle sesli komut veri setlerinde karşılaştırmalı olarak yapılan deneylerde önerdiğimiz uyarlanır yerel bağlı katman kullanan dikkat tabanlı ağın tanıma doğruluğunu %2.6 oranında iyileştirdiği gözlemledik.
  • Yayın
    An adaptive locally connected neuron model: Focusing neuron
    (Elsevier B.V., 2021-01-02) Tek, Faik Boray
    This paper presents a new artificial neuron model capable of learning its receptive field in the topological domain of inputs. The experiments include tests of focusing neuron networks of one or two hidden layers on synthetic and well-known image recognition data sets. The results demonstrated that the focusing neurons can move their receptive fields towards more informative inputs. In the simple two-hidden layer networks, the focusing layers outperformed the dense layers in the classification of the 2D spatial data sets. Moreover, the focusing networks performed better than the dense networks even when 70% of the weights were pruned. The tests on convolutional networks revealed that using focusing layers instead of dense layers for the classification of convolutional features may work better in some data sets.
  • Yayın
    Odaklanan nöron
    (IEEE, 2017-06-27) Çam, İlker; Tek, Faik Boray
    Geleneksel yapay sinir ağında topoloji eğitim sırasında değişebilecek esnekliğe sahip değildir. Ağda her bir nöron ve bağımsız bağlantı katsayıları çözüm işlevinin bir parçasıdır. Bu bildiride önerdiğimiz odaklanabilir nöron birbirine bağımlı katsayıların çekildiği bir odaklayıcı işlevden yararlanır. Nöron odak pozisyonu ve açıklığını değiştirerek aktivasyon topladığı nöronları değiştirebilir. Bu özelliği sayesinde esnek ve dinamik bir ağ topolojisi oluşturabilir ve standart geriye yayılım algoritmasıyla eğitilebilir. Yapılan deneylerde odaklanabilir nöronlarla kurulan bir ağ yapısının, tümüyle bağlı yapay sinir ağına göre daha yüksek başarı elde ettiği gözlenmiştir.
  • Yayın
    Adaptive locally connected recurrent unit (ALCRU)
    (Springer Science and Business Media Deutschland GmbH, 2025-07-03) Özçelik, Şuayb Talha; Tek, Faik Boray
    Research has shown that adaptive locally connected neurons outperform their fully connected (dense) counterparts, motivating this study on the development of the Adaptive Locally Connected Recurrent Unit (ALCRU). ALCRU modifies the Simple Recurrent Neuron Model (SimpleRNN) by incorporating spatial coordinate spaces for input and hidden state vectors, facilitating the learning of parametric local receptive fields. These modifications add four trainable parameters per neuron, resulting in a minor increase in computational complexity. ALCRU is implemented using standard frameworks and trained with back-propagation-based optimizers. We evaluate the performance of ALCRU using diverse benchmark datasets, including IMDb for sentiment analysis, AdditionRNN for sequence modelling, and the Weather dataset for time-series forecasting. Results show that ALCRU achieves accuracy and loss metrics comparable to GRU and LSTM while consistently outperforming SimpleRNN. In particular, experiments with longer sequence lengths on AdditionRNN and increased input dimensions on IMDb highlight ALCRU’s superior scalability and efficiency in processing complex data sequences. In terms of computational efficiency, ALCRU demonstrates a considerable speed advantage over gated models like LSTM and GRU, though it is slower than SimpleRNN. These findings suggest that adaptive local connectivity enhances both the accuracy and efficiency of recurrent neural networks, offering a promising alternative to standard architectures.
  • Yayın
    Integrating the focusing neuron model with N-BEATS and N-HiTS
    (Institute of Electrical and Electronics Engineers Inc., 2024) Özçelik, Şuayb Talha; Tek, Faik Boray
    The N-BEATS (Neural Basis Expansion Analysis for Time Series) model is a robust deep learning architecture designed specifically for time series forecasting. Its foundational idea lies in the use of a generic, interpretable architecture that leverages backward and forward residual links to predict time series data effectively. N - BEATS influenced the development of N-HiTS (Neural Hierarchical Interpretable Time Series), which builds upon and extends the foundational ideas of N-BEATS. This paper introduces new integrations to enhance these models using the Focusing Neuron model in blocks of N-BEATS and N-HiTS instead of Fully Connected (Dense) Neurons. The integration aims to improve the forward and backward forecasting processes in the blocks by facilitating the learning of parametric local receptive fields. Preliminary results indicate that this new usage can significantly improve model performances on datasets that have longer sequences, providing a promising direction for future advancements in N-BEATS and N-HiTS.