Arama Sonuçları

Listeleniyor 1 - 2 / 2
  • Yayın
    Çok ölçekli görsel benzerlik analizi ile oltalama saldırısı tespiti
    (Institute of Electrical and Electronics Engineers Inc., 2025-08-15) Kılıç, Bartu; Çeliktaş, Barış
    Oltalama saldırıları teknolojinin gelişmesiyle günümüzün en yaygın siber güvenlik tehditlerinden biri haline gelmiştir. Bu çalışma, web sitelerinin ekran görüntülerini gelişmiş bir görsel benzerlik analizi yöntemiyle inceleyerek oltalama saldırılarını yüksek doğrulukla tespit eden bir yaklaşım sunmaktadır. Oltalama tespiti için önerilen yöntemde, algısal özütleme tabanlı çoklu çözünürlük analizi, akıllı ilgi bölgesi (ROI) tespiti ve çoklu metrik füzyonu gibi teknikler birleştirilerek yüksek doğrulukta tespit yapılabilmektedir. Veri seti, popüler bankacılık, e-posta ve sosyal medya platformlarının gerçek ve oltalama sayfalarından oluşan 23 gerçek ve 3 oltalama sayfası ekran görüntülerinden derlenmiştir. Yapılan testler, yöntemin %85 doğruluk oranı ile tekil metrik tabanlı yaklaşımlardan daha iyi performans gösterdiğini ortaya koymuştur. Dil bağımsız çalışan bu yöntem, URL ve HTML manipülasyonlarına karşı dayanıklıdır ve gerçek zamanlı oltalama tespiti için güçlü bir çözüm sunmaktadır.
  • Yayın
    Secure and interpretable dyslexia detection using homomorphic encryption and SHAP-based explanations
    (Institute of Electrical and Electronics Engineers Inc., 2025-10-25) Harb, Mhd Raja Abou; Çeliktaş, Barış; Eroğlu, Günet
    Protecting sensitive healthcare data during machine learning inference is critical, particularly in cloud-based environments. This study addresses the privacy and interpretability challenges in dyslexia detection using Quantitative EEG (QEEG) data. We propose a privacy-preserving framework utilizing Homomorphic Encryption (HE) to securely perform inference with an Artificial Neural Network (ANN). Due to the incompatibility of non-linear activation functions with encrypted arithmetic, we employ a dedicated approximation strategy. To ensure model interpretability without compromising privacy, SHapley Additive exPlanations (SHAP) are computed homomorphically and decrypted client-side. Experimental evaluations demonstrate that the encrypted inference achieves an accuracy of 90.03% and an AUC of 0.8218, reflecting only minor performance degradation compared to plaintext inference. SHAP value comparisons (Spearman correlation = 0.59) validate the reliability of the encrypted explanations. These results confirm that integrating privacy-preserving and explainable AI approaches is feasible for secure, ethical, and compliant healthcare deployments.