Eğitim İçeriği

AI Tehdit Modeline Giriş

  • AI sistemleri neden zafiftir?
  • AI saldırma yüzeyi ve geleneksel sistemler karşılaştırması
  • Ana saldırı vektörleri: veri, model, çıktı ve arayüz katmanları

Adversarial Saldırılar AI Modellerine Karşı

  • Adversarial örneklerin ve perturbasyon tekniklerinin anılması
  • Beyaz kutu vs siyah kutu saldırıları
  • FGSM, PGD ve DeepFool yöntemleri
  • Adversarial örneklerin görselleştirilmesi ve oluşturma

Model Tersine Çevirme ve Gizlilik Fıksi

  • Eğitimsel veriyi model çıktısından çıkarmak
  • Üyelik tahmini saldırıları
  • Sınıflandırma ve üretici modellere gizlilik riskleri

Veri Zehirlenmesi ve Geri Kapı Enjeksiyonları

  • Zehirli verinin model davranışını nasıl etkilediği
  • Tetik tabanlı geri kapılar ve Trojan saldırıları
  • Algılama ve temizleme stratejileri

Dayanıklılık ve Savunma Teknikleri

  • Adversarial eğitim ve veri artırımı
  • Gradyan gizleme ve giriş önişlemesi
  • Model yumuşatma ve düzenleyici teknikler

Gizliliğe Dayalı AI Savunmaları

  • Diferansiyel gizlilik girişine genel bakış
  • Gürültü ekleme ve gizlilik bütçesi
  • Federal öğrenme ve güvenli toplama

AI Security Uygulamada

  • Tehdit bilinci model değerlendirme ve dağıtım
  • ART (Adversarial Robustness Toolbox) uygulama ayarlarında kullanımı
  • Sektör durum analizleri: gerçek dünya ihlalleri ve azaltmaları

Özeti ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenimi iş akışlarını ve model eğitiminin anlaşılması
  • Python ile ve PyTorch veya TensorFlow gibi yaygın ML çerçeveleriyle deneyim
  • Temel güvenlik veya tehdit modelleme kavramlarıyla tanışlık faydalı olabilir

Kitle

  • Makine öğrenimi mühendisleri
  • Siber güvenlik analisti
  • AI araştırmacıları ve model doğrulama ekibi
 14 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Yaklaşan Etkinlikler

İlgili Kategoriler