Eğitim İçeriği

AI Tehdit Modellemesi Giriş

  • Neden AI sistemleri zayıftır?
  • AI saldırısı yüzeyi vs geleneksel sistemler
  • Ana saldırı vektörleri: veri, model, çıktı ve arayüz katmanları

AI Modellerine Düşmanca Saldırılar

  • Düşmanca örnekleri ve pertürbasyon tekniklerini anlama
  • Açık-kutu vs kapalı-kutu saldırıları
  • FGSM, PGD ve DeepFool yöntemleri
  • Düşmanca örneklerin görselleştirilmesi ve oluşturulması

Model Ters Çevirme ve Gizlilik Sızıntısı

  • Model çıktısından eğitim verisini çıkarma
  • Üyelik çıkarım saldırıları
  • Sınıflandırma ve üreteç modellerdeki gizlilik riskleri

Veri Zehirlemesi ve Geri Kapı Enjeksiyonları

  • Zehirli verinin model davranışını nasıl etkilediği
  • Tetik tabanlı geri kapılar ve Trojan saldırıları
  • Tespit ve temizleme stratejileri

Dayanıklılık ve Savunma Teknikleri

  • Düşmanca eğitim ve veri artırımı
  • Gradyan maskeleme ve giriş önişlemeleri
  • Model düzleştirme ve düzenlendirme teknikleri

Gizlilik Koruyan AI Savunmaları

  • Farklılık gizliliği tanıtımı
  • Gürültü enjeksiyonu ve gizlilik bütçeleri
  • Federasyon öğrenimi ve güvenli birleştirme

AI Güvenliği Pratikte

  • Tehdit bilincine sahip model değerlendirme ve dağıtma
  • ART (Adversarial Robustness Toolbox) uygulamalı ortamlarda kullanımı
  • Endüstri kazanç analizleri: gerçek dünyada güvenlik ihlalleri ve azaltma stratejileri

Özet ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenimi iş akışları ve model eğitimi konusunda bir anlayış
  • Python ve PyTorch veya TensorFlow gibi yaygın ML çerçeveleri ile deneyim
  • Temel güvenlik veya tehdit modelleme kavramlarına aşinalık yararlıdır.

Hedef Kitle

  • Makine öğrenimi mühendisleri
  • Siber güvenlik analistleri
  • AI araştırmacıları ve model doğrulama ekibleri
 14 Saatler

Katılımcı Sayısı


Katılımcı başına fiyat

Danışanlarımızın Yorumları (1)

Yaklaşan Etkinlikler

İlgili Kategoriler