Eğitim İçeriği

Aİ Red Teaming'e Giriş

  • Aİ tehdit zeminini anlamak
  • Aİ güvenliği içinde kırmızı ekibin rolleri
  • Etiyolojik ve yasal düşünceler

Adversarial Machine Learning

  • Saldırı türleri: kaçış, zehirleme, çıkarma, çıkarım
  • Karşıtı örnekler üretmek (örn., FGSM, PGD)
  • Hedefli vs hedefsiz saldırılar ve başarı metrikleri

Model Dayanıklılığını Test Etme

  • Tartışmalar altında dayanıklılığı değerlendirme
  • Model kör noktalarını ve başarısızlık modellerini keşfetme
  • Sınıflandırma, görme ve NLP modellerinin stres testi

Aİ Pipeline'larını Kırmızı Ekibin Test Etmek

  • Aİ pipeline'larının saldırı yüzeyi: veri, model, dağıtım
  • Güvenli olmayan model API'lerini ve uç noktalarını zorlamak
  • Model davranışını ve çıktılarını ters mühendislik yapmak

Simülasyon ve Araçlar

  • Karşıtı Dayanıklılık Kiti (ART) kullanma
  • TextAttack ve IBM ART gibi araçlarla kırmızı ekibin test etmek
  • Sandık, izleme ve gözlem araçları

Aİ Kırmızı Ekibi Stratejisi ve Savunma Collaboration

  • Kırmızı ekip egzersizlerini ve hedeflerini geliştirmek
  • Buluntuları mavi ekiple paylaşmak
  • Aİ risk yönetimi içinde kırmızı ekibin test etmekle entegrasyonu

Özet ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenimi ve derin öğrenme mimarilerini anlamak
  • Python ve ML çerçeveleri (örn., TensorFlow, PyTorch) ile deneyim
  • Küresel siber güvenlik kavramlarıyla veya saldırgan güvenlik teknikleriyle tanışlık

Hedef Kitle

  • Güvenlik araştırmacıları
  • Saldırgan güvenlik ekibi
  • AI emniyeti ve kırmızı takım uzmanları
 14 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Yaklaşan Etkinlikler

İlgili Kategoriler