Eğitim İçeriği

AI Red Teaming'e Giriş

  • AI tehdit landscap'ını anlama
  • AI güvenliğinde red team rolleri
  • Etik ve yasal hususlar

Düşmanca Makine Öğrenmesi

  • Saldırı türleri: kaçınma, zehirleme, çıkarım, öngörü
  • Düşmanca örnekler oluşturma (örneğin, FGSM, PGD)
  • Hedefli ve hedefsiz saldırılar ile başarı metrikleri

Model Dayanıklılığını Test Etme

  • Bozunmalar altında dayanıklılığı değerlendirme
  • Model kör noktalarını ve başarısızlık modlarını keşfetme
  • Sınıflandırma, görsel ve NLP modellerini stres test etme

AI Ardışıklıklarının Red Teaming'i

  • AI ardışıklıklarının saldırı yüzeyi: veri, model, dağıtım
  • Güvensiz model API'leri ve uç noktalarını sömürme
  • Model davranışlarını ve çıktıları geri mühendislik yapma

Benzetim ve Araçlar

  • Düşmanca Dayanıklılık Aracı (ART) kullanma
  • TextAttack ve IBM ART gibi araçlarla red team oluşturma
  • Sandboxing, izleme ve gözlem araçları

AI Red Team Stratejisi ve Savunma İşbirliği

  • Red team alıştırmaları ve hedefleri geliştirmek
  • Bulguları blue team'lere iletmek
  • Red team'ing'i AI risk yönetimiyle entegre etmek

Özeti ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenme ve derin öğrenme mimarileri hakkında bir anlayış
  • Python ve ML çerçeveleri (örneğin, TensorFlow, PyTorch) ile deneyim
  • Siber güvenlik kavramları veya saldırgan güvenlik teknikleri hakkında bir bilgi

Hedef Kitle

  • Güvenlik araştırmacıları
  • Saldırgan güvenlik ekipleri
  • AI güvence ve red team profesyonelleri
 14 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Yaklaşan Etkinlikler

İlgili Kategoriler