Eğitim İçeriği

Yapay Zeka Red Teaming'e Giriş

  • Yapay zeka tehdit LANDSCAPE'ini anlama
  • Red takımlarının yapay zekâ güvenliği içindeki rolleri
  • Etik ve hukuki meseleler

Karşıt Tarama Machine Learning

  • Sürf, zehirleme, çıkarma, çıkarım gibi saldırı türleri
  • Karşıt örnekler üretmek (örn., FGSM, PGD)
  • Hedefli ve hedefsiz saldırılar ve başarı ölçütleri

Model Dayanıklılığını Test Etme

  • Pertürbasyonlar altında dayanıklılığı değerlendirme
  • Modelin kör noktalarını ve hata modellerini keşfetme
  • Sınıflandırma, görme ve NLP modelleri için stres testi yapma

Yapay Zeka Süreçlerine Red Teaming

  • Yapay zeka süreçlerinin saldırı yüzeyi: veri, model, dağıtım
  • Güvenli olmayan model API'leri ve uç noktalarını karanlık dünyadan etkileme
  • Model davranışını ve çıktılarını tersine mühendislik yapma

Benzetim ve Aracılar

  • Karşıt Dayanıklılık Aracı (ART) kullanımı
  • TextAttack ve IBM ART gibi araçları kullanarak red teaming yapma
  • Sandbox, izleme ve gözlem araçları

Yapay Zeka Red Takımı Stratejisi ve Savunma Collaboration

  • Red takım egzersizleri ve hedeflerini geliştirme
  • Bulguları blue takımlara iletmek
  • Red teaming'i yapay zeka risk yönetimi içinde entegre etmek

Özeti ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenimi ve derin öğrenme mimarileri üzerine bilgi
  • Python ve ML çerçeveleri (örn., TensorFlow, PyTorch) ile deneyim
  • Siber güvenlik kavramlarıyla veya savunmasız güvenlik teknikleriyle tanışlık

Kişi Grubu

  • Güvenlik araştırmacıları
  • Savunmasız güvenlik ekibi
  • AI güvenliği ve kırmızı takım profesyonelleri
 14 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Yaklaşan Etkinlikler

İlgili Kategoriler