Bizi tercih ettiğiniz için teşekkür ederiz. Ekip üyelerimiz en kısa sürede sizlerle iletişime geçecektir.
Rezervasyonunuzu gönderdiğiniz için teşekkür ederiz! Ekibimizden bir yetkili kısa süre içinde sizinle iletişime geçecektir.
Eğitim İçeriği
AI Red Teaming'e Giriş
- AI tehdit landscap'ını anlama
- AI güvenliğinde red team rolleri
- Etik ve yasal hususlar
Düşmanca Makine Öğrenmesi
- Saldırı türleri: kaçınma, zehirleme, çıkarım, öngörü
- Düşmanca örnekler oluşturma (örneğin, FGSM, PGD)
- Hedefli ve hedefsiz saldırılar ile başarı metrikleri
Model Dayanıklılığını Test Etme
- Bozunmalar altında dayanıklılığı değerlendirme
- Model kör noktalarını ve başarısızlık modlarını keşfetme
- Sınıflandırma, görsel ve NLP modellerini stres test etme
AI Ardışıklıklarının Red Teaming'i
- AI ardışıklıklarının saldırı yüzeyi: veri, model, dağıtım
- Güvensiz model API'leri ve uç noktalarını sömürme
- Model davranışlarını ve çıktıları geri mühendislik yapma
Benzetim ve Araçlar
- Düşmanca Dayanıklılık Aracı (ART) kullanma
- TextAttack ve IBM ART gibi araçlarla red team oluşturma
- Sandboxing, izleme ve gözlem araçları
AI Red Team Stratejisi ve Savunma İşbirliği
- Red team alıştırmaları ve hedefleri geliştirmek
- Bulguları blue team'lere iletmek
- Red team'ing'i AI risk yönetimiyle entegre etmek
Özeti ve Sonraki Adımlar
Kurs İçin Gerekli Önbilgiler
- Makine öğrenme ve derin öğrenme mimarileri hakkında bir anlayış
- Python ve ML çerçeveleri (örneğin, TensorFlow, PyTorch) ile deneyim
- Siber güvenlik kavramları veya saldırgan güvenlik teknikleri hakkında bir bilgi
Hedef Kitle
- Güvenlik araştırmacıları
- Saldırgan güvenlik ekipleri
- AI güvence ve red team profesyonelleri
14 Saatler
Danışanlarımızın Yorumları (1)
Profesyonel bilgi ve bize sunduğu şekli
Miroslav Nachev - PUBLIC COURSE
Eğitim - Cybersecurity in AI Systems
Yapay Zeka Çevirisi