Bizi tercih ettiğiniz için teşekkür ederiz. Ekip üyelerimiz en kısa sürede sizlerle iletişime geçecektir.
Rezervasyonunuzu gönderdiğiniz için teşekkür ederiz! Ekibimizden bir yetkili kısa süre içinde sizinle iletişime geçecektir.
Eğitim İçeriği
Yapay Zeka Tehdit Modeline Giriş
- Yapay zeka sistemleri neden hassastır?
- Yapay zeka saldırı yüzeyi vs geleneksel sistemler
- Anımsama vektörleri: veri, model, çıktı ve arayüz katmanları
Yapay Zeka Modellerine Karşı Adversarial Saldırılar
- Adversarial örnekler ve pertürbasyon tekniklerini anlama
- Beyaz kutu vs siyah kutu saldırıları
- FGSM, PGD ve DeepFool yöntemleri
- Adversarial örneklere göz atma ve oluşturma
Model Tersine Çevirme ve Gizlilik Akını
- Model çıktısından eğitim verisini çıkarım
- A üyeliği tahmin saldırıları
- Sınıflandırma ve üretici modellerde gizlilik riskleri
Veri Zehirlenmesi ve Arka Kapı Eklemleri
- Zehirli verinin model davranışına nasıl etkisi oluyor?
- Tetikleyici tabanlı arka kapılar ve Trojan saldırıları
- Tespit ve temizleme stratejileri
Güçlülük ve Savunma Teknikleri
- Adversarial eğitim ve veri artırma
- Gradyan gizleme ve giriş ön işleme
- Model yumuşatma ve düzenleyici teknikler
Güvenlik Koruyucu Yapay Zeka Savunmaları
- Farklılık gizliliğine giriş
- Gürültü ekleme ve gizlilik bütçeleri
- Birleştirilmiş öğrenme ve güvenli toplama
AI Security Uygulamada
- Tehdit bilinci model değerlendirmesi ve dağıtım
- Uygulamalı ortamlarda ART (Adversarial Robustness Toolbox) kullanımı
- Sektör örnekleri: gerçek dünya çöküşleri ve önlemler
Özet ve Sonraki Adımlar
Kurs İçin Gerekli Önbilgiler
- Makine öğrenimi iş akışları ve model eğitimine ilişkin bilgi
- Python ile ortak ML çerçeveleri gibi PyTorch veya TensorFlow'e deneyim
- Temel güvenlik veya tehdit modelleme kavramlarıyla tanışlık faydalıdır
Kitle
- Makine öğrenimi mühendisleri
- Cybersecurity analistleri
- AI araştırmacıları ve model doğrulama ekibi
14 Saat