Eğitim İçeriği

Yapay Zeka Tehdit Modeline Giriş

  • Yapay zeka sistemleri neden hassastır?
  • Yapay zeka saldırı yüzeyi vs geleneksel sistemler
  • Anımsama vektörleri: veri, model, çıktı ve arayüz katmanları

Yapay Zeka Modellerine Karşı Adversarial Saldırılar

  • Adversarial örnekler ve pertürbasyon tekniklerini anlama
  • Beyaz kutu vs siyah kutu saldırıları
  • FGSM, PGD ve DeepFool yöntemleri
  • Adversarial örneklere göz atma ve oluşturma

Model Tersine Çevirme ve Gizlilik Akını

  • Model çıktısından eğitim verisini çıkarım
  • A üyeliği tahmin saldırıları
  • Sınıflandırma ve üretici modellerde gizlilik riskleri

Veri Zehirlenmesi ve Arka Kapı Eklemleri

  • Zehirli verinin model davranışına nasıl etkisi oluyor?
  • Tetikleyici tabanlı arka kapılar ve Trojan saldırıları
  • Tespit ve temizleme stratejileri

Güçlülük ve Savunma Teknikleri

  • Adversarial eğitim ve veri artırma
  • Gradyan gizleme ve giriş ön işleme
  • Model yumuşatma ve düzenleyici teknikler

Güvenlik Koruyucu Yapay Zeka Savunmaları

  • Farklılık gizliliğine giriş
  • Gürültü ekleme ve gizlilik bütçeleri
  • Birleştirilmiş öğrenme ve güvenli toplama

AI Security Uygulamada

  • Tehdit bilinci model değerlendirmesi ve dağıtım
  • Uygulamalı ortamlarda ART (Adversarial Robustness Toolbox) kullanımı
  • Sektör örnekleri: gerçek dünya çöküşleri ve önlemler

Özet ve Sonraki Adımlar

Kurs İçin Gerekli Önbilgiler

  • Makine öğrenimi iş akışları ve model eğitimine ilişkin bilgi
  • Python ile ortak ML çerçeveleri gibi PyTorch veya TensorFlow'e deneyim
  • Temel güvenlik veya tehdit modelleme kavramlarıyla tanışlık faydalıdır

Kitle

  • Makine öğrenimi mühendisleri
  • Cybersecurity analistleri
  • AI araştırmacıları ve model doğrulama ekibi
 14 Saat

Katılımcı Sayısı


Kişi Başına Fiyat

Yaklaşan Etkinlikler

İlgili Kategoriler