Red Teaming AI Sistemleri: ML Modelleri için Savunma Güvenliği Eğitimi
Red Teaming AI Sistemleri, makine öğrenme modellerinde ve dağıtım ardışıklıklarında zayıflıkları tespit etmeye odaklanan bir saldırgan güvenlik dalıdır. Bu alan, düşmanca test ve stres simülasyonları aracılığıyla bu zayıflıkları belirler.
Bu eğitmen öncü, canlı eğitim (çevrimiçi veya yerinde) yüksek düzeyde güvenlik profesyonelleri ve ML uzmanlarına yöneliktir. Katılımcılar, AI sistemleri üzerinde saldırıları benzetmeyi, zafiyetleri ortaya çıkarmayı ve dağıtılan AI modellerinin dayanıklılığını artırmayı öğrenmektedir.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Makine öğrenme modellerine gerçek dünya tehditlerini benzetmeyi öğrenecekler.
- Model dayanıklılığını test etmek için düşmanca örnekler oluşturmayı öğrenecekler.
- AI API'leri ve ardışıklıklarının saldırı yüzeyini değerlendirebilecekler.
- AI dağıtım ortamları için red team stratejileri tasarlayabilecekler.
Eğitim Biçimi
- Etkileşimli ders ve tartışma.
- Birçok alıştırma ve uygulama.
- Canlı-lab ortamında elden deneyim.
Eğitim Özelleştirme Seçenekleri
- Bu eğitim için özelleştirilmiş bir eğitim talep etmek için lütfen bizimle iletişime geçin.
Eğitim İçeriği
AI Red Teaming'e Giriş
- AI tehdit landscap'ını anlama
- AI güvenliğinde red team rolleri
- Etik ve yasal hususlar
Düşmanca Makine Öğrenmesi
- Saldırı türleri: kaçınma, zehirleme, çıkarım, öngörü
- Düşmanca örnekler oluşturma (örneğin, FGSM, PGD)
- Hedefli ve hedefsiz saldırılar ile başarı metrikleri
Model Dayanıklılığını Test Etme
- Bozunmalar altında dayanıklılığı değerlendirme
- Model kör noktalarını ve başarısızlık modlarını keşfetme
- Sınıflandırma, görsel ve NLP modellerini stres test etme
AI Ardışıklıklarının Red Teaming'i
- AI ardışıklıklarının saldırı yüzeyi: veri, model, dağıtım
- Güvensiz model API'leri ve uç noktalarını sömürme
- Model davranışlarını ve çıktıları geri mühendislik yapma
Benzetim ve Araçlar
- Düşmanca Dayanıklılık Aracı (ART) kullanma
- TextAttack ve IBM ART gibi araçlarla red team oluşturma
- Sandboxing, izleme ve gözlem araçları
AI Red Team Stratejisi ve Savunma İşbirliği
- Red team alıştırmaları ve hedefleri geliştirmek
- Bulguları blue team'lere iletmek
- Red team'ing'i AI risk yönetimiyle entegre etmek
Özeti ve Sonraki Adımlar
Kurs İçin Gerekli Önbilgiler
- Makine öğrenme ve derin öğrenme mimarileri hakkında bir anlayış
- Python ve ML çerçeveleri (örneğin, TensorFlow, PyTorch) ile deneyim
- Siber güvenlik kavramları veya saldırgan güvenlik teknikleri hakkında bir bilgi
Hedef Kitle
- Güvenlik araştırmacıları
- Saldırgan güvenlik ekipleri
- AI güvence ve red team profesyonelleri
Açık Eğitim Kursları 5 ve üzeri katılımcı gerektirir.
Red Teaming AI Sistemleri: ML Modelleri için Savunma Güvenliği Eğitimi - Rezervasyon
Red Teaming AI Sistemleri: ML Modelleri için Savunma Güvenliği Eğitimi - Talep Oluştur
Red Teaming AI Sistemleri: ML Modelleri için Savunma Güvenliği - Danışmanlık Talebi
Danışmanlık Talebi
Yaklaşan Etkinlikler
İlgili Kurslar
ISACA Gelişmiş Yapay Zeka Güvenliği Yönetimi (AAISM)
21 SaatAAISM, yapay zeka sistemlerinde güvenlik risklerini değerlendirmek, yönetmek ve denetlemek için gelişmiş bir çerçeve sunar.
Bu eğitmen destekli canlı eğitim (online veya yerel), kurumsal AI ortamları için etkili güvenlik kontrolleri ve yönetim uygulamaları uygulamak isteyen üst düzey profesyoneller hedeflenmiştir.
Bu programın sonunda katılımcılar, aşağıdaki becerilere sahip olacaklardır:
- Endüstri tanıdığı yöntemleri kullanarak AI güvenlik risklerini değerlendirmek.
- Sorumlu AI dağıtım için yönetim modelleri uygulamak.
- Kurumsal hedefler ve düzenleyici beklentilerle uyumlu AI güvenlik politikalarını hizalamak.
- AI destekli işlemler içinde dayanıklılığı ve hesap verebilirliği artırmak.
Kursun Formatı
- Uzman analizle desteklenen sunulan konferanslar.
- Pratik atölyeler ve değerlendirme temelli etkinlikler.
- Gerçek dünya AI yönetim senaryoları kullanarak uygulanan egzersizler.
Kurs Özelleştirme Seçenekleri
- Kurumsal AI stratejinize hizmet edecek özelleştirilmiş eğitim için bize başvurun.
Kurumsal Liderler için Yapay Zeka Yönetimi, Uyumluluk ve Güvenlik
14 SaatBu eğitmen öncülüğündeki canlı eğitim Türkiye (çevrimiçi veya yerinde), kurumsal liderlerin sorumlu bir şekilde AI sistemlerini yönetip güvence altına alma ve AB Yapay Zeka Yasası, GDPR, ISO/IEC 42001 ve ABD'nin Yapay Zeka ile ilgili başkanlık kararları gibi ortaya çıkan küresel çerçevelere uyum sağlamayı anlamalarını hedefler.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Bölümler arasında AI kullanımının hukuki, etik ve düzenleyici risklerini anlamak.
- Ana AI yönetim çerçevelerini (AB Yapay Zeka Yasası, NIST AI RMF, ISO/IEC 42001) yorumlamak ve uygulamak.
- Kurumda AI uygulaması için güvenlik, denetim ve gözetleme politikalarını oluşturmak.
- Üçüncü taraf ve iç AI sistemleri için satın alma ve kullanım yönergeleri geliştirmek.
Halk Sektöründe Yapay Zeka Risk Yönetimi ve Güvenliği
7 SaatYapay Zeka (YK), hükümet ajansları ve bakanlıklar için yeni operasyonel risk, yönetim zorlukları ve siber güvenlik maruziyeti boyutları sunar.
Bu eğitmen liderli canlı eğitim (çevrimiçi veya yerinde), YK'da sınırlı önceki deneyime sahip olan kamu sektörü IT ve risk profesyonellerine, hükümet veya düzenleyici bağlamında YK sistemlerini değerlendirmenin, izlemenin ve güvenliğini sağlamanın nasıl olduğunu anlamalarını amaçlar.
Bu eğitim sonunda katılımcılar şunları yapabilecek duruma gelecektir:
- YK sistemleriyle ilgili önyargı, tahmin edilemezlik ve model sapması gibi temel risk kavramlarını yorumlamak.
- NIST AI RMF ve ISO/IEC 42001 gibi YK özel yönetim ve denetim çerçevelerini uygulamak.
- YK modellerine ve veri hattlarına yönelik siber güvenlik tehditlerini tanımak.
- Departmanlar arası risk yönetimi planları oluşturmak ve YK dağıtım için politikaları uyumlu hale getirmek.
Eğitim Formatı
- Kamu sektörü kullanımları üzerine odaklanan etkileşimli ders ve tartışma.
- YK yönetim çerçevesi egzersizleri ve politika eşleştirmesi.
- Senaryo tabanlı tehdit modellemesi ve risk değerlendirmesi.
Eğitim Özelleştirme Seçenekleri
- Bu eğitim için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize iletişime geçin.
AI Güven, Risk ve Güvenlik Yönetimi (AI TRiSM)'e Giriş
21 SaatBu eğitmen yönlendirilmiş, canlı eğitim Türkiye (çevrimiçi veya yerinde) başlangıç seviyesine sahip olan ve organizasyonlarında AI TRiSM'yi anlamak ve uygulamak isteyen ara seviye IT profesyonellerini hedef almaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- AI güvenilirliği, riski ve güvenlik yönetiminin temel kavramlarını ve önemini anlayacaklardır.
- AI sistemleriyle ilişkili riskleri belirleyip azaltabileceklerdir.
- AI için en iyi güvenlik uygulamalarını uygulayacaklardır.
- AI için düzenleyici uyumluluğu ve etik konuları anlayacaklardır.
- Etkili AI yönetim ve yönetişim stratejileri geliştirebileceklerdir.
Güvenli ve Sorumluluklu Büyük Dil Modelleri (LLM) Uygulamaları Oluşturma
14 SaatBu eğitmen liderli, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzeyden ileri düzeyli yapay zeka geliştiricileri, mimarları ve ürün yöneticileri hedef almaktadır. Bu grup, LLM dayalı uygulamalarla ilişkili riskleri belirleyip azaltmayı, prompt enjeksiyonunu, veri sızıntılarını ve süzülmemiş çıkışı gibi sorunları ele almayı, aynı zamanda giriş doğrulaması, insan kontrolü ve çıktı koruyucuları gibi güvenlik kontrollerini uygulamayı öğrenmektedir.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler:
- LLM tabanlı sistemlerin temel zafiyetlerini anlamak.
- LLM uygulama mimarisine güvenli tasarım ilkelerini uygulamak.
- Doğrulama, süzme ve güvenlik için Guardrails AI ve LangChain gibi araçları kullanmak.
- Sandboxing, kırmızı takım ve insan kontrolü gözden geçirmesi gibi teknikleri üretim derecesi işlem hatlarına entegre etmek.
Cybersecurity in AI Systems
14 SaatBu eğitmen yönetimiyle canlı eğitim (çevrimiçi veya yerel) ortamında, finans, veri yönetim ve danışmanlık gibi sıkı düzenlemeler altındaki endüstrilerdeki AI model ve sistemlerine özgü güvenlik açıklarını anlama ve ele almayı isteyen orta seviye AI ve siber güvenlik uzmanları için tasarlanmıştır.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler olacak:
- AI sistemlerini hedefleyen düşmanca saldırıların türleri ve bunlardan korunma yöntemleri hakkında bilgi edinebileceksiniz.
- Makine öğrenimi akışlarını güvence altına almak için model gömme tekniklerini uygulayabilecekler olacak.
- Makine öğrenimi modellerinde veri güvenliğini ve bütünlüğünü sağlayabilecekler olacak.
- AI güvenlikine ilişkin düzenlemeye uyum gerekliliklerini kavrayebilecekler olacak.
AI Güvenliği ve Risk Yönetimi'ne Giriş
14 SaatBu eğitmen-led, canlı eğitim Türkiye (online veya yerinde) başlangıç seviyesinde IT güvenliği, risk ve uyumluluk profesyonelerine yönelik olup, temel AI güvenlik kavramlarını, tehdit vektörlerini ve NIST AI RMF ve ISO/IEC 42001 gibi global çerçeveleri anlamalarına yardımcı olmayı amaçlamaktadır.
Bu eğitimin sonunda katılımcılar:
- Yapay zeka sistemleri tarafından getirilen benzersiz güvenlik risklerini anlayacaklardır.
- Karşıt saldırılar, veri zehirlenmesi ve model tersine çevrilmesi gibi tehdit vektörlerini tanımlayabileceklerdir.
- NIST AI Risk Yönetimi Çerçevesi gibi temel yönetim modellerini uygulayacaklardır.
- Yapay zekanın kullanımını yeni standartlar, uyumluluk rehberleri ve etik ilkelerle uyumlu hale getireceklerdir.
OWASP GenAI Güvenliği
14 SaatEn son OWASP GenAI Güvenlik Projesi rehberine dayanarak, katılımcılar AI-ye özgü tehditleri belirlemeyi, değerlendirmeyi ve azaltmayı elden geçirme alıştırmaları ve gerçek dünya senaryolarıyla öğrenecekler.
Gizlilik Koruyan Makine Öğrenimi
14 SaatBu eğitmen yönetimi, canlı eğitim Türkiye (çevrimiçi veya yerinde) ileri düzey profesyonellerin, federasyonlu öğrenme, güvenli çok taraflı hesaplama, homomorfik şifreleme ve farklılık gizliliği gibi teknikleri gerçek dünyada makine öğrenimi ardışık işlemlerinde uygulamaya ve değerlendirmeye yöneliktir.
Bu eğitim sonunda katılımcılar:
- ML'deki temel gizlilik koruma tekniklerini anlamayı ve karşılaştırmayı öğrenecektir.
- Açık kaynaklı çerçeveleri kullanarak federasyonlu öğrenme sistemleri uygulayabileceklerdir.
- Güvenli veri paylaşımı ve model eğitimi için farklılık gizliliği uygulayabileceklerdir.
- Şifreleme ve güvenli hesaplama tekniklerini kullanarak model girişlerini ve çıkışlarını koruyabileceklerdir.
Edge AI ve Gömülü Zeka'nın Güvenilir Kılınması
14 SaatBu eğitmen-led, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzey mühendisler ve güvenlik profesyonellerinin Edge'de dağıtılan AI modellerini yozlaşturma, veri sızıntısı, düşmanca girişler ve fiziksel saldırılar gibi tehditlere karşı güvenli hale getirmek isteyenler için düzenlenmiştir.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- Edge AI dağıtımlarında güvenlik risklerini tanımlayabilir ve değerlendirebilirler.
- Yozlaşma direnci ve şifrelenmiş çıkarım tekniklerini uygulayabilirler.
- Edge'de dağıtılan modelleri donmuş hale getirebilir ve veri hatlarını güvenli hale getirebilirler.
- Gömülü ve sınırlı sistemlere özgü tehdit azaltma stratejilerini uygulayabilirler.
AI Modellerini Güvenli Hale Getirme: Tehdiller, Saldırılar ve Savunmalar
14 SaatBu eğitmen öncülündeki canlı eğitim Türkiye (online veya yerel olarak), orta düzeyde makine öğrenimi ve siber güvenlik uzmanlarına yöneliktir. Katılımcılar, hem kavramsal çerçeveleri hem de robust training ve farklılık gizliliği gibi uygulayıcı savunmalar kullanarak AI modellerindeki ortaya çıkan tehditleri anlamayı ve azaltmayı öğrenmek isterler.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Düşmanca saldırılar, ters çevirme ve zehirleme gibi AI spesifik tehditleri tanımlama ve sınıflandırma.
- Adversarial Robustness Toolbox (ART) gibi araçları kullanarak saldırıları simüle etme ve modelleri test etme.
- Düşmanca eğitim, gürültü enjeksiyonu ve gizlilik koruma teknikleri dahil olmak üzere uygulayıcı savunmaları uygulama.
- Üretim ortamlarında tehdit bilincine sahip model değerlendirme stratejileri tasarlama.
TinyML Uygulamalarında Güvenlik ve Gizlilik
21 SaatTinyML, düşük güç tüketimi ve kaynak sınırlı cihazlarda makine öğrenme modellerinin dağıtımını amaçlayan bir yaklaşımdır.
Bu eğitmen tarafından yönetilen canlı eğitim (online veya yerinde) yüksek düzeyde profesyoneller hedeflenmekte olup, TinyML hatlarını güvence altına almayı ve kenar AI uygulamalarında gizlilik koruyan teknikleri uygulamayı öğrenmek için tasarlanmıştır.
Bu kursun sonunda katılımcılar şunları yapabilecektir:
- Cihaz üzerinde TinyML çıkarımı için benzersiz güvenlik risklerini belirleyebilir.
- Kenar AI dağıtımları için gizlilik koruyan mekanizmalar uygulayabilir.
- TinyML modellerini ve gömülü sistemleri düşmanca tehditler karşılarında güçlendirebilir.
- Sınırlı ortamlarda güvenli veri yönetimi için en iyi uygulamaları uygulayabilir.
Eğitim Biçimi
- Uzman yönlü tartışmalarla desteklenen etkileşimli konferanslar.
- Gerçek dünya tehdit senaryolarını vurgulayan pratik alıştırmalar.
- Gömülü güvenlik ve TinyML araçları kullanarak uygulamalı etkinlikler.
Eğitim Özelleştirme Seçenekleri
- Kuruluşlar, eğitimini belirli güvenlik ve uyumluluk ihtiyaçlarına uygun hale getirmeyi talep edebilir.
Güvenli ve Güvenilir Agentic AI: Yönetim, Kimlik Yönetimi ve Kırmızı Takım Testleri
21 SaatBu kurs, agentic AI sistemler için yönetim, kimlik yönetimi ve düşmanca testi konularını ele alır. Kurumsal güvenli dağıtım desenleri ve pratik kırmızı takım tekniklerine odaklanmaktadır.
Bu eğitmen yönlü, canlı eğitim (çevrimiçi veya kuruma özel) gelişmiş düzeyde uygulayıcılar için tasarlanmıştır. Katılımcıların üretim ortamlarında ajan tabanlı AI sistemlerini tasarlama, güvenli hale getirme ve değerlendirme becerilerini geliştirmeyi amaçlamaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Güvenli agentic AI dağıtım için yönetim modelleri ve politikalarını tanımlayabileceklerdir.
- En az yetkiye sahip ajanlar için insan olmayan kimlik ve kimlik doğrulama akışlarını tasarlayabileceklerdir.
- Otonom ajanlar için özel erişim kontrolleri, denetim izleri ve gözlemlenbilirliği uygulayabileceklerdir.
- Kötü amaçlı kullanım, yetki yükseltme yolları ve veri çıkarma risklerini keşfetmek için kırmızı takım çalışmaları planlayabilecek ve yürütülebilirlerdir.
- Politika, mühendislik kontrolleri ve izleme aracılığıyla agentic sistemlere yönelik yaygın tehditleri azaltabileceklerdir.
Eğitim Formatı
- Etkileşimli dersler ve tehdit modellemesi atölyeleri.
- Pratik laboratuvarlar: kimlik sağlama, politika uygulaması ve düşmanca benzetim.
- Kırmızı takım / mavi takım çalışmaları ve kurs sonu değerlendirme.
Kurs Özelleştirme Seçenekleri
- Bu kurs için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize başvurunuz.