Gizlilik Koruyan Makine Öğrenimi Eğitimi
Gizlilik Koruyan Makine Öğrenimi, hassas verileri korurken yine de dağıtılmış veya kısıtlı ortamlarda gelişmiş yapay zeka yeteneklerini etkinleştirmeye odaklanan bir alandır.
Bu eğitmen yönetimi, canlı eğitim (çevrimiçi veya yerinde) ileri düzey profesyonellerin, federasyonlu öğrenme, güvenli çok taraflı hesaplama, homomorfik şifreleme ve farklılık gizliliği gibi teknikleri gerçek dünyada makine öğrenimi ardışık işlemlerinde uygulamaya ve değerlendirmeye yöneliktir.
Bu eğitim sonunda katılımcılar:
- ML'deki temel gizlilik koruma tekniklerini anlamayı ve karşılaştırmayı öğrenecektir.
- Açık kaynaklı çerçeveleri kullanarak federasyonlu öğrenme sistemleri uygulayabileceklerdir.
- Güvenli veri paylaşımı ve model eğitimi için farklılık gizliliği uygulayabileceklerdir.
- Şifreleme ve güvenli hesaplama tekniklerini kullanarak model girişlerini ve çıkışlarını koruyabileceklerdir.
Eğitimin Biçimi
- Etkileşimli ders ve tartışma.
- Birçok alıştırma ve uygulama.
- Canlı laboratuvar ortamında pratik uygulama.
Eğitim Özelleştirme Seçenekleri
- Bu eğitimin özelleştirilmiş bir versiyonunu talep etmek için, lütfen bizimle iletişime geçin.
Eğitim İçeriği
Gizlilik Koruyan ML'ye Giriş
- Hassas veri ortamlarında motivasyonlar ve riskler
- Gizlilik koruma ML teknikleri genel bakış
- Tehdit modelleri ve düzenleyici hususlar (örn., GDPR, HIPAA)
Federasyonlu Öğrenme
- Federasyonlu öğrenmenin kavramı ve mimarisi
- İstemci-sunucu senkronizasyonu ve toplama
- PySyft ve Flower kullanarak uygulama
Farklılık Gizliliği
- Farklılık gizliliğinin matematiği
- Veri sorguları ve model eğitimi için DP uygulama
- Opacus ve TensorFlow Privacy kullanma
Güvenli Çok Taraflı Hesaplama (SMPC)
- SMPC protokolleri ve kullanım alanları
- Şifreleme tabanlı vs gizli paylaşım yaklaşımları
- CrypTen veya PySyft ile güvenli hesaplama iş akışları
Homomorfik Şifreleme
- Tam vs kısmi homomorfik şifreleme
- Hassas iş yükleri için şifrelenmiş çıkarım
- TenSEAL ve Microsoft SEAL ile uygulama
Uygulamalar ve Sektör Örnekleri
- Sağlık sektöründeki gizlilik: tıbbi AI için federasyonlu öğrenme
- Finans sektöründeki güvenli işbirliği: risk modelleri ve uyumluluk
- Savunma ve hükümet kullanım alanları
Özeti ve Sonraki Adımlar
Kurs İçin Gerekli Önbilgiler
- Makine öğrenimi ilkelerini anlamak
- Python ve ML kütüphaneleriyle (örn., PyTorch, TensorFlow) deneyim sahibi olmak
- Veri gizliliği veya siber güvenlik kavramlarıyla tanıdık olması faydalıdır
Hedef Kitle
- Yapay zeka araştırmacıları
- Veri koruma ve gizlilik uyumluluk ekibi
- Düzenleyici sektörlerde çalışan güvenlik mühendisleri
Açık Eğitim Kursları 5 ve üzeri katılımcı gerektirir.
Gizlilik Koruyan Makine Öğrenimi Eğitimi - Rezervasyon
Gizlilik Koruyan Makine Öğrenimi Eğitimi - Talep Oluştur
Gizlilik Koruyan Makine Öğrenimi - Danışmanlık Talebi
Danışmanlık Talebi
Yaklaşan Etkinlikler
İlgili Kurslar
ISACA Gelişmiş Yapay Zeka Güvenliği Yönetimi (AAISM)
21 SaatAAISM, yapay zeka sistemlerinde güvenlik risklerini değerlendirmek, yönetmek ve denetlemek için gelişmiş bir çerçeve sunar.
Bu eğitmen destekli canlı eğitim (online veya yerel), kurumsal AI ortamları için etkili güvenlik kontrolleri ve yönetim uygulamaları uygulamak isteyen üst düzey profesyoneller hedeflenmiştir.
Bu programın sonunda katılımcılar, aşağıdaki becerilere sahip olacaklardır:
- Endüstri tanıdığı yöntemleri kullanarak AI güvenlik risklerini değerlendirmek.
- Sorumlu AI dağıtım için yönetim modelleri uygulamak.
- Kurumsal hedefler ve düzenleyici beklentilerle uyumlu AI güvenlik politikalarını hizalamak.
- AI destekli işlemler içinde dayanıklılığı ve hesap verebilirliği artırmak.
Kursun Formatı
- Uzman analizle desteklenen sunulan konferanslar.
- Pratik atölyeler ve değerlendirme temelli etkinlikler.
- Gerçek dünya AI yönetim senaryoları kullanarak uygulanan egzersizler.
Kurs Özelleştirme Seçenekleri
- Kurumsal AI stratejinize hizmet edecek özelleştirilmiş eğitim için bize başvurun.
Kurumsal Liderler için Yapay Zeka Yönetimi, Uyumluluk ve Güvenlik
14 SaatBu eğitmen öncülüğündeki canlı eğitim Türkiye (çevrimiçi veya yerinde), kurumsal liderlerin sorumlu bir şekilde AI sistemlerini yönetip güvence altına alma ve AB Yapay Zeka Yasası, GDPR, ISO/IEC 42001 ve ABD'nin Yapay Zeka ile ilgili başkanlık kararları gibi ortaya çıkan küresel çerçevelere uyum sağlamayı anlamalarını hedefler.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Bölümler arasında AI kullanımının hukuki, etik ve düzenleyici risklerini anlamak.
- Ana AI yönetim çerçevelerini (AB Yapay Zeka Yasası, NIST AI RMF, ISO/IEC 42001) yorumlamak ve uygulamak.
- Kurumda AI uygulaması için güvenlik, denetim ve gözetleme politikalarını oluşturmak.
- Üçüncü taraf ve iç AI sistemleri için satın alma ve kullanım yönergeleri geliştirmek.
Halk Sektöründe Yapay Zeka Risk Yönetimi ve Güvenliği
7 SaatYapay Zeka (YK), hükümet ajansları ve bakanlıklar için yeni operasyonel risk, yönetim zorlukları ve siber güvenlik maruziyeti boyutları sunar.
Bu eğitmen liderli canlı eğitim (çevrimiçi veya yerinde), YK'da sınırlı önceki deneyime sahip olan kamu sektörü IT ve risk profesyonellerine, hükümet veya düzenleyici bağlamında YK sistemlerini değerlendirmenin, izlemenin ve güvenliğini sağlamanın nasıl olduğunu anlamalarını amaçlar.
Bu eğitim sonunda katılımcılar şunları yapabilecek duruma gelecektir:
- YK sistemleriyle ilgili önyargı, tahmin edilemezlik ve model sapması gibi temel risk kavramlarını yorumlamak.
- NIST AI RMF ve ISO/IEC 42001 gibi YK özel yönetim ve denetim çerçevelerini uygulamak.
- YK modellerine ve veri hattlarına yönelik siber güvenlik tehditlerini tanımak.
- Departmanlar arası risk yönetimi planları oluşturmak ve YK dağıtım için politikaları uyumlu hale getirmek.
Eğitim Formatı
- Kamu sektörü kullanımları üzerine odaklanan etkileşimli ders ve tartışma.
- YK yönetim çerçevesi egzersizleri ve politika eşleştirmesi.
- Senaryo tabanlı tehdit modellemesi ve risk değerlendirmesi.
Eğitim Özelleştirme Seçenekleri
- Bu eğitim için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize iletişime geçin.
AI Güven, Risk ve Güvenlik Yönetimi (AI TRiSM)'e Giriş
21 SaatBu eğitmen yönlendirilmiş, canlı eğitim Türkiye (çevrimiçi veya yerinde) başlangıç seviyesine sahip olan ve organizasyonlarında AI TRiSM'yi anlamak ve uygulamak isteyen ara seviye IT profesyonellerini hedef almaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- AI güvenilirliği, riski ve güvenlik yönetiminin temel kavramlarını ve önemini anlayacaklardır.
- AI sistemleriyle ilişkili riskleri belirleyip azaltabileceklerdir.
- AI için en iyi güvenlik uygulamalarını uygulayacaklardır.
- AI için düzenleyici uyumluluğu ve etik konuları anlayacaklardır.
- Etkili AI yönetim ve yönetişim stratejileri geliştirebileceklerdir.
Güvenli ve Sorumluluklu Büyük Dil Modelleri (LLM) Uygulamaları Oluşturma
14 SaatBu eğitmen liderli, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzeyden ileri düzeyli yapay zeka geliştiricileri, mimarları ve ürün yöneticileri hedef almaktadır. Bu grup, LLM dayalı uygulamalarla ilişkili riskleri belirleyip azaltmayı, prompt enjeksiyonunu, veri sızıntılarını ve süzülmemiş çıkışı gibi sorunları ele almayı, aynı zamanda giriş doğrulaması, insan kontrolü ve çıktı koruyucuları gibi güvenlik kontrollerini uygulamayı öğrenmektedir.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler:
- LLM tabanlı sistemlerin temel zafiyetlerini anlamak.
- LLM uygulama mimarisine güvenli tasarım ilkelerini uygulamak.
- Doğrulama, süzme ve güvenlik için Guardrails AI ve LangChain gibi araçları kullanmak.
- Sandboxing, kırmızı takım ve insan kontrolü gözden geçirmesi gibi teknikleri üretim derecesi işlem hatlarına entegre etmek.
Cybersecurity in AI Systems
14 SaatBu eğitmen yönetimiyle canlı eğitim (çevrimiçi veya yerel) ortamında, finans, veri yönetim ve danışmanlık gibi sıkı düzenlemeler altındaki endüstrilerdeki AI model ve sistemlerine özgü güvenlik açıklarını anlama ve ele almayı isteyen orta seviye AI ve siber güvenlik uzmanları için tasarlanmıştır.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler olacak:
- AI sistemlerini hedefleyen düşmanca saldırıların türleri ve bunlardan korunma yöntemleri hakkında bilgi edinebileceksiniz.
- Makine öğrenimi akışlarını güvence altına almak için model gömme tekniklerini uygulayabilecekler olacak.
- Makine öğrenimi modellerinde veri güvenliğini ve bütünlüğünü sağlayabilecekler olacak.
- AI güvenlikine ilişkin düzenlemeye uyum gerekliliklerini kavrayebilecekler olacak.
AI Güvenliği ve Risk Yönetimi'ne Giriş
14 SaatBu eğitmen-led, canlı eğitim Türkiye (online veya yerinde) başlangıç seviyesinde IT güvenliği, risk ve uyumluluk profesyonelerine yönelik olup, temel AI güvenlik kavramlarını, tehdit vektörlerini ve NIST AI RMF ve ISO/IEC 42001 gibi global çerçeveleri anlamalarına yardımcı olmayı amaçlamaktadır.
Bu eğitimin sonunda katılımcılar:
- Yapay zeka sistemleri tarafından getirilen benzersiz güvenlik risklerini anlayacaklardır.
- Karşıt saldırılar, veri zehirlenmesi ve model tersine çevrilmesi gibi tehdit vektörlerini tanımlayabileceklerdir.
- NIST AI Risk Yönetimi Çerçevesi gibi temel yönetim modellerini uygulayacaklardır.
- Yapay zekanın kullanımını yeni standartlar, uyumluluk rehberleri ve etik ilkelerle uyumlu hale getireceklerdir.
OWASP GenAI Güvenliği
14 SaatEn son OWASP GenAI Güvenlik Projesi rehberine dayanarak, katılımcılar AI-ye özgü tehditleri belirlemeyi, değerlendirmeyi ve azaltmayı elden geçirme alıştırmaları ve gerçek dünya senaryolarıyla öğrenecekler.
Red Teaming AI Sistemleri: ML Modelleri için Savunma Güvenliği
14 SaatBu eğitmen öncü, canlı eğitim Türkiye (çevrimiçi veya yerinde) yüksek düzeyde güvenlik profesyoneleri ve ML uzmanlarına yöneliktir. Katılımcılar, AI sistemleri üzerinde saldırıları benzetmeyi, zafiyetleri ortaya çıkarmayı ve dağıtılan AI modellerinin dayanıklılığını artırmayı öğrenmektedir.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Makine öğrenme modellerine gerçek dünya tehditlerini benzetmeyi öğrenecekler.
- Model dayanıklılığını test etmek için düşmanca örnekler oluşturmayı öğrenecekler.
- AI API'leri ve ardışıklıklarının saldırı yüzeyini değerlendirebilecekler.
- AI dağıtım ortamları için red team stratejileri tasarlayabilecekler.
Edge AI ve Gömülü Zeka'nın Güvenilir Kılınması
14 SaatBu eğitmen-led, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzey mühendisler ve güvenlik profesyonellerinin Edge'de dağıtılan AI modellerini yozlaşturma, veri sızıntısı, düşmanca girişler ve fiziksel saldırılar gibi tehditlere karşı güvenli hale getirmek isteyenler için düzenlenmiştir.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- Edge AI dağıtımlarında güvenlik risklerini tanımlayabilir ve değerlendirebilirler.
- Yozlaşma direnci ve şifrelenmiş çıkarım tekniklerini uygulayabilirler.
- Edge'de dağıtılan modelleri donmuş hale getirebilir ve veri hatlarını güvenli hale getirebilirler.
- Gömülü ve sınırlı sistemlere özgü tehdit azaltma stratejilerini uygulayabilirler.
AI Modellerini Güvenli Hale Getirme: Tehdiller, Saldırılar ve Savunmalar
14 SaatBu eğitmen öncülündeki canlı eğitim Türkiye (online veya yerel olarak), orta düzeyde makine öğrenimi ve siber güvenlik uzmanlarına yöneliktir. Katılımcılar, hem kavramsal çerçeveleri hem de robust training ve farklılık gizliliği gibi uygulayıcı savunmalar kullanarak AI modellerindeki ortaya çıkan tehditleri anlamayı ve azaltmayı öğrenmek isterler.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Düşmanca saldırılar, ters çevirme ve zehirleme gibi AI spesifik tehditleri tanımlama ve sınıflandırma.
- Adversarial Robustness Toolbox (ART) gibi araçları kullanarak saldırıları simüle etme ve modelleri test etme.
- Düşmanca eğitim, gürültü enjeksiyonu ve gizlilik koruma teknikleri dahil olmak üzere uygulayıcı savunmaları uygulama.
- Üretim ortamlarında tehdit bilincine sahip model değerlendirme stratejileri tasarlama.
TinyML Uygulamalarında Güvenlik ve Gizlilik
21 SaatTinyML, düşük güç tüketimi ve kaynak sınırlı cihazlarda makine öğrenme modellerinin dağıtımını amaçlayan bir yaklaşımdır.
Bu eğitmen tarafından yönetilen canlı eğitim (online veya yerinde) yüksek düzeyde profesyoneller hedeflenmekte olup, TinyML hatlarını güvence altına almayı ve kenar AI uygulamalarında gizlilik koruyan teknikleri uygulamayı öğrenmek için tasarlanmıştır.
Bu kursun sonunda katılımcılar şunları yapabilecektir:
- Cihaz üzerinde TinyML çıkarımı için benzersiz güvenlik risklerini belirleyebilir.
- Kenar AI dağıtımları için gizlilik koruyan mekanizmalar uygulayabilir.
- TinyML modellerini ve gömülü sistemleri düşmanca tehditler karşılarında güçlendirebilir.
- Sınırlı ortamlarda güvenli veri yönetimi için en iyi uygulamaları uygulayabilir.
Eğitim Biçimi
- Uzman yönlü tartışmalarla desteklenen etkileşimli konferanslar.
- Gerçek dünya tehdit senaryolarını vurgulayan pratik alıştırmalar.
- Gömülü güvenlik ve TinyML araçları kullanarak uygulamalı etkinlikler.
Eğitim Özelleştirme Seçenekleri
- Kuruluşlar, eğitimini belirli güvenlik ve uyumluluk ihtiyaçlarına uygun hale getirmeyi talep edebilir.
Güvenli ve Güvenilir Agentic AI: Yönetim, Kimlik Yönetimi ve Kırmızı Takım Testleri
21 SaatBu kurs, agentic AI sistemler için yönetim, kimlik yönetimi ve düşmanca testi konularını ele alır. Kurumsal güvenli dağıtım desenleri ve pratik kırmızı takım tekniklerine odaklanmaktadır.
Bu eğitmen yönlü, canlı eğitim (çevrimiçi veya kuruma özel) gelişmiş düzeyde uygulayıcılar için tasarlanmıştır. Katılımcıların üretim ortamlarında ajan tabanlı AI sistemlerini tasarlama, güvenli hale getirme ve değerlendirme becerilerini geliştirmeyi amaçlamaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Güvenli agentic AI dağıtım için yönetim modelleri ve politikalarını tanımlayabileceklerdir.
- En az yetkiye sahip ajanlar için insan olmayan kimlik ve kimlik doğrulama akışlarını tasarlayabileceklerdir.
- Otonom ajanlar için özel erişim kontrolleri, denetim izleri ve gözlemlenbilirliği uygulayabileceklerdir.
- Kötü amaçlı kullanım, yetki yükseltme yolları ve veri çıkarma risklerini keşfetmek için kırmızı takım çalışmaları planlayabilecek ve yürütülebilirlerdir.
- Politika, mühendislik kontrolleri ve izleme aracılığıyla agentic sistemlere yönelik yaygın tehditleri azaltabileceklerdir.
Eğitim Formatı
- Etkileşimli dersler ve tehdit modellemesi atölyeleri.
- Pratik laboratuvarlar: kimlik sağlama, politika uygulaması ve düşmanca benzetim.
- Kırmızı takım / mavi takım çalışmaları ve kurs sonu değerlendirme.
Kurs Özelleştirme Seçenekleri
- Bu kurs için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize başvurunuz.