TinyML Uygulamalarında Güvenlik ve Gizlilik Eğitimi
TinyML, düşük güç tüketimi ve kaynak sınırlı cihazlarda makine öğrenme modellerinin dağıtımını amaçlayan bir yaklaşımdır.
Bu eğitmen tarafından yönetilen canlı eğitim (online veya yerinde) yüksek düzeyde profesyoneller hedeflenmekte olup, TinyML hatlarını güvence altına almayı ve kenar AI uygulamalarında gizlilik koruyan teknikleri uygulamayı öğrenmek için tasarlanmıştır.
Bu kursun sonunda katılımcılar şunları yapabilecektir:
- Cihaz üzerinde TinyML çıkarımı için benzersiz güvenlik risklerini belirleyebilir.
- Kenar AI dağıtımları için gizlilik koruyan mekanizmalar uygulayabilir.
- TinyML modellerini ve gömülü sistemleri düşmanca tehditler karşılarında güçlendirebilir.
- Sınırlı ortamlarda güvenli veri yönetimi için en iyi uygulamaları uygulayabilir.
Eğitim Biçimi
- Uzman yönlü tartışmalarla desteklenen etkileşimli konferanslar.
- Gerçek dünya tehdit senaryolarını vurgulayan pratik alıştırmalar.
- Gömülü güvenlik ve TinyML araçları kullanarak uygulamalı etkinlikler.
Eğitim Özelleştirme Seçenekleri
- Kuruluşlar, eğitimini belirli güvenlik ve uyumluluk ihtiyaçlarına uygun hale getirmeyi talep edebilir.
Eğitim İçeriği
TinyML'de Güvenlik'e Giriş
- Kaynak sınırlı ML sistemlerindeki güvenlik zorlukları
- TinyML dağıtımları için tehdit modelleri
- Gömülü AI uygulamaları için risk kategorileri
Kenar AI'de Veri Gizliliği
- Cihaz üzerinde veri işleme için gizlilik konuları
- Veri maruziyetini ve transferini minimize etmek
- Merkezi olmayan veri yönetimi teknikleri
TinyML Modellerine Karşı Düşmanca Saldırılar
- Model kaçağı ve zehirleme tehditleri
- Gömülü sensörlerde giriş manipülasyonu
- Sınırlı ortamlarda zafiyet değerlendirmesi
Gömülü ML için Güvenlik Donanımı
- Firmware ve donanım koruma katmanları
- Erişim kontrolü ve güvenli başlatma mekanizmaları
- Çıkarım hattını korumak için en iyi uygulamalar
Gizlilik Koruyan TinyML Teknikleri
- Gizlilik için nicelleştirme ve model tasarım dikkat edilmesi gereken noktalar
- Cihaz üzerinde anonimleştirme teknikleri
- Hafif şifreleme ve güvenli hesaplama yöntemleri
Güvenli Dağıtım ve Bakım
- TinyML cihazlarının güvenli sağlanması
- OTA güncellemeleri ve düzeltme stratejileri
- Kenarda izleme ve olay yanıtlanma
Güvenli TinyML Sistemlerinin Testi ve Doğrulanması
- Güvenlik ve gizlilik test çerçeveleri
- Gerçek dünya saldırı senaryolarını benzetme
- Doğrulama ve uyumluluk dikkat edilmesi gereken noktalar
Case Studies ve Uygulanan Senaryolar
- Kenar AI ekosistemlerindeki güvenlik başarısızlıkları
- Dayanıklı TinyML mimarisini tasarlama
- Performans ve koruma arasındaki dengeyi değerlendirme
Özet ve Son Adımlar
Kurs İçin Gerekli Önbilgiler
- Gömülü sistem mimarisinin anlamını bilmek
- Makine öğrenme iş akışlarıyla deneyim sahibi olmak
- Siber güvenlik temellerini bilmek
Hedef Kitle
- Güvenlik analistleri
- AI geliştiricileri
- Gömülü mühendisler
Açık Eğitim Kursları 5 ve üzeri katılımcı gerektirir.
TinyML Uygulamalarında Güvenlik ve Gizlilik Eğitimi - Rezervasyon
TinyML Uygulamalarında Güvenlik ve Gizlilik Eğitimi - Talep Oluştur
TinyML Uygulamalarında Güvenlik ve Gizlilik - Danışmanlık Talebi
Danışmanlık Talebi
Yaklaşan Etkinlikler
İlgili Kurslar
Kurumsal Liderler için Yapay Zeka Yönetimi, Uyumluluk ve Güvenlik
14 SaatBu eğitmen öncülüğündeki canlı eğitim Türkiye (çevrimiçi veya yerinde), kurumsal liderlerin sorumlu bir şekilde AI sistemlerini yönetip güvence altına alma ve AB Yapay Zeka Yasası, GDPR, ISO/IEC 42001 ve ABD'nin Yapay Zeka ile ilgili başkanlık kararları gibi ortaya çıkan küresel çerçevelere uyum sağlamayı anlamalarını hedefler.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Bölümler arasında AI kullanımının hukuki, etik ve düzenleyici risklerini anlamak.
- Ana AI yönetim çerçevelerini (AB Yapay Zeka Yasası, NIST AI RMF, ISO/IEC 42001) yorumlamak ve uygulamak.
- Kurumda AI uygulaması için güvenlik, denetim ve gözetleme politikalarını oluşturmak.
- Üçüncü taraf ve iç AI sistemleri için satın alma ve kullanım yönergeleri geliştirmek.
YAPAY ZEKA Risk Management ve Kamu Sektöründe Güvenlik
7 SaatArtificial Intelligence (AI) devlet kurumları ve bakanlıklar için operasyonel risk, yönetim zorlukları ve siber güvenlik maruziyeti açısından yeni boyutlar getiriyor.
Bu eğitmen öncülüğündeki canlı eğitim (online veya on-site), önceki AI deneyimleri sınırlı olan kamu sektörü IT ve risk profesyonelleri için tasarlanmıştır. Bu grup, hükümet veya düzenleyici bir bağlamda AI sistemlerini değerlendirmek, izlemek ve güvenli hale getirmenin yollarını anlamayı istemektedir.
Bu eğitim sonunda katılımcılar aşağıdaki becerileri kazanacaklardır:
- AI sistemleriyle ilgili ana risk kavramlarını yorumlama, bu kavramlara örneğin bias, tahmin edilemezlik ve model kayması dahildir.
- NIST AI RMF ve ISO/IEC 42001 gibi AI özel yönetim ve denetim çerçevelerini uygulama.
- AI modellerine ve veri kanallarına yönelik siber güvenlik tehditlerini tanımak.
- AIployment için çok bölmeli risk yönetimi planlarını ve politika uyumunu oluşturmak.
Eğitim Formatı
- Kamu sektörü kullanım örnekleri hakkındaki etkileşimli dersler ve tartışmalar.
- AI yönetim çerçevesi alıştırmaları ve politika eşleme çalışmaları.
- Senaryo tabanlı tehdit modellemesi ve risk değerlendirmeleri.
Eğitim Özelleştirme Seçenekleri
- Bu eğitim için özel bir eğitimi talep etmek istiyorsanız, lütfen bizimle iletişime geçin ve düzenleme yapın.
AI Güven, Risk ve Güvenlik Yönetimi (AI TRiSM)'e Giriş
21 SaatBu eğitmen yönlendirilmiş, canlı eğitim Türkiye (çevrimiçi veya yerinde) başlangıç seviyesine sahip olan ve organizasyonlarında AI TRiSM'yi anlamak ve uygulamak isteyen ara seviye IT profesyonellerini hedef almaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- AI güvenilirliği, riski ve güvenlik yönetiminin temel kavramlarını ve önemini anlayacaklardır.
- AI sistemleriyle ilişkili riskleri belirleyip azaltabileceklerdir.
- AI için en iyi güvenlik uygulamalarını uygulayacaklardır.
- AI için düzenleyici uyumluluğu ve etik konuları anlayacaklardır.
- Etkili AI yönetim ve yönetişim stratejileri geliştirebileceklerdir.
Güvenli ve Sorumluluklu Büyük Dil Modelleri (LLM) Uygulamaları Oluşturma
14 SaatBu eğitmen liderli, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzeyden ileri düzeyli yapay zeka geliştiricileri, mimarları ve ürün yöneticileri hedef almaktadır. Bu grup, LLM dayalı uygulamalarla ilişkili riskleri belirleyip azaltmayı, prompt enjeksiyonunu, veri sızıntılarını ve süzülmemiş çıkışı gibi sorunları ele almayı, aynı zamanda giriş doğrulaması, insan kontrolü ve çıktı koruyucuları gibi güvenlik kontrollerini uygulamayı öğrenmektedir.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler:
- LLM tabanlı sistemlerin temel zafiyetlerini anlamak.
- LLM uygulama mimarisine güvenli tasarım ilkelerini uygulamak.
- Doğrulama, süzme ve güvenlik için Guardrails AI ve LangChain gibi araçları kullanmak.
- Sandboxing, kırmızı takım ve insan kontrolü gözden geçirmesi gibi teknikleri üretim derecesi işlem hatlarına entegre etmek.
Cybersecurity in AI Systems
14 SaatBu eğitmen yönetimiyle canlı eğitim (çevrimiçi veya yerel) ortamında, finans, veri yönetim ve danışmanlık gibi sıkı düzenlemeler altındaki endüstrilerdeki AI model ve sistemlerine özgü güvenlik açıklarını anlama ve ele almayı isteyen orta seviye AI ve siber güvenlik uzmanları için tasarlanmıştır.
Bu eğitimin sonunda katılımcılar şunları yapabilecekler olacak:
- AI sistemlerini hedefleyen düşmanca saldırıların türleri ve bunlardan korunma yöntemleri hakkında bilgi edinebileceksiniz.
- Makine öğrenimi akışlarını güvence altına almak için model gömme tekniklerini uygulayabilecekler olacak.
- Makine öğrenimi modellerinde veri güvenliğini ve bütünlüğünü sağlayabilecekler olacak.
- AI güvenlikine ilişkin düzenlemeye uyum gerekliliklerini kavrayebilecekler olacak.
AI Security ve Risk Management Girişi
14 SaatBu eğitmen yönetimiyle yapılan canlı eğitim (Türkiye'da ya da online), AI güvenlik kavramlarını, tehdit vektörlerini ve NIST AI RMF veya ISO/IEC 42001 gibi küresel çerçeveleri anlamayı isteyen yeni başlayan IT güvenlik, risk ve uyumluluk profesyonelleri için tasarlanmıştır.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- AI sistemleri tarafından getirilen benzersiz güvenlik risklerini anlayabilmek.
- Mücadelenin örneği, veri zehirlenmesi ve model tersine mühendisliği gibi tehdit vektörlerini tanımlayabilmek.
- NIST AI Risk Management Çerçevesi gibi temel yönetim modellerini uygulamak.
- 新兴的标准、合规指南和道德原则对齐AI的使用。
Microcontrollerlarda TinyML ile AI Uygulama
21 SaatBu eğitmen öncülüğündeki canlı eğitim (çevrimiçi veya yerel), mikrodenetleyicilerde TensorFlow Lite ve Edge Impulse kullanarak makine öğrenme modellerini dağıtmak isteyen orta düzeyde gömülü sistem mühendisleri ve AI geliştiricilere yönelik olmuludur.
Bu eğitim sonunda, katılımcılar aşağıdaki becerileri kazanabilecekler:
- TinyML'nin temellerini ve kenar AI uygulamaları için avantajlarını anlamak.
- TinyML projeleri için bir geliştirme ortamı ayarlama.
- Düşük güç tüketimli mikrodenetleyicilerde AI modellerini eğitme, optimizasyonu ve dağıtma.
- TensorFlow Lite ve Edge Impulse kullanarak gerçek dünyada TinyML uygulamaları uygulama.
- Güç verimliliği ve bellek kısıtlamalarına yönelik AI modellerini optimizasyonu.
OWASP GenAI Güvenliği
14 SaatEn son OWASP GenAI Güvenlik Projesi rehberine dayanarak, katılımcılar AI-ye özgü tehditleri belirlemeyi, değerlendirmeyi ve azaltmayı elden geçirme alıştırmaları ve gerçek dünya senaryolarıyla öğrenecekler.
Gizliliği Koruma Machine Learning
14 SaatBu Türkiye'ta (çevrimiçi veya yerel) yapılan, danışman yönetimi altında eğitim ileri düzeyli profesyoneller için tasarlanmıştır ve federe öğrenme, güvenli çok tarafı hesaplama, homomorfik şifreleme ve farklılık gizliliği gibi teknikleri gerçek dünya makine öğrenme pipeline'larında uygulamak ve değerlendirmek isteyen kişileri hedef alır.
Bu eğitim sonunda katılımcılar aşağıdaki becerileri kazanabilecekler:
- Makine öğreniminde gizliliği koruyan ana teknikleri anlayıp karşılaştırmak.
- Açık kaynak çerçeveleri kullanarak federe öğrenme sistemleri uygulamak.
- Güvenli veri paylaşımı ve model eğitiminde farklılık gizliliğini uygulamak.
- Şifreleme ve güvenli hesaplama tekniklerini kullanarak model girişlerini ve çıkışlarını korumak.
Red Teaming AI Systems: Offensive Security for ML Models
14 SaatBu eğitmenin canlı olarak yürütülen, Türkiye (çevrimiçi veya yerel) eğitim, ileri düzey güvenlik uzmanları ve ML profesyonellerini hedef alarak AI sistemlerine saldırı simülasyonu yapma, zayıflıkları ortaya çıkarma ve dağıtılan AI modellerinin dayanıklılığını artırmayı isteyen kişilere yönelik olmaktadır.
Bu eğitimin sonunda, katılımcılar şunları yapabilecekler:
- Makine öğrenme modellere karşı gerçek dünya tehditlerini simüle etmek.
- Model dayanıklılığını test etmek için düşmanca örnekler oluşturmak.
- AI API'leri ve pipeline'ların saldırı yüzeyini değerlendirmek.
- AI dağıtım ortamları için kırmızı takım stratejileri tasarlamak.
Edge AI ve Gömülü Zeka'nın Güvenilir Kılınması
14 SaatBu eğitmen-led, canlı eğitim Türkiye (çevrimiçi veya yerinde) orta düzey mühendisler ve güvenlik profesyonellerinin Edge'de dağıtılan AI modellerini yozlaşturma, veri sızıntısı, düşmanca girişler ve fiziksel saldırılar gibi tehditlere karşı güvenli hale getirmek isteyenler için düzenlenmiştir.
Bu eğitim sonunda katılımcılar şunları yapabilecekler:
- Edge AI dağıtımlarında güvenlik risklerini tanımlayabilir ve değerlendirebilirler.
- Yozlaşma direnci ve şifrelenmiş çıkarım tekniklerini uygulayabilirler.
- Edge'de dağıtılan modelleri donmuş hale getirebilir ve veri hatlarını güvenli hale getirebilirler.
- Gömülü ve sınırlı sistemlere özgü tehdit azaltma stratejilerini uygulayabilirler.
Securing AI Models: Threats, Attacks, and Defenses
14 SaatBu eğitmen tarafından verilen canlı eğitim (online veya on-site) orta düzeyde makine öğrenimi ve siber güvenlik uzmanları için tasarlanmıştır. Katılımcılar, AI modelleri karşılarına çıkan yeni tehditleri anlamak ve azaltmak için kavramsal çerçeveler ve sağlam eğitimin yanı sıra diferansiyel gizlilik gibi uygulamalı savunmalar kullanmayı öğrenmektedirler.
Bu eğitim sonunda katılımcılar şunları yapabilecek hale gelecekler:
- Adversarial saldırılar, ters çevirme ve zehirlendirme gibi AI-specific tehditleri tanımlayacak ve sınıflandırabilecekler.
- Adversarial Robustness Toolbox (ART) gibi araçları kullanarak saldırıları benzetmeyi ve modelleri test etmeyi öğrenecekler.
- Karışık eğitim, gürültü ekleme ve gizlilik koruma teknikleri dahil olmak üzere pratik savunma yöntemlerini uygulayabilecekler.
- Üretim ortamlarında tehdit bilinci model değerlendirme stratejileri tasarlayacaklar.
Güvenli ve Güvenilir Agentic AI: Yönetim, Kimlik Yönetimi ve Kırmızı Takım Testleri
21 SaatBu kurs, agentic AI sistemler için yönetim, kimlik yönetimi ve düşmanca testi konularını ele alır. Kurumsal güvenli dağıtım desenleri ve pratik kırmızı takım tekniklerine odaklanmaktadır.
Bu eğitmen yönlü, canlı eğitim (çevrimiçi veya kuruma özel) gelişmiş düzeyde uygulayıcılar için tasarlanmıştır. Katılımcıların üretim ortamlarında ajan tabanlı AI sistemlerini tasarlama, güvenli hale getirme ve değerlendirme becerilerini geliştirmeyi amaçlamaktadır.
Bu eğitim sonunda katılımcılar şunları yapabilecektir:
- Güvenli agentic AI dağıtım için yönetim modelleri ve politikalarını tanımlayabileceklerdir.
- En az yetkiye sahip ajanlar için insan olmayan kimlik ve kimlik doğrulama akışlarını tasarlayabileceklerdir.
- Otonom ajanlar için özel erişim kontrolleri, denetim izleri ve gözlemlenbilirliği uygulayabileceklerdir.
- Kötü amaçlı kullanım, yetki yükseltme yolları ve veri çıkarma risklerini keşfetmek için kırmızı takım çalışmaları planlayabilecek ve yürütülebilirlerdir.
- Politika, mühendislik kontrolleri ve izleme aracılığıyla agentic sistemlere yönelik yaygın tehditleri azaltabileceklerdir.
Eğitim Formatı
- Etkileşimli dersler ve tehdit modellemesi atölyeleri.
- Pratik laboratuvarlar: kimlik sağlama, politika uygulaması ve düşmanca benzetim.
- Kırmızı takım / mavi takım çalışmaları ve kurs sonu değerlendirme.
Kurs Özelleştirme Seçenekleri
- Bu kurs için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize başvurunuz.
TinyML Giriş
14 SaatBu eğitmen tarafından yönetilen canlı eğitim (çevrimiçi veya yerel olarak) temel seviye mühendisler ve veri bilimciler için tasarlanmıştır. Bu grup, TinyML temellerini anlamayı, uygulamalarını keşfetmeyi ve AI modellerini mikrodenetçilere dağıtmayı isteyen kişilere yöneliktedir.
Bu eğitim sonunda, katılımcılar şunları yapabilecektir:
- TinyML temellerini ve önemini anlamak.
- Akıllı cihazlara ve kenar cihazlarına hafif AI modelleri dağıtmak.
- Düşük güç tüketimi için makine öğrenme modelerini optimize etmek ve ayarlamak.
- El hareket tanımaya, anomali algılama ve ses işleme gibi gerçek dünya uygulamaları için TinyML kullanmak.
TinyML: Üstün Düşük Güç Kenar Cihazlarda AI Çalıştırma
21 SaatBu eğitmen öncülüğündeki, canlı eğitim Türkiye (çevrimiçi veya yerel) ortamda, enerji verimli donanımlarda AI destekli uygulamalar için TinyML tekniklerini uygulamak isteyen orta düzeyde gömülü mühendisleri, IoT geliştirmecilerini ve AI araştırmacılarını hedef almaktadır.
Bu eğitim sonunda, katılımcılar şunları başarabilecekler:
- TinyML ve kenar AI'nin temellerini anlamak.
- Hafif AI modellerini mikrodenetleyicilere dağıtmak.
- Düşük güç tüketimi için AI çıkarımını optimize etmek.
- TinyML'yi gerçek dünya IoT uygulamalarıyla entegre etmek.