Antalya'da (çevrimiçi veya yerel) yapılan bu eğitmen yönetimi altında gerçekleşen canlı eğitim, LLM'ye dayalı uygulamalarla ilgili riskleri belirlemek ve azaltmayı isteyen orta düzeyden ileri düzey AI geliştiricilerine, mimarlarına ve ürün yöneticilerine yöneliktir. Bu riskler arasında prompt enjeksiyonu, veri sızıntısı ve süzgeçsiz çıkış bulunmaktadır. Ayrıca güvenlik kontrolü olarak giriş doğrulaması, insanlı döngü denetimi ve çıkış sınırlayıcılarını da içerir.
Eğitim sonunda katılımcılar şunları yapabilecekler:
- LLM tabanlı sistemlerin temel zayıflıklarını anlamak.
- Güvenli tasarım ilkelerini LLM uygulama mimarisine uygulamak.
- Doğrulama, süzgeçleme ve güvenlik için Guardrails AI ve LangChain gibi araçları kullanmak.
- Sandık testi, kırmızı takım ve insanlı döngü gözden geçirme tekniklerini üretim kalitesinde akışlara entegre etmek.
LLM Mimarisi ve Saldırı Alanının Genel Bakışı
- LLMs'nin nasıl oluşturulduğunu, dağıtıldığını ve API'ler aracılığıyla erişildiğini anlamak.
- LLM uygulama yığıtlarındaki ana bileşenleri (örneğin, promptlar, ajanslar, bellek, API'ler).
- Gerçek dünyada güvenlik sorunlarının nasıl ve nerede ortaya çıktığını anlamak.
Prompt Enjeksiyonu ve Kilit Açma Saldırıları
- Prompt enjeksiyonunun ne olduğunu ve neden tehlikeli olduğunu anlamak.
- Doğrudan ve dolaylı prompt enjeksiyon senaryoları.
- Güvenlik filtrelerini aşmak için kilit açma teknikleri.
- Tespit ve azaltma stratejileri.
Veri Sızıntısı ve Gizlilik Riskleri
- Cevaplar aracılığıyla rastgele veri açıkçası.
- PII sızıntıları ve model bellek kullanımının kötüye kullanımı.
- Gizliliğe duyarlı promptlar ve geri dönüşüm ile güçlendirilmiş üretim (RAG) tasarımı.
LLM Çıkış Süzgeçleme ve Koruması
- Guardrails AI kullanarak içerik süzgeçlemesi ve doğrulaması.
- Çıkış şemalarını ve kısıtlamalarını tanımlama.
- Güvensiz çıkışı izleme ve günlüğe kaydetme.
İnsanlı Döngü ve İş Akışı Yaklaşımları
- İnsan denetimini nerede ve ne zaman tanıtmak gerektiğini anlamak.
- Onay kuyuları, puanlama eşikleri, geri dönüş işleme.
- Güven kalibrasyonu ve açıklık rolü.
Güvenli LLM Uygulaması Design Patterns
- API çağrıları ve ajanslar için en az ayrıcalık ve sandık testi.
- Hız sınırlama, hız düşürme ve kötüye kullanım algılama.
- LangChain ile sağlam zinciri ve prompt izolasyonu.
Uyumluluk, Günlüğe Kaydetme ve Governance
- LLM çıktısının denetlenebilir olmasını sağlamak.
- Takibi koruma ve prompt/sürüm kontrolü.
- Dahili güvenlik politikalarıyla ve düzenleyici ihtiyaçlarla uyum sağlama.
Özet ve Sonraki Adımlar
LLM uygulama güvenliği, büyük dil modelleri kullanarak güvenli, güvendiği ve politika uyumlu sistemler tasarlamak, inşa etmek ve sürdürmektir.
Antalya'da yapılan bu eğitmen yönetimi altında gerçekleşen canlı eğitim (çevrimiçi veya yerel), LLM'ye dayalı uygulamalarla ilgili riskleri belirlemek ve azaltmayı isteyen orta düzeyden ileri düzey AI geliştiricilerine, mimarlarına ve ürün yöneticilerine yöneliktir. Bu riskler arasında prompt enjeksiyonu, veri sızıntısı ve süzgeçsiz çıkış bulunmaktadır. Ayrıca güvenlik kontrolü olarak giriş doğrulaması, insanlı döngü denetimi ve çıkış sınırlayıcılarını da içerir.
Eğitim sonunda katılımcılar şunları yapabilecekler:
- LLM tabanlı sistemlerin temel zayıflıklarını anlamak.
- Güvenli tasarım ilkelerini LLM uygulama mimarisine uygulamak.
- Doğrulama, süzgeçleme ve güvenlik için Guardrails AI ve LangChain gibi araçları kullanmak.
- Sandık testi, kırmızı takım ve insanlı döngü gözden geçirme tekniklerini üretim kalitesinde akışlara entegre etmek.
Eğitim Formatı
- Interaktif ders anlatımı ve tartışma.
- Çok sayıda egzersiz ve uygulama.
- Canlı laboratuvar ortamında uygulama.
Eğitim Özelleştirme Seçenekleri
- Bu eğitim için özelleştirilmiş bir eğitim talep etmek istiyorsanız, lütfen bize ulaşarak düzenleme yapın.
Ön Koşullar
- Büyük dil modelleri ve prompt tabanlı arayüzleri anlamak.
- Python kullanarak LLM uygulamaları inşa etme deneyimi.
- API tümleştirmeleri ve bulut tabanlı dağıtımlarla tanıdık olmak.
Kitle
- AI geliştiricileri.
- Uygulama ve çözüm mimarları.
- LLM araçlarıyla çalışan teknik ürün yöneticileri.
Daha Fazla...