Özel eğitilmiş ML modelini sunucusuz fonksiyonda (AWS Lambda) soğuk başlatma sorunları olmadan nasıl dağıtırım?

0

Kendi eğitmiş olduğum bir metin sınıflandırma modelini AWS Lambda üzerinde sunucusuz bir API olarak dağıtmaya çalışıyorum. Ancak her çağrıda modelin yüklenmesi nedeniyle ciddi soğuk başlatma gecikmeleri yaşıyorum. Model paketi yaklaşık 500 MB civarında, bu da dağıtım boyut limitlerini zorluyor. Daha hızlı yanıt süreleri elde etmek ve paket boyutunu optimize etmek için ne gibi yöntemler kullanabilirim?

Cevaplar (1)