Teknoloji2 dk22
FastAPI ile ML Model Dağıtımı
Umut Can Islak
Yazar

FastAPI ile ML Model Dağıtımı
Feature store entegrasyonu, ölçeklendirme ve gözlem
Makine öğrenimi modellerini FastAPI üzerinde yayınlamak, feature store ve gözlem katmanı ile desteklendiğinde güvenilir olur. Bu yol haritası MLOps mühendisi profiline yönelik hazırlanmış olup FastAPI, Redis, Feast, KServe araçlarıyla uygulanabilir.
Feature Store Entegrasyonu
Model aynı feature tanımıyla çalışmazsa üretim sonuçları sapar.
- Feast ile çevrim içi/çevrim dışı eşitlik sağlamak
- Feature revizyonlarını loglamak
- Feature servisleri için fallback tanımlamak
Ölçeklenebilir Mimari
Async FastAPI worker’ları ve Redis cache combination throughput’u artırır.
- Uvicorn + gunicorn konfigürasyonunu benchmark etmek
- Redis tabanlı feature cache
- KServe autoscaling politikaları
Gözlemlenebilirlik ve Drift
Tahmin sonuçları ile gerçek değerleri eşlemedikçe drift fark edilmez.
- Prediction ve label loglarını eşlemek
- Model versiyonlarını header’da döndürmek
- Grafana panelinde skor dağılımı göstermek
Başarı Metrikleri
- P95 latency: 85ms — Async worker + Redis cache sonrası.
- Feature drift alarmı: <4 saat — Feast denetimleri sayesinde.
- Autoscaling isabeti: +%18 — KServe metrikleri tuned edildi.
Kod Örneği — FastAPI inference endpoint
@app.post('/predict')
async def predict(req: RequestModel):
features = await feast_store.get_online_features(req.user_id)
score = model.predict(features)
log_prediction(req.user_id, score)
return {'score': float(score)}
Uygulama Kontrol Listesi
- Feast ile feature eşitliği kur.
- Async worker konfigürasyonunu benchmark et.
- Redis cache katmanı ekle.
- Prediction-log eşlemelerini sakla.
- KServe autoscaling kurallarını ayarla.
Anahtar odaklar: mlops, fastapi, deployment.
Yorumlar (0)
Yorum Yaz
Henüz yorum yapılmamış. İlk yorumu sen yap!