Unity AI Oyun Yaratıcısı - StarCoder2 3B

Machine Learning
AI
Full Stack
Unity AI Oyun Yaratıcısı - StarCoder2 3B

Tech Stack

StarCoder2
Unity
C#
PyTorch
Transformers
LoRA
PEFT
WandB
Python
Machine Learning

Description

BigCode'un StarCoder2-3B modeli (3,039,464,448 parametre) üzerine kurulu kurumsal düzeyde Unity AI asistanı, gelişmiş fine-tuning teknikleri ile geliştirildi. Sistem, verimli parametre-etkin fine-tuning için LoRA (Low-Rank Adaptation) kullanır: rank 16, alpha 32, 0.1 dropout ile temel dikkat modüllerini hedefler (q_proj, v_proj, k_proj, o_proj, gate_proj, up_proj, down_proj).

En son optimizasyon teknikleri ile uygulanan profesyonel eğitim pipeline'ı: AdamW optimizer (lr=0.0002), 100 warmup adımı ile doğrusal scheduler, gradient biriktirme (4 adım), ve NF4 ile çift quantization kullanan 4-bit quantization. Model, 3 epoch boyunca 2.04 eğitim kaybı ve saniyede 1.015 örnek işleme hızı elde etti.

Gelişmiş donanım optimizasyonu FP16 karışık hassasiyet eğitimi, bellek verimliliği için gradient checkpointing ve 2 worker ile optimize edilmiş veri yükleme içerir. Sistem otomatik bellek yönetimi ve performans monitoring ile hem CPU (16GB limit) hem de GPU (12GB limit) deployment'ını destekler.

Weights & Biases ile entegre edilmiş kapsamlı monitoring ve değerlendirme sistemi, otomatik plot üretimi, eğitim metrikleri takibi ve profesyonel raporlama özelliklerine sahip. Model Unity'ye özel prompt şablonları, çıkarım konfigürasyonu (top_p=0.9, temperature=0.7, max_tokens=512) ve üretim hazır deployment ayarları içerir.

Veri pipeline'ı Unity dokümantasyonu, GitHub repositorylerini (UnityTechnologies/open-project-1, Unity-Technologies/ml-agents ve 5 diğer büyük Unity repo'su) işler, akıllı filtreleme (10-500 satır, maks 50KB dosya) ve yüksek kaliteli eğitim verisi için kapsamlı Unity Learn entegrasyonu ile.

  • StarCoder2-3B temel model: 3.04 milyar parametre, 30 gizli katman, 24 dikkat başlığı
  • Gelişmiş LoRA fine-tuning: Rank 16, alpha 32, 7 temel dikkat modülünü hedefliyor
  • 4-bit quantization: Verimlilik için NF4 çift quantization, FP16 compute dtype
  • Profesyonel eğitim metrikleri: 2.04 eğitim kaybı, 93.2s runtime, 1.015 örnek/saniye
  • Donanım optimizasyonu: FP16 hassasiyet, gradient checkpointing, bellek-verimli yükleme
  • W&B entegrasyonu: Gerçek zamanlı monitoring, otomatik raporlama, performans görselleştirme
  • Unity'ye özel veri: 7 büyük Unity repo'su, dokümantasyon, filtrelenmiş kod örnekleri
  • Üretim çıkarımı: Yapılandırılabilir üretim parametreleri ile optimize edilmiş pipeline
  • Kurumsal deployment: Profesyonel monitoring, hata yönetimi, ölçeklenebilir mimari

Page Info

Model Mimarisi ve Eğitimi

StarCoder2-3B temel modeli (3.04 milyar parametre) ile LoRA fine-tuning, 4-bit quantization ve gelişmiş eğitim konfigürasyonu

/logo.png

Eğitim Sonuçları ve Metrikleri

W&B monitoring ile profesyonel eğitim pipeline'ı: 3 epoch, 2.04 eğitim kaybı, optimize edilmiş performans metrikleri ve donanım kullanımı

/logo.png

Üretim Deployment'ı

FP16 hassasiyet, gradient checkpointing, profesyonel monitoring ve raporlama sistemleri ile optimize edilmiş çıkarım pipeline'ı

/logo.png