KoboldCpp, GGUF ve GGML formatındaki büyük dil modellerini (LLM) yerel olarak çalıştırmanızı sağlayan hafif ve güçlü bir araçtır. Tek bir .exe dosyası olarak gelir; kurulum gerektirmez. KoboldAI’ın metin üretme arayüzüyle llama.cpp’nin performansını birleştirir. Yaratıcı yazarlık, rol yapma, soru-cevap ve metin tamamlama gibi senaryolar için optimize edilmiştir. CPU, NVIDIA GPU ve Apple Silicon üzerinde çalışır. Windows, macOS ve Linux’ta ücretsiz kullanılabilir.
Öne Çıkan Özellikler
- GGUF ve GGML formatı desteği
- Tek dosya — kurulum gerektirmez
- CPU, NVIDIA GPU ve Apple Silicon desteği
- KoboldAI arayüzü ile kullanıcı dostu deneyim
- Yaratıcı yazarlık ve rol yapma senaryoları
- OpenAI uyumlu API çıktısı
- Çevrimdışı çalışır — veri gizliliği tam
- Karakter kartı ve senaryo yönetimi
- Windows, macOS ve Linux desteği
- Tamamen ücretsiz ve açık kaynak
KoboldCpp ile yerel bir LLM modeli nasıl çalıştırılır?
- KoboldCpp’yi GitHub’dan indirin (.exe veya binary olarak).
- Hugging Face veya başka bir kaynaktan GGUF formatında bir model indirin (örn. Mistral 7B Q4_K_M).
- KoboldCpp’yi çalıştırın; model dosyasını seçin.
- GPU katman sayısını (GPU layers) ayarlayın — yeterli VRAM’iniz varsa daha fazla katman daha hızlı çalışır.
- Başlat deyin; tarayıcıda arayüz otomatik açılır.
KoboldCpp’de bağlam uzunluğunu (context length) nasıl artırırım?
- KoboldCpp’yi açın; başlangıç ekranındaki Bağlam Boyutu (Context Size) alanını bulun.
- Varsayılan değeri (genellikle 2048) artırın; 4096, 8192 veya daha fazla girin.
- Daha yüksek bağlam boyutu daha fazla RAM/VRAM gerektirir.
- RoPE scaling seçeneğini etkinleştirerek modelin desteklemediği uzun bağlamları deneyebilirsiniz.
- Başlat deyin — model yeni bağlam boyutuyla yüklenir.
Alternatifler
- Tamamen ücretsiz yerel AI dil modeli çalıştırıcı
- Tek .exe dosyası, kurulum gerektirmez
- NVIDIA CUDA ve AMD ROCm GPU desteği
- OpenAI uyumlu API ile mevcut araçlarla entegrasyon
- Çok geniş model desteği (GGUF formatı)
- Ses sentezi ve multimodal özellikler
- Türkçe arayüz desteği yok
- Büyük modeller için yüksek VRAM/RAM gereksinimi
- Teknik bilgi gerektiren konfigürasyon seçenekleri
- LM Studio kadar kullanıcı dostu bir arayüz yok
İşletim Sistemi: Windows 10 ve üzeri (64-bit)
RAM: Minimum 8 GB (modele göre değişir)
Disk: 2-50+ GB (model dosyaları dahil)
GPU: NVIDIA GPU (CUDA) önerilir; AMD ROCm ve CPU da desteklenir
Diğer: GGUF formatında dil modeli gerekli (HuggingFace'den indirilebilir)