Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.11 sürümü duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. OpenAI GPT-OSS, DeepSeek-R1, Gemma 3 ve diğer büyük dil modellerini dağıtmanın bu kolay kullanımlı yöntemine en yeni özellik güncellemesi olarak duyurulan yeni sürüm, artık Vulkan API’sini destekliyor. Ollama‘yı OLLAMA_VULKAN=1 ortam değişkeni kümesiyle başlatmanın, AMD ROCm ve NVIDIA CUDA hızlandırma gibi çözümlere alternatif olarak Vulkan API desteğini etkinleştireceği belirtiliyor. Bu, açık kaynaklı Vulkan sürücüleri, ROCm desteği olmayan eski AMD grafik kartları ve hatta RADV sürücüsü mevcut ancak ROCm yüklü olmayan tüm AMD kurulumları için harika bir özellik olarak sunuluyor. Ollama 0.12.11 sürümü ayrıca Logprobs için API desteği, yeni uygulamaları içinde WebP görüntüleri desteği, iyileştirilmiş işleme performansı, modellerin zamanlanması sırasında entegre GPU’lar yerine ayrı GPU’ların tercih edilmesi ve çeşitli diğer düzeltmeler ve geliştirmeler ekliyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın yeni sürümünün Vulkan API’sini desteklemesi önemli görülüyor. Ollama 0.12.11 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →
Ollama 0.12.11 edinmek için aşağıdaki linklerden yararlanabilirsiniz.


