Tag Archives | yerel

Ollama 0.12.11 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.11 sürümü duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. OpenAI GPT-OSS, DeepSeek-R1, Gemma 3 ve diğer büyük dil modellerini dağıtmanın bu kolay kullanımlı yöntemine en yeni özellik güncellemesi olarak duyurulan yeni sürüm, artık Vulkan API’sini destekliyor. Ollama‘yı OLLAMA_VULKAN=1 ortam değişkeni kümesiyle başlatmanın, AMD ROCm ve NVIDIA CUDA hızlandırma gibi çözümlere alternatif olarak Vulkan API desteğini etkinleştireceği belirtiliyor. Bu, açık kaynaklı Vulkan sürücüleri, ROCm desteği olmayan eski AMD grafik kartları ve hatta RADV sürücüsü mevcut ancak ROCm yüklü olmayan tüm AMD kurulumları için harika bir özellik olarak sunuluyor. Ollama 0.12.11 sürümü ayrıca Logprobs için API desteği, yeni uygulamaları içinde WebP görüntüleri desteği, iyileştirilmiş işleme performansı, modellerin zamanlanması sırasında entegre GPU’lar yerine ayrı GPU’ların tercih edilmesi ve çeşitli diğer düzeltmeler ve geliştirmeler ekliyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın yeni sürümünün Vulkan API’sini desteklemesi önemli görülüyor. Ollama 0.12.11 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →

 

 

 

 

 

Ollama 0.12.11 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

Ollama 0.12.6-rc0 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.6 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünde, yanıt oluştururken donmasına neden olan sorununun düzeltildiği söyleniyor. Qwen3-coder’ın /api/generate veya ollama run qwen3-coder <prompt> kullanıldığında ham modda çalışmasına neden olan sorun da düzeltilirken, Ollama’nın artık num_gpu ayarlandığında modelleri doğru şekilde çıkardığı belirtiliyor. Vulkan için deneysel destek artık kaynaktan yerel olarak derlendiğinde kullanılabiliyor. Gelecekteki bir sürümde, Vulkan desteğinin ikili sürüme de ekleneceği ifade ediliyor. Ollama 0.12.6-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →

 

 

 

 

Ollama 0.12.6-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

Ollama 0.11.9-rc0 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.11.9 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünün, VMware mühendisi Daniel Hiltgen tarafından geliştirildiği ve GPU’nun meşgul kalmasına yardımcı olmak için bir sonraki grup için grafiği eşzamansız olarak oluşturmayı amaçladığı ifade ediliyor. Metal işlemcide, token oranında %2-3’lük; RTX 4090 işlemcide ise yaklaşık %7’lik bir hızlanma görüldüğü belirtiliyor. Ollama 0.11.9-rc0 sürümü ayrıca, tanınmayan AMD GPU’larının ollama için hataya neden olduğu sorunları da düzeltiyor. Ollama 0.11.9-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz.

Continue Reading →

 

 

Ollama 0.11.9-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

CodeEdit 0.3.0 duyuruldu

Hafif, yerel olarak oluşturulmuş bir düzenleyici olan CodeEdit‘in 0.3.0 sürümü duyuruldu. Kullanıcının, daha önce hiç olmadığı kadar yüksek hızlarda, daha fazla verimlilik ve güvenilirlikle herhangi bir dili kullanarak herhangi bir proje geliştirebileceği belirtilirken, sürümün, görev çalıştırma ve kaynak kontrolü iyileştirmeleriyle geldiği ifade ediliyor. Yeni etkinlik görüntüleyicisinde görevleri çalıştırma ve mevcut durumlarını ve çıktılarını görme yeteneği sunulduğu belirtilirken; itme, çekme, getirme ve saklama yetenekleri sağlanarak kaynak kontrolü entegrasyonunun da geliştirildiği söyleniyor. Git push force ve etiket seçeneklerinin etkinleştirildiği belirtilirken, yardımcı alan geçiş animasyonunun iyileştirildiği söyleniyor. CodeEdit 0.3.0 hakkında bilgiyi neler yeni sayfasında ya da GitHub sayfasında bulabilirsiniz.

Continue Reading →

 

 

CodeEdit 0.3.0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0