Tag Archives | bulut tabanlı

Ollama 0.12.11 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.11 sürümü duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. OpenAI GPT-OSS, DeepSeek-R1, Gemma 3 ve diğer büyük dil modellerini dağıtmanın bu kolay kullanımlı yöntemine en yeni özellik güncellemesi olarak duyurulan yeni sürüm, artık Vulkan API’sini destekliyor. Ollama‘yı OLLAMA_VULKAN=1 ortam değişkeni kümesiyle başlatmanın, AMD ROCm ve NVIDIA CUDA hızlandırma gibi çözümlere alternatif olarak Vulkan API desteğini etkinleştireceği belirtiliyor. Bu, açık kaynaklı Vulkan sürücüleri, ROCm desteği olmayan eski AMD grafik kartları ve hatta RADV sürücüsü mevcut ancak ROCm yüklü olmayan tüm AMD kurulumları için harika bir özellik olarak sunuluyor. Ollama 0.12.11 sürümü ayrıca Logprobs için API desteği, yeni uygulamaları içinde WebP görüntüleri desteği, iyileştirilmiş işleme performansı, modellerin zamanlanması sırasında entegre GPU’lar yerine ayrı GPU’ların tercih edilmesi ve çeşitli diğer düzeltmeler ve geliştirmeler ekliyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın yeni sürümünün Vulkan API’sini desteklemesi önemli görülüyor. Ollama 0.12.11 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →

 

 

 

 

 

Ollama 0.12.11 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

Ollama 0.12.6-rc0 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.6 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünde, yanıt oluştururken donmasına neden olan sorununun düzeltildiği söyleniyor. Qwen3-coder’ın /api/generate veya ollama run qwen3-coder <prompt> kullanıldığında ham modda çalışmasına neden olan sorun da düzeltilirken, Ollama’nın artık num_gpu ayarlandığında modelleri doğru şekilde çıkardığı belirtiliyor. Vulkan için deneysel destek artık kaynaktan yerel olarak derlendiğinde kullanılabiliyor. Gelecekteki bir sürümde, Vulkan desteğinin ikili sürüme de ekleneceği ifade ediliyor. Ollama 0.12.6-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →

 

 

 

 

Ollama 0.12.6-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

Ollama 0.11.9-rc0 duyuruldu

Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.11.9 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünün, VMware mühendisi Daniel Hiltgen tarafından geliştirildiği ve GPU’nun meşgul kalmasına yardımcı olmak için bir sonraki grup için grafiği eşzamansız olarak oluşturmayı amaçladığı ifade ediliyor. Metal işlemcide, token oranında %2-3’lük; RTX 4090 işlemcide ise yaklaşık %7’lik bir hızlanma görüldüğü belirtiliyor. Ollama 0.11.9-rc0 sürümü ayrıca, tanınmayan AMD GPU’larının ollama için hataya neden olduğu sorunları da düzeltiyor. Ollama 0.11.9-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz.

Continue Reading →

 

 

Ollama 0.11.9-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.

0

SUSE, Perl ve Raku Vakfı’na 11.500 ABD doları bağışladı

Perl ve Raku Vakfı’nın (TPRF), dünyanın önde gelen kurumsal GNU/Linux, bulut tabanlı ve yapay zeka çözümleri sağlayıcılarından biri olan SUSE‘nin 11.500 ABD Doları tutarındaki önemli bağışını duyurmaktan mutluluk duyduğunu ilan etti. Perl 5 Çekirdek bakım fonunu destekleyen bu cömert katkının SUSE’nin açık kaynak ekosistemine olan bağlılığını gösterdiği belirtiliyor. 10.000 ABD Doları SUSE LLC tarafından bağışlanırken, Perl’in geliştirilmesini ve sürdürülebilirliğini desteklemek için SUSE Açık Kaynak Ağı (SUSE Open Source Network) tarafından ek 1.500 ABD doları daha sağlanmış bulunuyor. Linux Ürün Yönetimi ve Pazarlama Operasyon Direktörü Miguel Pérez Colino; SUSE için Perl’in, ekosistemin temel bir bileşeni ve üyesi olduğunu belirtiyor. SUSE Linux Enterprise ve openSUSE’de Perl paketlerinin aktif olarak desteklendiğini, Linux çözümlerinin bir parçası olarak sunulduğunu söylüyor.

Continue Reading →

 

 

 

OpenQA ve Open Build Service gibi araçlarda da yaygın olarak kullanıldığını belirten Colino; üstelik bu sonuncusunun yalnızca Linux paketlerini değil, Kubernetes’i de oluşturmak için kullanıldığını ifade ediyor. Colino; parçası olunan ve desteklenen açık kaynak dünyası için hayati önem taşıyan Perl’in sürekli gelişimini ve sağlığını sağlamak için Perl ve Raku Vakfı’na (TPRF) gururla bağış yaptıklarını belirtiyor. SUSE’nin, Perl ve Raku Vakfı’na 11.500 ABD doları bağış yapması konusunda perl.com üzerinde konuyu ele alan Olaf Alders’in yazısına buradan ulaşabilirsiniz.

0

Apache Software Foundation (ASF) Apache Ozone 2.0.0’ı duyurdu

Apache HBase’i destekleyen ilk nesne deposu olan ve geleneksel nesne depolamanın yanı sıra düşük gecikmeli okuma/yazma iş yüklerini de mümkün kılan Apache Ozone‘nin 2.0.0 sürümü, Apache Software Foundation (ASF) tarafından duyuruldu. Atomik anahtar üzerine yazma ve anahtar değiştirme desteği, eş zamanlı çalışan uygulamalar için tutarlılığı artırdığı belirtilirken, Ozone Recon izleme arayüzü, yöneticileri desteklemek için daha iyi ölçümler ve gezinme özellikleriyle netlik sağlamak üzere yeniden tasarlanmış bulunuyor. Artık JDK 17 ve JDK 21 ile uyumlu ve ARM64 üzerine kurulu, daha geniş dağıtım seçenekleri sunulduğu; 2.0.0 sürümüyle Apache Ozone’nin, Apache Hadoop için bir nesne deposundan, yapay zeka, veri gölleri ve hibrit bulut kullanım durumları için tasarlanmış modern, bulut tabanlı bir depolama platformuna dönüşme sürecini sürdürdüğü ifade ediliyor. Apache Ozone 2.0.0 hakkında bilgi edinmek için sürüm duyurusunu inceleyebilirsiniz.

Continue Reading →

 

 

Apache Ozone 2.0.0 edinmek için aşağıdaki linkten yararlanabilirsiniz.

0