Test etmeye gerek kalmadan kod içindeki hataları bulan, açık kaynaklı ve özgür bir yazılım olan PHPStan‘in 2.1.35 sürümü duyuruldu. PHPStan tüm kod tabanını tarıyor ve hem bariz hem de zor hataları arıyor. PHPStan’ın Artık statik analizde %25-40 daha hızlı olduğu belirtilirken, yazılımın, yansıma nesnelerinin önbelleğe alınması ve analiz koduna yapılan birçok ham performans optimizasyonu ile çok daha yüksek performans sunduğu söyleniyor. Yeni sürümde, 2 gün önce duyurusu yapılan 2.1.34 sürümüne artı olarak ArrayCountValuesDynamicReturnTypeExtension hatası düzeltilmiş olarak geldiği ifade ediliyor. Fibers ve Deep klonlama sentetik düğümlerine rağmen processStmtNodesInternal’ın senkronize hale getirildiği belirtilirken, getParameters() çağrı noktaları etrafındaki gereksiz işlemlerin önlendiği söyleniyor. Aynı zamanda, Symfony, Laravel veya Doctrine gibi popüler çerçeveler için uzantılar sunan PHPStan; PHP’ye gelmeden önce yeni dil özelliklerinin keyfini çıkarmayı sağlıyor. Hatalara göz atmak için CLI yerine güzel web kullanıcı arayüzü, arka planda sürekli analizle otomatik yenileme. PHPStan 2.1.35 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →
Tag Archives | cli
Ollama 0.14.0-rc2 duyuruldu
Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.14.0-rc2 sürümü duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. OpenAI GPT-OSS, DeepSeek-R1, Gemma 3 ve diğer büyük dil modellerini dağıtmanın bu kolay kullanımlı yöntemine en yeni özellik güncellemesi olarak duyurulan yeni sürüm, artık Vulkan API’sini destekliyor. Ollama‘nınyeni sürümü, bu deneysel modda bir ajan döngüsü çalıştırmak için ollama run –experimental komutuyla yeni bir işlevsellik sunuyor; böylece LLM’ler sistemde bash ve web araması gibi araçları kullanabiliyor. Bazı kişilerin hoşuna gitmeyecek olsa da, ollama 0.14 ile gelen yeni deneysel ajan döngüsü, LLM’lerin Bash gibi bazı araçlardan yararlanmasına olanak tanıyor. “LLM’lerin etkileşimli kullanıcı onayıyla araçları (bash, web_search) kullanmasına olanak tanıyan bir aracı döngüsünü etkinleştirmek için –experimental bayrağının eklenmesi gerekiyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın yeni sürümünün Vulkan API’sini desteklemesi önemli görülüyor. Ollama 0.14.0-rc2 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →
Ollama 0.14.0-rc2 edinmek için aşağıdaki linklerden yararlanabilirsiniz.
Ubuntu Sway Remix 25.10 çıktı
Popüler Sway pencere yöneticisini içeren resmi olmayan bir Ubuntu yeniden düzenlemesi olarak gelen Rus kökenli bir GNU/Linux dağıtımı olan Ubuntu Sway Remix‘in 25.10 sürümü çıktı. Hem klavye odaklı pencere yöneticilerinin arayüzüyle ilgilenen Linux’a yeni başlayanları hem de güçlü, kullanıcı dostu ve minimalist bir masaüstü isteyen ileri düzey Linux kullanıcıları için tasarlandığı belirtilen sistem; çoğu kullanıcının ihtiyaçlarını karşılamak için birçok popüler konsol tabanlı araç ve grafiksel uygulama içeriyor. Ubuntu Sway Remix, Calamares yükleyicisini kullanıyor, Ubuntu’nun snap paketlerine desteği kaldırıyor ve Raspberry Pi tek kartlı bilgisayarların en yeni serisi için ayrı bir sürüm sunuyor. Modern Wayland grafik yığınını kullanan popüler bir döşeme pencere yöneticisi (kompozitör) olan Sway’e dayalı, kullanıcı dostu bir masaüstü sağlamayı hedefleyen sistem, çoğu kullanıcının ihtiyaçlarını karşılamak için popüler konsol tabanlı uygulamalar ve yardımcı programlar (CLI) ile birlikte grafiksel kullanıcı arayüzü (GUI) uygulamalarını içeriyor.
Ubuntu Sway Remix 25.10 edinmek için aşağıdaki linten yararlanabilirsiniz.
Ollama 0.12.11 duyuruldu
Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.11 sürümü duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. OpenAI GPT-OSS, DeepSeek-R1, Gemma 3 ve diğer büyük dil modellerini dağıtmanın bu kolay kullanımlı yöntemine en yeni özellik güncellemesi olarak duyurulan yeni sürüm, artık Vulkan API’sini destekliyor. Ollama‘yı OLLAMA_VULKAN=1 ortam değişkeni kümesiyle başlatmanın, AMD ROCm ve NVIDIA CUDA hızlandırma gibi çözümlere alternatif olarak Vulkan API desteğini etkinleştireceği belirtiliyor. Bu, açık kaynaklı Vulkan sürücüleri, ROCm desteği olmayan eski AMD grafik kartları ve hatta RADV sürücüsü mevcut ancak ROCm yüklü olmayan tüm AMD kurulumları için harika bir özellik olarak sunuluyor. Ollama 0.12.11 sürümü ayrıca Logprobs için API desteği, yeni uygulamaları içinde WebP görüntüleri desteği, iyileştirilmiş işleme performansı, modellerin zamanlanması sırasında entegre GPU’lar yerine ayrı GPU’ların tercih edilmesi ve çeşitli diğer düzeltmeler ve geliştirmeler ekliyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın yeni sürümünün Vulkan API’sini desteklemesi önemli görülüyor. Ollama 0.12.11 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →
Ollama 0.12.11 edinmek için aşağıdaki linklerden yararlanabilirsiniz.
Ollama 0.12.6-rc0 duyuruldu
Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.12.6 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünde, yanıt oluştururken donmasına neden olan sorununun düzeltildiği söyleniyor. Qwen3-coder’ın /api/generate veya ollama run qwen3-coder <prompt> kullanıldığında ham modda çalışmasına neden olan sorun da düzeltilirken, Ollama’nın artık num_gpu ayarlandığında modelleri doğru şekilde çıkardığı belirtiliyor. Vulkan için deneysel destek artık kaynaktan yerel olarak derlendiğinde kullanılabiliyor. Gelecekteki bir sürümde, Vulkan desteğinin ikili sürüme de ekleneceği ifade ediliyor. Ollama 0.12.6-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz. Continue Reading →
Ollama 0.12.6-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.
Ollama 0.11.9-rc0 duyuruldu
Büyük dil modellerini (LLM) bilgisayarda yerel olarak çalıştırmaya ve yönetmeye olanak tanıyan bir araç olan Ollama‘nın 0.11.9 sürüm adayı duyuruldu. Harici sunuculara veya bulut tabanlı hizmetlere bağlı kalmadan, yapay zeka modellerini kullanıcının tamamen kendi bilgisayarında çalıştırabileceği, özel ve potansiyel olarak daha hızlı bir çalışma ortamı elde edebilecekleri ifade ediliyor. Bunun bir test sürümü olduğunun unutulmaması ve yalnızca test etmek amacıyla kullanılması gerektiği belirtilirken, sürümün, güzel bir performans iyileştirmesiyle geldiği söyleniyor. Ollama‘nın bu yeni sürümü, GPU ve CPU hesaplamalarını üst üste bindirerek gelişmiş performans sağlıyor. Ollama, bu modellerle etkileşim için geliştirilmiş bir API ve komut satırı arayüzü (CLI) sunarak, geliştiricilerin bu yapay zeka yeteneklerini kendi uygulamalarına kolayca entegre etmelerine olanak sağlıyor. macOS, Windows ve GNU/Linux gibi büyük platformlarda çalışabilen yazılımın bu sürümünün, VMware mühendisi Daniel Hiltgen tarafından geliştirildiği ve GPU’nun meşgul kalmasına yardımcı olmak için bir sonraki grup için grafiği eşzamansız olarak oluşturmayı amaçladığı ifade ediliyor. Metal işlemcide, token oranında %2-3’lük; RTX 4090 işlemcide ise yaklaşık %7’lik bir hızlanma görüldüğü belirtiliyor. Ollama 0.11.9-rc0 sürümü ayrıca, tanınmayan AMD GPU’larının ollama için hataya neden olduğu sorunları da düzeltiyor. Ollama 0.11.9-rc0 hakkında bilgi edinmek için GitHub sürümler sayfasını inceleyebilirsiniz.
Ollama 0.11.9-rc0 edinmek için aşağıdaki linklerden yararlanabilirsiniz.
SparkyLinux için yeni bir araç: ElecWhat
GNU/Linux için basit bir masaüstü Whatsapp istemcisi olan ElecWhat; pencereyi göstermek/gizlemek/geçişini yapmak için CLI ve D-Bus arayüzüyle kullanıma sunuluyor. GNU GPL 3 ile lisanslanmış özgür bir yazılım olan ElecWhat, masaüstü bildirimleri, okunmamış sayımlı tepsi simgesi (diğer adıyla AppIndicator) ve özel klavye kısayollarıyla (varsayılan) geliyor. Şu anda GitHub Actions (CI) tarafından otomatik olarak oluşturulan 600 satır kod ile gelen yazılımın, kodunun incelenmesinin oldukça kolay olduğu belirtiliyor. Böylelikle ElecWhat da Sparkers için yeni bir uygulama olarak kullanıma sunuluyor. Bu konuda duyuruyu yapan pavroo; şu an için SparkyLinux 7 ve 8 amd64 kullanıcılarının bu olanaktan yararlanabileceğini söyledi.
sudo apt update
sudo apt install elecwhatkomutlarının verilebileceği belirtiliyor. ElecWhat edinmek için aşağıdaki linkten de yararlanabilirsiniz.
