Doğrudan ev bilgisayarında büyük modellerle (büyük dil modelleri, LLM) deneyler Deepseek çevresindeki hype'dan moda olmuştur. Apple-Silikon-Macs, RAM'in genişleme seviyesine bağlı olarak ve işlemci varyantını içermeye bağlı olarak bunun için uygundur. Apple ayrıca MLX ile Mac ARM için otomatik öğrenmeyi (ML) hızlandırmak için özel bir çerçeve yayınladı. “Apple Silikon için Çerçeve Dizisi”, otomatik öğrenmeyi mevcut MAC'lerde özellikle verimli hale getirmeyi amaçlamaktadır. Mac uygulamasında bulunan yeni bir ücretsiz uygulama artık teknolojiyi kullanan modellerde uzmanlaşmıştır.
Duyuru
Geniş model seçimi
Pico ai homelab, Starling Protokolü Incocol Incocol Protokolünden gelir ve MacOS 15'ten (Sequoia) eserler. Bir elektron uygulaması olarak çalışan LM Studio'ya benzer şekilde, farklı modelleri denemek çok kolaydır. Şu anda 300'den fazla farklı olmalı. Farklı versiyonlarda Deepseek R1'in damıtılmış varyantına ek olarak Mistral, Meta Lama, Alibaba Qwen, Google Gemma ve Microsoft Phi farklı boyut ve türlere dahildir. Bunların her biri MLX'e uyarlanmıştır, bu da onları GGUF modellerinden daha fazla gerçekleştirmelidir.
Pico ai homelab Ollama ile uyumludur ve ayrıca arılarını kullanır. Böylece Open Webui, MindMac veya Ollamac gibi alternatif sohbet uygulamalarını da kullanabilirsiniz. Genel olarak, PICO AI laboratuvarı yerel bir HTTP sunucusu (LocalHost) olarak çalışır, böylece sohbetler tarayıcıda gerçekleştirilir. Tüm sistem çevrimdışı ve çevrimiçi veri gönderilmiyor. Pico ai homelab, kullanıcının kendisi hakkında herhangi bir bilgi toplamaz.
Mac Şikayetleri – ve Dezavantajlar
Pico ai homelab tüm M1 Melicon-Mac elmalarından çalışır. RAM'in minimum genişlemesi 16 GB olmalıdır, ancak 32 GB RAM daha büyük vokal modeller için son derece yararlıdır. Komut satırının becerileri, Pico'nun Homelab'a kullanılması için gerekli değildir. Yapımcılar, “Yalnızca bir tıklamayla rehberli kurulum sayesinde, yeni başlayanlar bile hızlı bir şekilde başlayabilirken, uzman kullanıcılar esnek adaptasyon seçeneklerinden yararlanıyor.”
Uygulama şu anda tamamen ücretsiz, eğer bu daha sonra değişecekse net değil. Yapay zeka tedarikçileri için API maliyetleri veya abonelik maliyetleri gerçekleşmez. Bununla birlikte, yerel LLM ile çok fazla beklememelisiniz: sunucu modellerinden önemli ölçüde daha düşük hesaplama gücü nedeniyle çıkışlar daha kötüdür ve daha fazla halüsinasyon vardır. Yerel modeller “oynamaktan” mutlu.
(BSC)
Duyuru
Geniş model seçimi
Pico ai homelab, Starling Protokolü Incocol Incocol Protokolünden gelir ve MacOS 15'ten (Sequoia) eserler. Bir elektron uygulaması olarak çalışan LM Studio'ya benzer şekilde, farklı modelleri denemek çok kolaydır. Şu anda 300'den fazla farklı olmalı. Farklı versiyonlarda Deepseek R1'in damıtılmış varyantına ek olarak Mistral, Meta Lama, Alibaba Qwen, Google Gemma ve Microsoft Phi farklı boyut ve türlere dahildir. Bunların her biri MLX'e uyarlanmıştır, bu da onları GGUF modellerinden daha fazla gerçekleştirmelidir.
Pico ai homelab Ollama ile uyumludur ve ayrıca arılarını kullanır. Böylece Open Webui, MindMac veya Ollamac gibi alternatif sohbet uygulamalarını da kullanabilirsiniz. Genel olarak, PICO AI laboratuvarı yerel bir HTTP sunucusu (LocalHost) olarak çalışır, böylece sohbetler tarayıcıda gerçekleştirilir. Tüm sistem çevrimdışı ve çevrimiçi veri gönderilmiyor. Pico ai homelab, kullanıcının kendisi hakkında herhangi bir bilgi toplamaz.
Mac Şikayetleri – ve Dezavantajlar
Pico ai homelab tüm M1 Melicon-Mac elmalarından çalışır. RAM'in minimum genişlemesi 16 GB olmalıdır, ancak 32 GB RAM daha büyük vokal modeller için son derece yararlıdır. Komut satırının becerileri, Pico'nun Homelab'a kullanılması için gerekli değildir. Yapımcılar, “Yalnızca bir tıklamayla rehberli kurulum sayesinde, yeni başlayanlar bile hızlı bir şekilde başlayabilirken, uzman kullanıcılar esnek adaptasyon seçeneklerinden yararlanıyor.”
Uygulama şu anda tamamen ücretsiz, eğer bu daha sonra değişecekse net değil. Yapay zeka tedarikçileri için API maliyetleri veya abonelik maliyetleri gerçekleşmez. Bununla birlikte, yerel LLM ile çok fazla beklememelisiniz: sunucu modellerinden önemli ölçüde daha düşük hesaplama gücü nedeniyle çıkışlar daha kötüdür ve daha fazla halüsinasyon vardır. Yerel modeller “oynamaktan” mutlu.
(BSC)