Ollama nyní podporuje hardwarové urychlení na čipech Apple M5, pokud je nainstalováno 32 GB RAM

Ollama nyní podporuje hardwarové urychlení na čipech Apple M5, pokud je nainstalováno 32 GB RAM

24 software

Ollama — aplikace pro lokální spuštění AI‑modelů je nyní rychlejší na Mac‑čipech M5

Co se zdá být nového: Nová verze Ollama 0.19 Podporované OS Windows, macOS, Linux Hardwarové urychlení Pouze pro čipy Apple M5 (M5 Pro, M5 Max) Požadavky na paměť Minimálně 32 GB jednotné RAM

Co se změnilo
Ollama umožňuje uživatelům stahovat a spouštět modely umělé inteligence přímo na svém počítači. Na rozdíl od cloudových služeb jako ChatGPT zde není potřeba trvalé připojení k síti.

Od verze 0.19 vývojáři přidali podporu pro Apple MLX – framework strojového učení, a také jednotnou paměť (Unified Memory Architecture). To umožňuje urychlit práci modelu na nových čipech Apple M5, zkracuje dobu do prvního tokenu a zvyšuje celkovou rychlost generování.

Jak to funguje
* Neurální akcelerátory: Ollama využívá specializované neuronové bloky uvnitř čipů M5, což dělá výstup tokenů rychlejším.

* Modely: Rychleji fungují jak osobní AI‑agenti (například OpenClaw), tak i větší systémy – OpenCode, Anthropic Claude Code, OpenAI Codex a další.

Omezení
1. Urychlení je k dispozici pouze na čipech Apple M5 (M5 Pro/Max).

2. Na počítači musí být nainstalováno minimálně 32 GB jednotné paměti; jinak urychlení nefunguje.

Tedy pokud máte Mac s čipem M5 a dostatečným množstvím RAM, můžete výrazně zvýšit výkon lokální AI‑aplikace Ollama.

Komentáře (0)

Podělte se o svůj názor — prosím, buďte slušní a držte se tématu.

Zatím žádné komentáře. Zanechte komentář a podělte se o svůj názor!

Chcete-li zanechat komentář, přihlaste se.

Přihlaste se pro komentování