오라마는 이제 Apple M5 칩에서 하드웨어 가속을 지원합니다. 32GB RAM이 설치된 경우에 한해요
Ollama — 로컬에서 AI 모델을 실행하는 애플리케이션이 이제 M5 맥 칩에서 더 빠르게 동작합니다
어떻게 보이는지: 새로운 버전 Ollama 0.19
지원 OS: Windows, macOS, Linux
하드웨어 가속: Apple M5 칩 전용 (M5 Pro, M5 Max)
메모리 요구 사항: 최소 32 GB 통합 RAM
변경 내용
Ollama는 사용자가 AI 모델을 자신의 컴퓨터에 직접 다운로드하고 실행할 수 있게 해줍니다. ChatGPT와 같은 클라우드 서비스와 달리 지속적인 인터넷 연결이 필요 없습니다.
버전 0.19부터 개발자는 Apple MLX – 머신러닝 프레임워크 및 통합 메모리(Unified Memory Architecture)를 지원하도록 추가했습니다. 이는 새로운 Apple M5 칩에서 모델 실행 속도를 가속화하여 토큰 생성 시간을 단축하고 전체 생성 속도를 높입니다.
작동 방식
* 뉴로 가속기: Ollama는 M5 칩 내부의 전문 신경망 블록을 활용해 토큰 출력을 더 빠르게 수행합니다.
* 모델: 개인용 AI 에이전트(예: OpenClaw)와 대형 시스템(OpenCode, Anthropic Claude Code, OpenAI Codex 등)이 모두 더 빨리 동작합니다.
제한 사항
1. 가속은 Apple M5 칩(M5 Pro/Max)에서만 가능합니다.
2. 컴퓨터에 최소 32 GB 통합 메모리가 설치되어 있어야 하며, 그렇지 않으면 가속이 적용되지 않습니다.
따라서 M5 칩과 충분한 RAM을 갖춘 Mac이라면 Ollama 로컬 AI 애플리케이션의 성능을 크게 향상시킬 수 있습니다
댓글 (0)
의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.
댓글을 남기려면 로그인