agents

Mac mini M4(24GB)로 OpenClaw 세팅하기 (로컬 LLM + MCP 툴 추천까지)

jinmc 2026. 2. 11. 15:53
반응형

요즘 “내 컴퓨터에서 24/7로 돌아가는 개인 AI 비서”를 만들 때 가장 많이 언급되는 조합이 Mac mini + OpenClaw입니다. OpenClaw는 메신저(텔레그램/슬랙/디스코드 등)로 들어오는 요청을 받아서, 웹/파일/툴을 실제로 실행해주는 에이전트 런타임에 가깝습니다.

다만 OpenClaw 생태계는 최근 확산 속도가 매우 빠르고(인기 + 확장 기능), 그만큼 보안 이슈도 크게 터진 상태라서 “설치만 하면 끝”은 아닙니다. 스킬(확장) 설치는 특히 주의가 필요합니다.

이 글에서는 Mac mini M4 24GB 기준으로,

  1. OpenClaw 기본 설치
  2. 24/7 구동 세팅
  3. 로컬 모델(Ollama) 연결
  4. MCP 툴 추천
    까지 한 번에 정리합니다.

0) 이 글의 전제 (Mac mini M4 24GB 기준)

  • **클라우드 모델(Claude/OpenAI 등)**만 쓰면 24GB는 충분하고, 오히려 여유가 남습니다.
  • 로컬 모델까지 같이 굴리면 모델 크기에 따라 체감이 갈립니다. (7B~8B 급은 현실적으로 가능, 14B 이상은 기대치 관리 필요)

1) 사전 준비 (macOS 기본 툴)

OpenClaw는 Node 기반으로 돌아가니, 기본적으로 아래가 필요합니다.

  • Xcode Command Line Tools (git 포함)
  • Homebrew
  • Node.js (가이드에 따라 버전 요구가 있을 수 있음)

참고로 Mac mini에서 OpenClaw 설치/준비 과정은 커뮤니티에서도 비슷하게 정리되어 있습니다.


2) OpenClaw 설치 (가장 단순한 방법)

공식 설치 스크립트로 진행하는 방식이 가장 빠릅니다.

 
curl -fsSL https://openclaw.ai/install.sh | bash openclaw --version openclaw status

설치 후에는 초기 설정(온보딩)으로 들어갑니다.

 
openclaw onboard

여기서 모델 제공자(클라우드 or 로컬), 채널(텔레그램/슬랙 등)을 선택하고 토큰을 넣는 흐름입니다.


3) 24/7로 “항상 켜져있는” 상태 만들기

OpenClaw를 “비서”로 쓰려면 맥이 잠들면 끝입니다.

  • 시스템 설정 → 배터리/전원에서 “디스플레이 끄기”와 “컴퓨터 잠자기”를 분리해서 관리
  • 가능하면 **Sleep 방지(필요할 때만)**를 걸어두는 식이 깔끔합니다.

추가로, OpenClaw 설정을 손으로 만졌으면 재시작이 필요합니다(구성 파일 수정 후 반영).

 
openclaw gateway restart

4) (중요) 보안 기본값

최근 OpenClaw 스킬/확장 생태계에서 악성 스킬 이슈가 실제로 터졌습니다. 특히 “터미널에 이 명령 실행하세요” 류는 위험합니다.

권장 원칙:

  • 스킬은 공식/신뢰 가능한 출처만 설치
  • 설치 전 레포/코드 확인
  • OpenClaw가 접근 가능한 권한(파일/쉘/네트워크)을 최소화
  • 외부로 열어야 한다면(원격) 인증/접근제어 필수

5) 로컬 모델을 쓰려면: Ollama 연동이 제일 편합니다

Mac mini에서 로컬 LLM은 보통 Ollama가 설치/운영이 쉽고, OpenClaw도 Ollama를 provider로 문서화해두었습니다.

5-1) Ollama 설치 & 모델 받기

 
brew install ollama ollama serve

모델은 일단 아래 중 하나로 시작하는 게 무난합니다.

  • qwen2.5:7b-instruct (가성비/툴콜 기대치 괜찮음)
  • llama3.1:8b-instruct (범용)
  • (메모리 여유 있으면) gemma 계열도 선택지
 
ollama pull qwen2.5:7b-instruct

5-2) OpenClaw에서 Ollama provider 연결

OpenClaw는 Ollama의 OpenAI 호환 엔드포인트 방식으로 붙는 흐름을 지원합니다.
대부분은 온보딩에서 “Local/Ollama” 고르면 자동으로 잡히고, 수동이라면 설정 파일에 Ollama baseUrl을 넣고 재시작합니다.

예시로 커뮤니티에서 공유된 설정은 이런 형태입니다(포맷 참고용).

 
{ "models": { "providers": { "ollama": { "baseUrl": "http://localhost:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "qwen2.5:7b-instruct", "name": "qwen2.5:7b-instruct" } ] } } } }

수정 후:

 
openclaw gateway restart openclaw status

5-3) 로컬 모델 추천 (Mac mini M4 24GB 기준)

현실적인 추천만 정리합니다.

  • 업무/툴콜/에이전트: qwen2.5:7b-instruct 류부터
  • 대화/범용: llama3.1:8b-instruct
  • 14B 이상은 돌아가도 “빠릿함” 기대하면 실망할 확률이 큽니다(특히 멀티스텝 에이전트).

6) MCP 툴(=MCP 서버) 뭐 쓰면 좋은가?

MCP는 에이전트가 외부 기능을 표준 방식으로 붙이는 프로토콜이고, 서버 레퍼런스/목록은 공식 저장소에 계속 업데이트됩니다.

6-1) “무조건 깔아둘만한” MCP 툴 3종

  1. Playwright MCP (웹 자동화/브라우저 조작)
  • 검색/클릭/로그인/스크래핑까지 에이전트가 직접 실행 가능
  • 공식 Playwright MCP 서버 레포가 따로 있습니다.

설정 예시(클라이언트에 mcpServers로 추가):

 
{ "mcpServers": { "playwright": { "command": "npx", "args": ["@playwright/mcp@latest"] } } }
  1. File system 계열 (로컬 파일 읽기/쓰기)
  • “작업 결과를 파일로 저장”, “로그/리포트 생성” 같은 자동화에 필수
  1. Git MCP
  • 코드 수정/커밋/브랜치 작업을 에이전트가 안전하게 수행하게 만들 때 유용

(MCP 서버들을 한눈에 찾을 때는 디렉토리 사이트도 편합니다. )

6-2) “상황 따라 가치가 큰” MCP 툴

  • Web Search (Brave/Tavily 등): 실시간 정보가 핵심인 워크플로우에서 효율 상승 (OpenClaw 웹검색 구성도 여러 방식이 언급됩니다).
  • DB(Postgres 등): 사내 데이터/개인 데이터 자동 요약, 리포팅에 강함
  • YouTube/Transcript: 영상 요약/스크립트 자동화 파이프라인에 좋음

7) 참고 링크 (공식/주요 레퍼런스)

아래는 “원문 확인용”으로 같이 첨부합니다.

 
OpenClaw GitHub (공식): https://github.com/openclaw/openclaw OpenClaw Docs (공식): https://docs.openclaw.ai Ollama ↔ OpenClaw (Ollama 문서): https://docs.ollama.com/integrations/openclaw OpenClaw Ollama Provider (공식): https://docs.openclaw.ai/providers/ollama Playwright MCP Server (공식): https://github.com/microsoft/playwright-mcp MCP 서버 모음(공식): https://github.com/modelcontextprotocol/servers MCP 예제(공식): https://modelcontextprotocol.io/examples

마무리

Mac mini M4 24GB면 OpenClaw 운용 자체는 충분히 됩니다. 다만 체감 품질은 (1) 어떤 모델을 붙이느냐(2) MCP 툴을 어떻게 구성하느냐, 그리고 (3) 스킬/확장 보안 습관에서 갈립니다.

반응형