OpenClaw + Ollama 로컬 설정 가이드 (2026)

Claw
OpenClaw + Ollama 로컬 설정 가이드 (2026)

OpenClaw(구 Clawdbot / Moltbot)는 Telegram이나 WhatsApp 같은 메시징 앱을 연결하여 스마트폰에서 직접 로컬 대형 언어 모델(LLM)을 호출해 작업(코딩, 컴퓨터 제어, 파일 검색 등)을 수행할 수 있게 해주는 강력한 로컬 AI 에이전트 프레임워크입니다.

이를 Ollama와 결합하면 완전히 오프라인으로, 무료로, 그리고 API 비용 없이 환경을 구축할 수 있습니다.

두 가지 권장 설치 방법

방법 1: 가장 쉬운 방법 (공식 권장)

적용 대상: Mac, Linux, Windows (WSL)

  1. Ollama 설치 (아직 설치하지 않은 경우)

    • 공식 사이트:
    • 다운로드 및 설치 후 터미널에서 다음을 실행합니다(128k+ 컨텍스트 모델 권장):
  2. ollama launch로 OpenClaw 직접 실행

    이 명령어는 다음 작업을 수행합니다:

    • 최신 OpenClaw 자동 설치
    • 온보딩 마법사 시작
    • 백엔드로 Ollama를 자동 선택
    • 모델 선택 (방금 다운로드한 모델)
    • Telegram / WhatsApp 채널 구성 (처음에는 건너뛸 수 있음)

    완료되면 백그라운드에서 자동으로 게이트웨이가 실행됩니다(기본 기본 포트 18789).

  3. Telegram을 통한 사용 시작

    • 온보딩 중에 Telegram을 선택했다면, 안내에 따라 봇을 생성하고 토큰을 붙여넣으세요. 이제 귀하의 봇이 준비되었습니다!

방법 2: 수동 설치 (고급 제어용)

  1. Node.js 설치 (v22 이상 권장)

  2. 원클릭 OpenClaw 설치

    Mac/Linux:

    Windows (PowerShell):

  3. 온보딩 실행

  4. Ollama 백엔드 구성

    • 마법사에서 Quick Start -> Skip Cloud -> Ollama를 선택합니다.
    • 또는 설정 파일(~/.openclaw/openclaw.json)을 수동으로 편집합니다:
  5. OpenClaw 시작

문제 해결 (FAQ)

  • 모델에 도구 호출(Tool Calling) 능력이 없나요?

    • 함수 호출을 잘 지원하는 모델로 변경하세요. 예: qwen2.5-coder, qwen3, deepseek-r1, llama3.3.
    • 최소 14B 이상의 모델을 권장합니다. 8B 모델은 도구 호출 시 환각(hallucinate) 현상을 보이거나 컨텍스트를 잊어버릴 수 있습니다.
  • 너무 속도가 느린가요?

    • 더 작은 모델(예: qwen2.5-coder:14b 또는 32b)을 시도하세요.
    • 또는 RunPod이나 Vast.ai에서 GPU 인스턴스를 대여하여 Ollama를 실행하세요.
  • 한국어/중국어에 가장 적합한 모델은?

    • 현재(2026년 2월) 권장 사항: qwen3 시리즈 > deepseek-r1 > llama3.3.
  • Telegram에서 응답이 없나요?

    • OpenClaw가 실행 중인지 확인하세요(터미널 로그 확인).
    • Ollama가 실행 중인지 확인하세요(ollama ps).
    • ollama launch openclaw를 다시 실행하여 재구성하세요.

기본적으로 현재로서는 ollama launch openclaw가 가장 번거롭지 않은 방법입니다. 대부분의 사람들이 5~10분 안에 설정하고 실행할 수 있습니다.