OpenClaw + Ollama 연동 가이드: 맥북에서 로컬·클라우드 AI 에이전트 운영하기

3줄 요약

  • 대상: OpenClaw + Ollama 연동 가이드: 맥북에서 로컬·클라우드 AI 에이전트 운영하기 내용을 빠르게 파악하려는 독자
  • 핵심: 설치·설정·운영 포인트를 핵심 단계 중심으로 정리
  • 결과: 재현 가능한 절차와 점검 기준으로 시행착오를 줄임

트러블슈팅

  • 증상이 나오면 로그·버전·포트/권한·네트워크 순서로 확인합니다.
  • 설정 반영이 안 되면 서비스 재시작/캐시 비우기 후 다시 검증합니다.

결론 + 다음 단계

핵심 절차를 먼저 완료하고, 운영 단계에서는 백업·모니터링·기본 보안 설정을 함께 적용하세요.

요약: 이 글은 “OpenClaw + Ollama 연동 가이드: 맥북에서 로컬·클라우드 AI 에이전트 운영하기” 주제의 핵심 개념과 실제 적용 절차를 빠르게 정리합니다.

트러블슈팅: 트러블슈팅: 설정이 적용되지 않거나 접속/권한 오류가 나면 “로그 확인 → 네트워크/포트 → 권한/경로” 순서로 점검하세요.

결론/다음 단계: 결론/다음 단계: 동작 확인 후 운영 루틴(백업·업데이트·모니터링)을 추가하고, 관련 가이드도 함께 적용해 완성도를 올리세요.

함께 보면 좋은 글

이 글은 맥북에서 OpenClaw를 운영하면서, 로컬/원격 Ollama와 연동해 “로컬·클라우드 혼합형 AI 에이전트”를 구성하는 방법을 정리한다. 핵심은 설치보다 baseUrl/네트워크/모델 선택을 명확히 해서, 운영 중에 꼬이지 않게 만드는 것이다.

이 글의 목표(성공 기준)

  • OpenClaw가 정상 실행되고, 대시보드/채널 연결이 된다.
  • Ollama(OpenAI 호환) 엔드포인트를 붙여 로컬 모델 호출이 된다.
  • 원격 환경에서도 baseUrl이 꼬이지 않도록 구성 기준이 정리되어 있다.

1. OpenClaw: 지식의 창고 NotebookLM에 ‘손과 발’을 달아주다

요즘 나의 홈랩 생활은 **OpenClaw**를 알기 전과 후로 나뉜다. 이전 글에서 소개했듯, NotebookLM이 방대한 데이터를 학습하고 요약하는 ‘최고의 뇌’라면, OpenClaw는 그 지식을 바탕으로 내 컴퓨터 안에서 실제로 마우스를 움직이고 파일을 정리하는 ‘실행의 손’이다.

단순히 질문에 답하는 챗봇은 이제 지겹다. “오늘 공부한 내용을 바탕으로 내 맥북의 관련 파일을 찾아 정리해줘”라고 명령하면, OpenClaw는 내 컴퓨터의 파일 시스템을 뒤지고 웹을 검색하며 자율적으로 업무를 수행한다. 이것이 내가 낡은 맥북을 다시 꺼내 24시간 돌리기 시작한 이유다.


2. 하드웨어 선정: 서버실의 N100보다 내 손안의 맥북

처음에는 저전력의 대명사 N100 미니 PC 서버에 설치할까 고민도 했다. 하지만 OpenClaw의 진정한 매력은 내 업무 환경을 직접 제어하는 데 있다. 내가 매일 사용하는 브라우저, 내가 매일 캡처하는 스크린샷, 내가 매일 수정하는 코드들을 가장 잘 만질 수 있는 곳은 결국 나의 메인 OS 환경이다.

그래서 책상 구석에서 먼지만 쌓여가던 **맥북 프로 2018(Intel i7, 16GB RAM)**을 다시 현역으로 복귀시켰다. 인텔 맥 특유의 발열과 소음은 좀 있지만, 클라우드 API를 주력으로 사용하는 에이전트 환경에서는 여전히 훌륭한 워크스테이션이 되어준다. 특히 맥 OS 전용 컴패니언 앱 덕분에 에이전트가 내 화면을 ‘눈’으로 보듯 관찰할 수 있다는 점이 결정적이었다.


3. Ollama의 유혹과 Gemini의 배신, 그리고 Qwen3로 정착

최근 **Mervin Praison의 영상**을 보고 Ollama를 통한 로컬 환경 구축에 도전했다. 영상에서는 로컬 모델의 프라이버시와 강력함을 칭송했고 셀프 호스팅 중독자인 나는 역시나 그냥 지나치지 못하고 도전을 하게 되었는데, 그 시도는 그리 오래가지 않았다.

일단 영상을 따라서 gpt-oss:20b 모델을 로컬에 설치하고 “hi” 한번 해봤는데 대답을 듣는데 10초 가까이 소모되고 맥북의 FAN이 괴성을 내지르기 시작했다. 역시 내 맥북에서 20B 이상의 로컬 모델을 돌리는 건 고문에 가까웠다.

궁여지책으로 Ollama 설정 내에 있는 Gemini Cloud 모델을 연결해 보았다. “로컬의 명령 체계에 구글의 뇌를 빌려 쓰면 완벽하겠지?”라는 생각이었다. 하지만 결과는 허무했다. 아주 단순한 명령 한 번을 내렸을 뿐인데, Ollama의 클라우드 하루 무료 한도 50%가 단숨에 증발해버렸다. 아무래도 에이전트 특성상 화면을 캡처하고 분석하는 과정에 사고모드까지 켜져있어서 엄청난 양의 토큰을 소모하는 것 같았다.

결국 나는 최종 타협점으로 qwen3-vl:235b-cloud 모델에 정착했다. 이 모델은 무료 버전임에도 토큰 소진 속도가 Gemini보다 훨씬 느렸고, 멀티모달 성능(화면 인식) 또한 맥북 프로 2018에서 에이전트를 돌리기에 부족함이 없었다. 쾌적한 속도와 넉넉한 쿼터, 이것이야말로 실전 에이전트의 필수 조건이다.


4. 초기 세팅: 에이전트에게 지능과 권한 부여하기

설치는 터미널에서 npm install -g openclaw 한 줄로 끝냈고(root 사용자라 명령어는 더 간결했다), 본격적인 온보딩 세팅에 들어갔다.

  • API 연동: 앞서 언급한 Qwen Cloud API를 연결했다. 넉넉한 토큰 덕분에 에이전트가 마음껏 내 화면을 ‘감상’할 수 있게 됐다.
  • 텔레그램 봇: 밖에서도 내 맥북을 조종하기 위해 텔레그램을 연동했다. 공식 문서의 가이드대로 봇을 만들고 토큰을 입력하니, 이제 스마트폰 하나로 집안의 맥북을 부려 먹을 준비가 끝났다.
  • Brave Search: 에이전트가 최신 테크 뉴스를 검색할 수 있도록 Web Tool 설정을 마쳤다.
  • Chrome Extension: 브라우저 내부의 요소를 정확히 클릭하게 해주는 **Chrome Extension**까지 설치 완료했다.

5. 설치 완료 후 첫 실전: “내 바탕화면을 청소해줘”

세팅을 마치고 벼르고 있던 ‘바탕화면 대청소’ 명령을 내렸다. 내 맥북 바탕화면은 항상 정체 모를 스크린샷들로 가득 차 있었기 때문이다. 나는 OpenClaw에게 이렇게 명령했다.

“지금 내 바탕화면에 있는 스크린샷들을 검토해봐. 그중에서 중요하지 않은 쓰레기 같은 사진들을 전부 골라내서 ‘delete review’라는 폴더를 만들고 거기로 다 옮겨줘.”

OpenClaw는 컴패니언 앱을 통해 내 바탕화면의 스크린샷들을 하나하나 훑어보기 시작했다. 잠시 후, 바탕화면이 깨끗해졌다. 설레는 마음으로 ‘delete review’ 폴더를 열어본 나는 헛웃음을 지을 수밖에 없었다. 바탕화면에 있던 ‘모든’ 스크린샷이 그 폴더 안에 들어가 있었기 때문이다.

“이 녀석이 일하기 귀찮아서 다 때려 박았나?” 하는 의심이 들어 폴더 안의 사진들을 하나하나 직접 검토해 보았다. 그런데 찜찜하게도, OpenClaw의 판단이 옳았다. 다시 보니 정말 나중에 찾아볼 가치가 전혀 없는, 그저 순간적인 기록용으로 찍어두고 잊어버린 쓰레기 같은 정보들뿐이었다. 내 소중한(?) 스크린샷들을 한순간에 ‘불필요한 것’으로 정의해버린 AI의 냉철함에 당황스러웠지만, 결과적으로 정리가 완벽히 된 모습에 수긍할 수밖에 없었다. AI는 내 미련까지도 알고 있었던 걸까.


6. 이것으로 무엇을 할 것인가?

이번 ‘스크린샷 청소 사건’을 겪으며 OpenClaw의 실전 가치를 확인했다. 최근 테크 뉴스에서는 다음과 같은 우수한 활용 사례들이 주목받고 있다.

  1. 자율적 보안 모니터링: 사용자가 자리를 비운 사이 화면에 노출되는 민감한 정보를 감지하여 자동으로 가리거나 알림을 주는 보안 에이전트 사례.
  2. 워크플로우 자동화: 수백 개의 엑셀 파일에서 특정 데이터를 추출해 보고서를 만들고, 이를 이메일로 발송하는 전 과정을 AI가 스스로 수행하는 사례.

나 역시 앞으로 OpenClaw를 통해 단순히 파일을 정리하는 수준을 넘어, NotebookLM에 학습된 내 지식 베이스를 바탕으로 자동으로 블로그 초안을 잡고, 이를 내 워드프레스에 업로드하는 완전 자동화 파이프라인을 구축해볼 계획이다.

댓글 남기기

WordPress Appliance - Powered by TurnKey Linux