Ollama MCP 시작하기(2026): 로컬 LLM에 도구(파일/웹/깃) 연결하는 실전 가이드
Ollama로 로컬 LLM을 돌리면서 MCP(Model Context Protocol)로 filesystem/fetch/git 같은 도구를 붙이는 방법을 단계별로 정리했습니다. ollmcp로 안전한 툴 호출(HIL)부터 시작해 보세요.
Ollama로 로컬 LLM을 돌리면서 MCP(Model Context Protocol)로 filesystem/fetch/git 같은 도구를 붙이는 방법을 단계별로 정리했습니다. ollmcp로 안전한 툴 호출(HIL)부터 시작해 보세요.
N100 환경에서 로컬 LLM을 안정적으로 운영하기 위한 GPU 가속과 듀얼 Ollama 구성 방법을 정리했습니다. 성능 병목을 줄이는 튜닝 포인트와 실사용 체크리스트를 함께 제공합니다.
Proxmox 환경에서 Ollama를 설치하고 N100 GPU 가속을 적용하는 실전 가이드입니다. 설치 순서, 모델 구동 점검, 성능 안정화를 위한 운영 포인트를 초보자 기준으로 정리했습니다.
N100 Proxmox 환경에서 Home Assistant OS를 설치하고 로컬 LLM 통합의 기반을 만드는 방법을 단계별로 정리했습니다. 초보자가 막히기 쉬운 설정 포인트와 점검 순서를 함께 제공합니다.
맥북 환경에서 OpenClaw와 Ollama를 연동해 로컬/클라우드 혼합 AI 에이전트를 운영하는 방법을 정리했습니다. 초기 구성, 모델 선택, 실사용 중 자주 막히는 포인트까지 포함한 실전 가이드입니다.