Ollama MCP 시작하기(2026): 로컬 LLM에 도구(파일/웹/깃) 연결하는 실전 가이드

Ollama로 로컬 LLM을 돌리면서 MCP(Model Context Protocol)로 filesystem/fetch/git 같은 도구를 붙이는 방법을 단계별로 정리했습니다. ollmcp로 안전한 툴 호출(HIL)부터 시작해 보세요.

계속 읽기

로컬 LLM + Home Assistant 통합 가이드 #1: N100 Proxmox에 HAOS 설치하기

로컬 LLM 홈어시스턴트 통합

N100 Proxmox 환경에서 Home Assistant OS를 설치하고 로컬 LLM 통합의 기반을 만드는 방법을 단계별로 정리했습니다. 초보자가 막히기 쉬운 설정 포인트와 점검 순서를 함께 제공합니다.

계속 읽기

OpenClaw + Ollama 연동 가이드: 맥북에서 로컬·클라우드 AI 에이전트 운영하기

openclaw

맥북 환경에서 OpenClaw와 Ollama를 연동해 로컬/클라우드 혼합 AI 에이전트를 운영하는 방법을 정리했습니다. 초기 구성, 모델 선택, 실사용 중 자주 막히는 포인트까지 포함한 실전 가이드입니다.

계속 읽기

WordPress Appliance - Powered by TurnKey Linux