옵시디언 플러그인 중에 Smart Second Brain이라는 오픈소스 플러그인이 있었는데

로컬에서 GPU가 어느정도 돌아간다면 내 모든 옵시디언 노트를 임베딩한 후 RAG를 통해 답변을 구해오는 것을 도와주는 툴이다. 그것도 완전 로컬로!

과연 성능이 어느정도 될까 궁금해서 진행하게 됐다.

우선 나는 docker를 이용해서 ollama를 깔아주었다.

docker run -d --name ollama -p 11434:11434 -e OLLAMA_ORIGINS="$OLLAMA_ORIGINS" ollama/ollama

왜인지 모르겠지만 port 8000, port 14343으로 했을때는 전부 ollama가 성공적으로 돌지 못하였고

Untitled

11434로 하니까

Untitled

Ollama is running이라는 메세지를 볼 수 있었다 ..

docker ps