아이디어의 출발점
지난 글에서 이야기했듯, 나는 Claude Code로 옵시디언 볼트를 주기적으로 정리해왔다. 결과물은 만족스러웠지만 한 가지 찜찜함이 항상 남았다.
"내 개인적인 생각들이 외부 서버로 나가고 있다는 것."
그러던 중 oh-my-opencode와 OpenClaw를 접하면서 머릿속에 딱 하나의 그림이 그려졌다.
"이걸 조합하면, 내 노트북 밖으로 데이터가 한 바이트도 나가지 않는 AI 두 번째 뇌를 만들 수 있지 않을까?"
그게 Oh My Second Brain의 시작이다.
한 줄로 설명하면
옵시디언 노트를 AI가 주기적으로 연결·정리하고 새로운 아이디어를 발굴해주는 서비스. 단, 모든 처리는 내 노트북 안에서만.
기존에 Mem.ai나 Notion AI 같은 서비스들도 비슷한 걸 하긴 한다. 그런데 이것들은 전부 클라우드 기반이다. 내 노트가 어딘가의 서버로 올라간다는 의미다.
Oh My Second Brain은 방향이 반대다. 외부로 나가는 게 없다. 옵시디언이 "로컬 우선" 철학을 내세우는 앱인 만큼, AI도 같은 철학을 따라야 한다고 생각했다.
핵심 기능 4가지
1. 컨텍스트 연속성
노트를 열면 AI가 관련 맥락을 먼저 브리핑해준다. 예전에 썼던 노트를 다시 열었을 때 "아 이게 뭐였지?" 하며 처음부터 다시 읽는 수고를 없애준다.
2. 자동 주기 정리
백그라운드에서 중복 노트를 감지하고, 관련 노트 사이에 자동으로 링크를 생성하고, 주간 인사이트 리포트를 만들어준다. 내가 신경 쓰지 않아도 노트가 살아서 움직이는 느낌.
3. 퍼지 인풋
두서없이 던진 메모나 음성(이건 나중에 추가 기능으로 해도 좋을듯?)도 구조화된 노트로 자동 변환해준다. "대충 써도 AI가 알아서 정리한다"는 게 핵심이다. 노트 쓰는 부담 자체를 없애는 기능이다.
4. 완전 로컬 AI
인터넷 연결 없이 동작한다. 외부 서버로 나가는 데이터가 없다. 이게 이 서비스의 존재 이유이자 가장 큰 차별점이다.
어떻게 동작하는가
핵심 구조는 세 가지 컴포넌트로 이루어진다.
OpenClaw — AI 에이전트 엔진. 파일 읽기/쓰기, 자동화, 스케줄링을 담당한다. 카카오톡처럼 평소 쓰는 메신저(Telegram, iMessage, Discord 등)로 내 로컬 PC와 대화할 수 있게 해준다. 새 앱 설치 없이 모바일에서도 된다.
Obsidian Vault — 노트 저장소. 기존에 쓰던 볼트 폴더 그대로 연결하면 된다.
Ollama + 로컬 모델 — AI 두뇌. 인터넷 없이 내 컴퓨터에서 직접 돌아가는 언어 모델이다.
실제 사용 흐름은 이렇다.
대충 말하면 → OpenClaw가 받아서 → 로컬 모델이 정리 → Obsidian에 저장
주기적으로 → OpenClaw 스케줄 실행 → 볼트 전체 분석 → 연결/요약/리포트 생성
"저번에 그 아이디어 뭐였지?" → OpenClaw가 볼트 검색 → 즉시 답변
별도 플러그인 개발 없이 지금 당장 프로토타입이 가능한 조합이라는 점도 매력적이다.
기술적으로 뭘 쓰는가
AI가 노트를 제대로 이해하려면 세 가지 컴포넌트가 필요하다.
- 임베딩 모델 : 노트를 숫자(벡터)로 변환한다. 의미가 비슷한 노트는 비슷한 숫자가 된다. 이게 있다면 유사한 정보를 가진 노트끼리 연결될 수 있다.
- 벡터 DB : 그 숫자들을 저장하고 빠르게 검색한다. 노트가 1000개라도 관련된 것만 즉시 찾아낼 수 있다.
- SLM(소형 언어 모델) : 찾아낸 노트를 읽고 이해해서 실제로 정리하거나 답변한다.
세 가지 중 하나라도 빠지면 제대로 동작하지 않는다. 임베딩이 없으면 의미를 모르고, 벡터 DB가 없으면 느리고, SLM이 없으면 이해를 못 한다.
현재 유력한 스택 조합은 이렇다. (Claude 가 그랬다)
MVP (빠르게 시작)
Ollama + nomic-embed-text + ChromaDB
한국어 최적화 (권장)
Ollama + Qwen3-Embedding 0.6B + LanceDB
프로덕션 대비
Ollama + BGE-M3-Ko + Qdrant
전부 100% 로컬, 외부 전송 없음을 전제로 한다.
왜 LLM이 아니라 SLM인가
GPT-4 같은 대형 모델을 쓰면 더 똑똑하지 않냐고 생각할 수 있다. 그런데 노트 정리에 그 수준의 이해력은 사실 불필요하다.
SLM은 RAM 2~4GB로 일반 PC에서 쾌적하게 돌아가고, 응답 속도도 빠르다. 실제로 매일 쓰는 도구라면 속도와 가벼움이 정확도보다 더 중요한 순간이 많다.
특히 맥 M시리즈는 이 서비스에 최적의 환경이다. 통합 메모리(Unified Memory) 구조 덕분에 RAM과 VRAM이 분리된 Windows PC와 달리, 16GB면 AI 모델도 충분히 빠르게 돌아간다. (추후 좋다면 윈도우까지 배포해보겠다.)
가장 중요한 차별점 — 관계 감지
장기적으로 이 서비스의 핵심은 SLM을 노트 정리 용도로 파인튜닝해서 번들로 제공하는 것이다.
구조화, 요약, 한국어 처리는 기존 모델도 어느 정도 된다. 그런데 관계 감지 — 두 노트가 키워드가 아닌 개념 수준에서 연결되는지 파악하는 능력 — 이건 범용 모델이 잘 못 한다.
"설치하면 노트 정리에 최적화된 경량 AI가 같이 딸려온다"는 것. 그게 진짜 두 번째 뇌를 만드는 열쇠라고 생각한다.
또한 해당 내가 시도하며 노트 정리에 적합한 노하우를 넣어줄 수 있다면 가치있는 서비스가 될것이라 생각한다.
다음 글에서는 실제로 어떻게 구현하는지 단계별로 풀어보겠다.

'AI에서 살아남기(to. Android Developer) > 1인 프로젝트' 카테고리의 다른 글
| 리엑트로 PDF 를 만들어보자 (0) | 2026.03.09 |
|---|---|
| [Oh! my SecendBrain] 4. Phase 1 개발 (0) | 2026.02.20 |
| [Oh! my SecendBrain] 1. 소개 (0) | 2026.02.20 |
| (모두의 웹툰) Part7 : 인프라 구축기 [ver 2] (0) | 2025.12.19 |
| (모두의 웹툰) Part7 : 인프라 구축기 [잘못되었던 방식] (0) | 2025.12.17 |