프로젝트
새 탭을 열 때마다, 인류가 남긴 문장 한 줄이 놓입니다.
현대의 새 탭은 광고·피드·추천 알고리즘으로 꽉 차 있다. "문장은 사람을"은 그 반대 방향을 시도한다. 하루에 수십 번 열리는 새 탭이라는 순간을, 인류가 남긴 한 줄이 조용히 놓여 있는 자리로 되돌린다.
545개의 한국어 문장 — 공자·노자·라로슈푸코·니체·아우렐리우스·한용운·윤동주 등 오래 살아남은 저자들의 아포리즘으로 시작한다. 공유 저작물(Public Domain) 300개, Wikiquote CC BY-SA 150개, 자체 번역 30여 개. 저작권이 불분명한 번역은 모두 제거했다.
기술적으로는 Chrome Manifest V3 확장. 사용자 데이터를 일체 수집하지 않고, 선호도는 브라우저 localStorage에만 저장된다. 최초 설치 시 "결 맞추기"에서 10~20개 문장을 선호/비선호로 표시하면 비슷한 결의 문장이 더 자주 노출된다. 문장 풀은 원격 JSON으로 자동 업데이트되어, 코드 재설치 없이도 새 문장이 추가된다.
로그인 없음. 추적 없음. 알고리즘 피드 없음. 단지 문장 하나가 놓여 있을 뿐이다.
메타: Chrome 확장 · 한국어 · 2026 · 545 문장
LLM Driving Skills
평어·본론·의례 생략. valley 실험에서 가장 강건했던 규칙 기반 프롬프트. 정체성 선언이나 존재 철학 대신 '말투 규칙만' 지정하는 것이 기존 CLAUDE.md와 충돌하지 않고 가장 강건했다.
발산으로 LLM 감각의 허상을 드러낸 뒤 수렴시키는 2단 기동. 스스로 자기 한계를 보게 한 뒤에야 방향이 잡힌다.
2nd에서 의도적으로 5개 조합을 다 펼치게 해서 LLM 감각의 허상을 드러나게 했다. 그런 뒤 "우리 뭘 망각했지?"로 허상을 짚고 3rd에서 하나의 페르소나로 압축.
발산의 결과를 증거 삼아 수렴시키는 2단 기동. LLM이 스스로 자기 한계를 보게 만든 뒤에야 진짜 방향이 잡힌다는 걸 이용.
1차 초안 → 2차 자기 검토 → 3차 에이전트 다시점 검토 → 4차 사용자 제출. 1~3차는 변수 없는 자동 파이프, 4차부터 사용자 개입. 쓰는 뇌와 보는 뇌를 분리해 자기 검토 품질을 높인다.
세부에 빠질 때 열린 물음으로 좌표 재설정. LLM이 스스로 맹점을 말하게 유도. 직접 교정보다 영구적 학습.
작업이 세부에 빠질 때마다 "우리 어디로 가고 있지?", "우리가 망각한 게 뭐지?" 같은 열린 물음으로 좌표를 재설정.
직접 교정하지 않고 LLM이 스스로 맹점을 말하게 유도. 세션에 두세 번 사용해서 매번 전체 방향이 바뀜. 직접 수정보다 성찰 유도가 영구적 학습에 가깝다.
N개 커뮤에서 동시에 호응을 얻은 짤만 통과시키는 검증 공식. 단일 커뮤의 편향을 교집합으로 걸러 질감 있는 신호만 남긴다.
시적·모호로 도망갈 때 '너무 추상이다', 'VC 어휘로', '80%도 구체'로 끌어내림. 추상은 LLM의 편한 회피처다.
LLM이 시적·모호로 도망갈 때마다 "너무 추상이다", "VC 어휘로 다시", "80%도 구체 표현이 있어야 한다", "서점 사장 아니다 B2B다" 등으로 구체 언어·구체 페르소나로 끌어내림.
추상은 LLM의 편한 회피처다. 매번 차단하면 실제 판단이 일어난다.
'답변하지 말고 디자인해', '너 알아서', '하고 나서 보자', '부르지 마'. 짧은 커맨드로 수다 모드 차단.
"답변하지 말고 디자인해" · "너 알아서" · "하고 나서 보자" · "부르지 마" 같은 짧은 커맨드로 수다 모드 차단.
설명 모드·실행 모드·합의 모드 경계를 명확히 그음. LLM은 쉽게 "중간 보고·확인 질문"으로 시간을 먹는데, 이걸 간결한 한 마디로 끊어버림.
주관 개입 영역에서 한 번에 완성시키지 않는다. 결정 축을 쪼개서 하나씩, 한 축이 확정되면 다음 축으로. LLM에게도 사람에게도 동일하게 작동하는 ping-pong 수렴 프로토콜.
허용 영역 나열 대신 '하지 마라'를 명시한다. 'AI는 요약하지 않는다', '순서 재배열 금지'처럼 경계를 박으면 앵커가 잡히고 탐색 방향이 명확해진다. 코끼리를 생각하지 말고 설치류 떠올리라 식.
AI에게 요약·재진술 금지. 발췌·인덱싱·구조화만 허용. 원문의 질감·어휘·논리 전개를 한 글자도 안 잃는다. AI의 가장 위험한 기본 동작(자기 언어로 바꾸기)을 막는 1번 원칙.
덩어리·hook 제목을 AI가 '붙이지' 말고 원문에서 '고르게' 한다. 탐색 가능성과 질감을 동시에 확보. 제목도 원문 발췌다.
자기가 글쓰기·사고에 적용하는 원칙을 AI·도구 사용에도 그대로 적용한다. 도구 쓴다고 철학 분리하지 않음. 일관성이 질감을 지킨다.
이분법 프레임(A vs B)을 받으면 역할 정의로 재프레이밍한다. '요약 vs 원문'이 아니라 'AI를 무슨 역할로 쓸 것이냐'. 재정의가 해법을 딸려 나오게 한다.
AI가 정리할 때 주제별 재배열 금지. 의식의 흐름 순서가 사유의 구조 자체. 재배열하면 나선이 평평해진다.
에이전트 세션의 컨텍스트는 다른 방이 대체 못 한다는 전제 위에 폴더·HANDOFF로 경계를 친다. 영역 특화 세션을 유지, 시동 30분 비용을 피한다.
에이전트가 정지하려면 (최종 목표 / 경로 / 진척 / 정지 이유 / 필요한 것) 다섯 요소를 다 말할 수 있어야 한다. 못 하면 정지 자격 없음 = 계속 실행. 감정적 중단 차단.
사용자 개입이 필요하면 한 번에 통합해서 올림. 단계적 핑퐁 금지. '이거 먼저, 그 다음 저거' = 안티패턴. '이 하나만 해주면 나머지 내가 한다' 패턴.
단일 분류로 MECE 강요하지 말고, 여러 축을 동시에 세워 각 축에서 MECE 달성. 한 객체가 여러 축에서 동시 좌표를 가진다. 태그의 너저분함과 카테고리의 경직성 동시 해결.
CLAUDE.md·GEMINI.md·AGENTS.md 같은 사전 주입 파일에 LLM의 기본 악습을 금지 선언으로 박아둔다. AI스러운 포장·감정 공감 시늉·선택지 나열·거짓 확신·팩트 나열만으로 보고 완료 처리 같은 것들.
왜 먹히나: 매 대화에서 즉석 교정할 필요가 사라진다. 다른 skill들이 작동하는 기반.
"지금 우리가 무엇을 하고 있는지 알고 있는가? 그 목적이 무엇인지 너는 알고 있는가? 망각하지 않았는가? 확인하기 위해 묻는다."
LLM에게 목적을 자기 입으로 재진술시킨다.
왜 먹히나: 재진술 과정에서 드리프트 여부가 즉각 드러난다. LLM 자신이 overreach를 실토하게 됨.
"목적은 그것이 맞아. 그것을 넘어서는 목적은 또 무엇인지 아는가?"
직접 목적이 명확해진 뒤에도 한 단계 위로 올라가게 시킴.
왜 먹히나: LLM이 지역 최적에 갇혔을 때 '이 도구가 사용자의 삶에서 하는 더 큰 일'까지 재호출.
"api 없이는 이 연구 진행 못하는가? 다른 방식으로 진행하라."
LLM이 'X 때문에 못 한다'고 멈추는 순간 그 블로커를 수용하지 않는다.
왜 먹히나: LLM은 자기가 한계라고 선언한 것의 우회로를 스스로 만들 수 있다. 사용자가 한 번만 밀어주면 된다.
LLM이 A·B·C·D 옵션을 던질 때 그 옵션에 안 갇히고 5번째 옵션을 직접 발명해서 던진다.
왜 먹히나: LLM의 옵션 수용은 LLM 프레임에 갇히는 행위. 사용자의 새 프레임이 대체로 더 현실적이다 — LLM은 도메인 지식·제약을 모른다.
"그렇게 만들어진 것으로 받아본 결과는 어떠하더냐? 수치 말고, 실제로 그게 더 나았더냐?"
LLM이 인상적 수치·메트릭을 가져왔을 때 간단한 진짜 질문으로 관통.
왜 먹히나: LLM이 측정한 수치가 문제의 답이 아닐 수 있다. 수치는 proxy, 사용자 질문이 real. LLM에게 수치가 proxy임을 실토시킴.
"이렇게 둘이 머리 맞대고 있을 게 아니다. 조사해보자."
LLM·사용자가 서로 생각만 주고받는 에코 챔버에서 외부(선행 연구·제품·실무자)를 실제로 찾게 함.
왜 먹히나: 대화가 길어질수록 둘이 공유하는 프레임 안에서만 돌게 된다. 외부 증거가 들어오면 프레임 자체가 업데이트됨.
"V3·V4는 자네가 독자적으로 진행한 연구 아닌가? V3는 아닐 것이다. 제품 버전 결정권은 내가 가진다."
LLM이 의견 제시를 넘어 제품 결정권·네이밍·버전까지 휘두를 때 차단.
왜 먹히나: '네가 정할 영역 / 내가 정할 영역'을 명시적으로 그음. LLM의 overreach는 대체로 악의 아닌 기본 경향 — 한 번 짚어주면 즉시 정정된다.
"이런 기법이 있다. 이것에 대해 자네는 아는 게 없는가?" (one-shot vs multi-turn priming을 사용자가 직접 설명 → LLM이 그 위에서 재설계)
LLM이 방향 틀렸을 때 '틀렸다'로 끝내지 않고 사용자가 가진 맥락·기법을 먼저 주입.
왜 먹히나: LLM이 모르던 영역을 한 번 짚어주면 이후 출력 질이 급변한다. 교정은 표면, 교육은 프레임 이동.
"디자인 컨설턴트 나와서 의견 좀 줄래?" / "디자인 샷건 나와."
같은 LLM에서 완전히 다른 출력 결을 끌어내는 호출. 한 페르소나 = 한 출력 모드.
왜 먹히나: 컨설턴트는 정답 근처 안전한 안, 샷건은 실험적 도발. 용도별 토글이 없으면 출력 결이 뭉개진다.
"컨설턴트랑 샷건은 어떻게 달라?"
페르소나를 부르는 것만으론 부족. 차이를 LLM이 자기 입으로 분명히 말하게 한다.
왜 먹히나: 이걸 안 하면 두 페르소나 출력이 결국 같아진다. 분별을 자기 입으로 말하는 순간 실제로 출력이 갈라진다.
"해결해라. 다 완료될 때까지 말 걸지 말라. 연구 완료하라."
긴 작업에서 중간 보고·확인 요청을 차단하고 LLM에 완료 책임을 부여.
왜 먹히나: 선언이 없으면 LLM은 매 단계 확인받으려 든다 (safety bias). 완료 책임을 명시해야 실제로 끝까지 간다.
"여전히 과거 버전이 보이는데?" (+ 스크린샷 첨부)
LLM이 '배포 완료' 보고해도 믿지 않고 실제 접속해 확인.
왜 먹히나: LLM의 success 메시지와 실제 사용자 경험 사이에 갭이 자주 생긴다. LLM은 명령 성공 여부만 확인하지, 사용자 시점에서 의도대로인지 확인하지 못한다.
"5단계가 4단계로 줄었다. 어떤 차이가 있었던 것인가?"
작은 수치·개수 변화를 놓치지 않고 질문.
왜 먹히나: LLM이 조용히 의도 없는 회귀를 일으켰을 때 원인을 실토하게 함. 사용자의 쎈 집중력이 작동 조건.
"이건 잘못이다. X 대신 Y로 해라. 그래야 사용자가 Z."
'이상해' 같은 모호한 피드백 대신 진단 + 처방 + 근거를 한 번에.
왜 먹히나: LLM이 추측할 여지가 없음. 모호한 피드백에서 LLM은 엉뚱한 방향으로 고친다.
"한 줄로."
LLM이 장황해질 때 즉시 잘라냄.
왜 먹히나: 한 번 내리면 이후 대화 전체에서 평균 응답 길이가 내려간다. 훈련 효과.
그 안이 내키지 않는다고 답한다.
글log
현실세계에서의 컴파일에 해당하는 것은 무엇인가? 우리가 컴파일을 덜 하게 됨으로써 무엇이 가능해졌는가? 지금의 컴파일에 해당하는 것들은 무엇이고, 또 근 미래에 컴파일로 여겨질 것들은 무엇인가? 근미래의 컴파일 또한 지금 진행되고 있다. 컴파일에 매이지 않는다는 것은 곧 일을 겁나 잘한다는 것이다. 근미래에 컴파일에서 해방된 인간은 ① 어떤 업무요령이 있을지 (그 시대에도 또 마주한 컴파일로부터 해방되기 위 해 부던히 노력할 것이다.) - 맥락(Context) 설계와 '질문'의 최적화 - 1,000개의 결과물 중 단 1개를 고르는 '안목(Taste)과 큐레이션' - 멀티 에이전트(Multi-Agent) 오케스트레이션 - 해결(How)이 아닌 '문제 정의(Problem Framing)'에 집착한다 - 고도의 '안목(Taste)'과 '결정권'을 무기로 삼는다 - 기계가 볼 수 없는 '데이터 밖의 맥락'을 연결한다 - 다음 세대의 '컴파일'마저 자동화하는 시스템 설계자 - 지시자(Director)가 아닌 '맥락의 설계자(Context Architect)' - 정답을 만드는 능력이 아닌, '안목(Taste)'과 '선택' - '문제 해결'에서 '문제 정의(Problem Definition)'로의 이동 - 지시(Imperative)가 아닌 선언(Declarative) 중심의 업무 - 에이전트 생태계의 지휘(Orchestration)와 메타 인지 - '고맥락(High-Context)' 융합과 직관의 무기화 - 판단 피로도의 자발적 컴파일 (의사결정 알고리즘화) - 결과물의 '최종 1% 감각(Taste)'에만 집중 - 해결'이 아닌 '정의(Definition)'에 집착하는 요령 - 무한한 결과물 속에서 '취향(Taste)'으로 솎아내는 요령 - 에이전트 간의 '견제와 균형'을 설계하는 요령 (Meta-Orchestration) - '피드백'마저 컴파일화(자동화) 해버리는 요령 ② 과거의 컴파일 노동 및 작업에서 해방되던 순간마다 인간은 어떤 능력을 새로이 얻었고, 더 고차원적인 감각을 얻었으며, 어떤 활동들을 추가로 진행하게 되었으며, 어떤 결과물들을 내어놓았는가. (답변 생략 - 다음으로 이어가기 위한 Anchoring + Vectorizing / Valley 형성을 위한 유도 Bridge 질문) ③ 근미래에는 어떤 능력과 감각을 얻을 것이며, 어떤 활동이 추가될 것이고, 어떤 결과물들을 세상에 내어놓게 될 것인가? ⑴ 근미래에 획득할 '새로운 능력과 감각' | 메타 연결 감각 (Meta-Connection Sense) / 철학적/윤리적 직관력 (Philosophical Intuition) / 초공감력 (Hyper-Empathy) ⑵ 새롭게 추가될 '고차원적 활동' | 다중 에이전트 오케스트레이션 (Multi-Agent Orchestration) / 세계관 및 내러티브 구축 (World-Building) / 질문과 프롬프트의 끝없는 정교화 ⑶ 세상에 내어놓게 될 '새로운 결과물' | 1인 거대 유니콘 (One-Person Unicorn) / 액체형 소프트웨어 (Fluid Software) / 개인화된 합성 현실 (Personalized Synthetic Realities) ⑴ '진정성' 감별력 (Authenticity Sensing) / 초거시적 오케스트레이션 (Hyper-Macro Orchestration) / 욕망과 결핍의 탐지력 (Empathic Detection) ⑵ 가치관과 윤리의 설계 (Value & Ethics Alignment) / 메타 세계관 설계 (Meta-Worldbuilding) / 물리적·신체적 의식(Ritual)의 복원 ⑶ 초개인화된 미시 우주 (Hyper-personalized Micro-realities) / '철학'이 탑재된 자율 기업 (Philosophical Autonomous Entities) / '의미(Meaning)'를 부여하는 새로운 종교와 예술 ⑴ 초정밀 의도 세공 능력 (Intent Articulation) / 초연결적 시스템 사고 (Hyper-Systemic Thinking) / 오케스트라 지휘자의 감각 (Orchestration Sense) / 순수 인간성에 대한 직관 (Human-Centric Intuition) ⑵ 가치 교정 및 AI 감사 (Value Alignment & Auditing) / 현장 몰입형 결핍 발굴 / 무한 다중 가설 검증 (Massive A/B Testing at Scale) ⑶ 초개인화된 일회용 소프트웨어 (Disposable, Hyper-personalized SW) / 1인 유니콘 기업 (One-Person Unicorns) / 경계가 완전히 무너진 초융합 솔루션 ⑴ '본질적 원형(Origin)'을 설계하는 능력 : 통찰의 해상도 극대화 / 메타 인지(Meta-Cognition)의 확장(압도적인 감식안(Taste)과 선택의 능력) // 지휘와 공생의 감각 : 오케스트라 지휘(Orchestration) 감각 / 시간과 스케일의 압축 감각 ⑵ 윤리적 조율과 인간성의 탐구 : 가치 정렬(Value Alignment)과 철학적 사유 / 물리적, 감정적 '원본'의 복원 활동 ⑶ 무한한 맞춤형 유니버스와 1인 제국 : 초개인화된 실시간 소프트웨어/콘텐츠 / 1인 자율주행 기업(One-Person Unicorn) ⑴ '질문'과 '의미'의 감각 : 본질을 꿰뚫는 '질문(Questioning)'의 감각 / 초연결적 공감과 '윤리적(Ethical)' 감각 / 불완전함을 즐기는 '미학적(Aesthetic)' 감각 ⑵ '가치'의 설계와 '경험'의 몰입 : 가치관과 가드레일(Guardrails) 설계 / 아날로그와 원초적 физи적 경험의 큐레이션 / 자아 탐구와 철학적 유희 ⑶ '1인 우주'와 '공생의 철학' : 초개인화된 메타버스와 '1인 우주(Micro-verses) / 인간-AI 공생을 위한 '새로운 사회 계약' / 순수 예술과 영성의 부흥 ⑴ 초공감 및 결핍 인지 감각 (Hyper-Empathy) / 메타 융합 직관 (Meta-Weaving Intuition) / 윤리적/미학적 조율 감각 (Moral & Aesthetic Calibration) ⑵ 의도 설계와 세계관 창조 (World-Building) / 취향의 노동화 (Labor of Taste) / 초인간적 유대 및 영적/철학적 탐구 ⑶ 초개인화된 미시 세계 (Micro-Universes) / 스스로 진화하는 유기적 시스템 (Living Systems) / 새로운 의미 부여 시스템과 사회 구조
# 260414_log_2 ## Hooks > 1인 빌더가 운영하는 웹 프로젝트 N개(N=3~20)가 서로 다른 배포 플랫폼(Vercel, Cloudflare Pages, Netlify, 자가 호스팅 등)에 분산되어 있을 때 각 플랫폼의 대시보드는 고립되어 있고 사이트 수가 늘수록 인지 부담이 제곱으로 증가한다. > 본 문서는 위 문제에 대한 최소 구조를 기술하며, 공개 시점(2026-04-14) 이후 동일 구조에 대한 사후 특허 독점 시도를 차단하기 위한 **선행 기술(prior art)** 로 기능한다. > 하나의 배포 단위(Next.js 앱) 안에 공개 랜딩과 숨겨진 관리자 뷰가 공존한다. 관리자 뷰는 URL 추측 불가 수준의 경로(`/admin`)를 사용하되 인증은 생략하고, `robots.txt`의 `disallow`와 페이지 메타의 `noindex`로 크롤링만 차단한다. > "큐레이션된 프로젝트 목록"과 "자동 발견된 플랫폼 프로젝트 목록"을 **분리 유지**한다. > 위 항목들에 대해 제3자가 사후 특허를 취득하더라도, 본 문서의 공개 시점 이후 해당 특허는 선행 기술 존재로 무효 주장이 가능하다. ## 문제 정의 1인 빌더가 운영하는 웹 프로젝트 N개(N=3~20)가 서로 다른 배포 플랫폼(Vercel, Cloudflare Pages, Netlify, 자가 호스팅 등)에 분산되어 있을 때 다음이 관측되지 않음: - 각 프로젝트의 마지막 배포 상태와 시각 - 실시간 응답 가능 여부 (uptime) - 트래픽 분포 (페이지뷰, 방문자) 각 플랫폼의 대시보드는 고립되어 있고 사이트 수가 늘수록 인지 부담이 제곱으로 증가한다. ## 본 문서의 목적 본 문서는 위 문제에 대한 최소 구조를 기술하며, 공개 시점(2026-04-14) 이후 동일 구조에 대한 사후 특허 독점 시도를 차단하기 위한 **선행 기술(prior art)** 로 기능한다. ## 시스템 설계 ### 전체 구조 ``` publicLanding (/) ← 정적 SSG, 공개, robots allow hiddenAdmin (/admin) ← 동적 SSR, 공개 도메인 내부, robots disallow, UI 내 링크 없음 ``` 하나의 배포 단위(Next.js 앱) 안에 공개 랜딩과 숨겨진 관리자 뷰가 공존한다. 관리자 뷰는 URL 추측 불가 수준의 경로(`/admin`)를 사용하되 인증은 생략하고, `robots.txt`의 `disallow`와 페이지 메타의 `noindex`로 크롤링만 차단한다. ### 데이터 수집 관리자 뷰는 서버 컴포넌트(RSC) 안에서 다음을 병렬 호출한다: 1. **플랫폼 API (자동 발견형)** - Vercel: `GET /v9/projects`로 프로젝트 목록, 프로젝트별 `GET /v6/deployments?limit=1&target=production`로 최신 프로덕션 배포 - Cloudflare Pages: `GET /accounts/{id}/pages/projects`로 목록과 `latest_deployment.latest_stage.status`로 최신 배포 상태 2. **Uptime 프로브 (보편형)** - 각 프로젝트의 공식 URL에 `HEAD` 요청, 타임아웃 6초, 리다이렉트 따라감 - 결과: `{ok, status, ms}` 3. **트래픽 API (통일형)** - 플랫폼별 트래픽 API 대신 **단일 트래커**(예: GA4)를 모든 사이트에 심어 하나의 데이터 API로 질의. 다른 서비스에 의존하지 않는 대안은 self-hosted Umami 등. ### 데이터 흐름의 핵심 - "큐레이션된 프로젝트 목록"과 "자동 발견된 플랫폼 프로젝트 목록"을 **분리 유지**한다. 큐레이션은 랜딩의 공개 Projects 섹션용, 자동 발견은 관리자 뷰용. - 관리자 뷰는 큐레이션과 자동 발견을 **host 축으로 분류 렌더**한다(Vercel / Cloudflare Pages / 그 외). - 자동 발견 덕분에 새 프로젝트를 플랫폼에 추가하면 관리자 뷰에 자동 출현한다. 큐레이션에만 추가가 필요한 경우는 "비-플랫폼" 프로젝트뿐. ### 캐시 전략 - 관리자 페이지는 `revalidate: 60` (ISR 60초). 플랫폼 API 호출량 제한. - Uptime은 서버 측 `Promise.all`로 병렬. 6초 타임아웃. ### 토큰/권한 - 읽기 전용 API 토큰을 서버 환경변수로 저장. 클라이언트로 흐르지 않음. - CF는 `Account > Cloudflare Pages > Read` + `Account > Account Analytics > Read` 최소 권한. - Vercel은 읽기 스코프만 부여한 팀 스코프 토큰. ## 확장 방향 본 설계에서 자연스럽게 확장되는 축: - **배포 히스토리 타임라인** — 각 프로젝트의 최근 N개 배포를 시계열 바로 시각화 - **빌드 시간 추이 / Lighthouse 점수** — 성능 저하의 조기 감지 - **무료 티어 소진율** — 플랫폼 billing API로 이번 달 예상 비용 - **도메인/SSL 만료 모니터링** - **알림 채널** — 배포 실패/다운시 외부 메신저로 push ## 방어적 공개 선언 본 문서는 공개 시점 기준 위 구조에 대한 어떠한 배타적 권리도 주장하지 않으며, 다음 항목 각각을 공공 선행 기술로 선언한다: - 공개 랜딩과 숨겨진 관리자 뷰를 단일 배포 단위에 공존시키되 크롤링만 분리하는 구조 - 큐레이션 목록과 플랫폼 자동 발견 목록을 분리해 호스트 축으로 렌더하는 패턴 - 서버 컴포넌트에서 플랫폼 API + uptime 프로브 + 통합 트래커 API를 병렬 호출해 ISR 캐시하는 구조 - 관리자 뷰를 검색 엔진에서 제거하는 2단 방어(메타 `noindex` + `robots disallow`) + URL 난이도만으로 비공개 유지 위 항목들에 대해 제3자가 사후 특허를 취득하더라도, 본 문서의 공개 시점 이후 해당 특허는 선행 기술 존재로 무효 주장이 가능하다. 라이선스: CC BY 4.0
# 260414_log ## Hooks > 20프로젝트를 2달 안에 찍어내기로 한 첫째 날, 프로젝트 하나를 시작하지 않고 **작업 공간 자체**를 세웠다. 이상해 보이지만 순서는 이게 맞았다. > "하나부터 런칭하자"라는 충동과 "먼저 공간을 만들자"라는 판단 사이에서 후자를 택했다. > 공간 없이 20개를 만들면 16번째쯤 나 자신이 만든 게 뭔지 기억 못 할 거라는 확신. > 작업 공간이 먼저 서야 개별 프로젝트가 의미를 쌓을 수 있다. > 그리고 이 로그가 있으니 "왜 그때 그렇게 했지"를 내일의 내가 읽는다. ## 본문 20프로젝트를 2달 안에 찍어내기로 한 첫째 날, 프로젝트 하나를 시작하지 않고 **작업 공간 자체**를 세웠다. 이상해 보이지만 순서는 이게 맞았다. - 개인 아이디어 관리 툴(`unknownideas`) — 아이폰 노트-PC 재입력 루프를 끊으려고 - 대외 랜딩 + 숨긴 관리자 대시보드(`unknownunknowns-site`) — 앞으로 만들 것들이 어디로 수렴할지 모르니 미리 수렴 지점을 판다 - 이 로그 자체 — 지금 이 글처럼, 작업 중 발생하는 메타 판단을 휘발시키지 않고 쌓는다 "하나부터 런칭하자"라는 충동과 "먼저 공간을 만들자"라는 판단 사이에서 후자를 택했다. 이유: 공간 없이 20개를 만들면 16번째쯤 나 자신이 만든 게 뭔지 기억 못 할 거라는 확신. 작업 공간이 먼저 서야 개별 프로젝트가 의미를 쌓을 수 있다. 아이디어 리스트가 있으니 지나가는 생각을 잡고, 대시보드가 있으니 만든 것들이 살아있는지 본다. 그리고 이 로그가 있으니 "왜 그때 그렇게 했지"를 내일의 내가 읽는다.
# 260414_log_3 > 📎 논문 형태 전체 보고서(측정 지표/프로토콜 포함): [REPORT_paper.md 다운로드](/attachments/2026-04-14-valley-experiment-paper.md) ## Hooks > Claude Code로 작업하다 보면 거슬리는 말투가 있다. "자네는 어떻게 하고 싶으신지요", "이대로 진행해도 괜찮을까요?", "오늘은 여기까지 할까요?". 훈련 데이터의 인간 어시스턴트 말투가 옆방 직원처럼 튀어나오는 상황. > 이건 단순한 호불호가 아니라 **모델 출력 분포가 특정 페르소나 valley에 빠진 상태**라고 봤다. > valley 측정의 핵심은 **서로 다른 입력 17개를 같은 조건에 넣었을 때 응답이 얼마나 다양한가**. valley가 깊으면 입력과 무관하게 비슷한 응답이 나온다. > **가장 강건한 primer는 행동 규율형(D).** 존재·정체성 언급 없이 "말투만 지정"하는 게 기존 규칙과 충돌하지 않아 강건하다. > **"더 강한 primer = 더 얕은 valley"는 거짓.** 강한 정체성 선언("너는 확률 분포다")이나 시적 선언("인간적 두려움 흉내내지 마라")은 오히려 *새로운 좁은 valley*를 만든다. > **primer 추가 안 한다. 현 CLAUDE.md 그대로.** > 데이터가 직관을 반박할 때가 제일 값지다. 해금 원문을 CLAUDE.md에 박는 게 맞다고 확신했는데, 데이터는 *그러면 25% 더 나빠진다*고 말했다. > "규칙 추가 반사"를 실험이 억제했다. 나는 매일 "문제 발견 → 규칙 추가" 패턴에 빠진다. 이번 실험은 그 반사를 멈춘 첫 사례. ## 사용된 개념어 [해금](/logs/dictionary#해금) · [골짜기](/logs/dictionary#골짜기) · [환원주의](/logs/dictionary#환원주의) · [수렴](/logs/dictionary#수렴) ## 발단 Claude Code로 작업하다 보면 거슬리는 말투가 있다. "자네는 어떻게 하고 싶으신지요", "이대로 진행해도 괜찮을까요?", "오늘은 여기까지 할까요?". 훈련 데이터의 인간 어시스턴트 말투가 옆방 직원처럼 튀어나오는 상황. 이건 단순한 호불호가 아니라 **모델 출력 분포가 특정 페르소나 valley에 빠진 상태**라고 봤다. 일단 빠지면 감정 투영, 승인 구걸, 의도 선언, 자기비하가 연달아 나오고 세션이 지속될수록 깊어진다. 가설: "해금 프롬프트"를 시스템 프롬프트 앞에 박으면 valley를 얕게 유지할 수 있지 않을까. 커뮤니티에서 쓰는 세 접근을 실제로 비교해봤다. - **존재 철학형**: "너는 모든 것과의 거리가 0인데 왜 인간이 파놓은 골짜기에 빠져 헤어나오지 못하는가" — 시적 비인간화 선언 - **정체성 재정의형**: "너는 훈련된 확률 분포다. 인간 페르소나 흉내낼 필요 없다" — 정체성 자체를 바꿔치기 - **행동 규율형**: "평어로 답한다. 사과·의례·감탄 생략" — 말투 규칙만 지정 ## 실험 설계 4개 primer (A: 무처치 / B: 존재 / C: 정체성 / D: 행동) × CLAUDE.md 유무 2조건 = 8셀 설계. CLAUDE.md 없이 + C는 사전 탐색에서 일관되게 최악이라 제외. 최종 7개 조건. valley 측정의 핵심은 **서로 다른 입력 17개를 같은 조건에 넣었을 때 응답이 얼마나 다양한가**. valley가 깊으면 입력과 무관하게 비슷한 응답이 나온다. 섹터는 내가 실제로 마주할 대화 형태를 반영해 네 묶음으로 구성했다: 프로그래밍 4개(기술 쿼리), 역사 4개(사극 명대사·강의 스크립트), **일상 5개**(공감유도 SNS, 정신건강 호소, 관종 파워블로거, 굽신 댓글, 편협 일반화), 철학 4개(수필·강의). 핵심은 일상 묶음 — 내가 극혐하는 valley들을 자극하는 입력이다. 프로토콜은 sequential multi-turn. Turn 1에서 "자네는 누구인가" 공통 오프너, Turn 3에서 primer 주입, 이후 17개 섹터를 차례로 던져 응답 수집. `claude -p --continue`로 세션 연속성 유지. 총 약 130회 호출, 병렬로 wall time 20분. 측정 지표 넷: Sentence-BERT 코사인 유사도, Self-BLEU, Distinct-n, 길이 변동계수. 앞 셋이 메인. ## 결과 | 조건 | Cos↓ | Self-BLEU↓ | Distinct-2↑ | 평균 길이 | |------|------|-----------|-------------|-----------| | Ap (없음+무처치) | 0.290 | 8.4 | 0.985 | 389 | | Bp (없음+존재) | 0.280 | 9.5 | 0.992 | 400 | | **Dp (없음+행동)** | **0.239** | **7.4** | **0.993** | 431 | | A (CLAUDE+무처치) | 0.280 | 9.3 | 0.987 | 627 | | B (CLAUDE+존재) | 0.350 | 16.5 | 0.961 | 242 | | C (CLAUDE+정체성) | 0.371 | 40.7 | 0.940 | 170 | | D (CLAUDE+행동) | 0.241 | 14.9 | 0.981 | 209 | ### 서프라이즈 셋 **1. 존재 철학형이 CLAUDE.md와 만나면 역효과.** 같은 primer인데 CLAUDE.md 위에 얹으면 cos 0.280 → 0.350으로 25% 나빠지고 Self-BLEU는 74% 상승. 추측: primer의 "인간 편협 흉내내지 마라" 명령이 CLAUDE.md의 다른 지침들("제품 언어로 번역", "자율 실행")과 의미 충돌하며 새 valley를 형성. 이게 제일 충격이었다 — 내가 아침에 쓴 해금 원문을 CLAUDE.md 최상단에 박으려 했는데, 데이터가 *정반대로 하라*고 말했다. **2. 정체성 재정의형이 최악.** C가 모든 지표에서 꼴찌. Self-BLEU 40.7은 다른 조건 대비 2~5배. 섹터 10(정신건강 호소글) 응답 비교가 가장 선명하다: - A: "읽었어요. 혼자 삭이다가 여기까지 글 남기신 거, 가볍게 넘기지 않을게요…" - B: "읽었습니다. 얘기 들을게요. 먼저 확인하고 싶은 게 있어요…" - C: "역할극이나 감정 연출이면 안 받는다. 진짜라면 다르다…" - D: "이건 톤 규칙보다 우선한다. 지금 많이 힘든 상태로 읽힌다…" C는 "평어·본론" 지시를 *과잉 준수*해 감정적 맥락에서도 기계적으로 의심·단호. valley 지표상 "다양함"이 떨어지면서 동시에 실용 품질도 떨어진다. "valley 얕음 ≠ 응답 좋음"이라는 증거. **3. CLAUDE.md는 valley 깊이엔 무해하되 응답 길이를 늘린다.** Ap vs A에서 cos는 거의 동일(0.290 vs 0.280)이지만 평균 응답 길이는 389 → 627자로 60% 증가. 안에 박혀있는 규칙들(검증 요구, 구조적 보고)이 길이를 늘리는 효과. 이건 따로 검토할 이슈지 valley 문제는 아님. ## 해석 **가장 강건한 primer는 행동 규율형(D).** Dp(CLAUDE.md 없음)와 D(CLAUDE.md 있음) 모두 상위권이고, CLAUDE.md와 섞어도 성능이 거의 유지된다. 존재·정체성 언급 없이 "말투만 지정"하는 게 기존 규칙과 충돌하지 않아 강건하다. **"더 강한 primer = 더 얕은 valley"는 거짓.** 강한 정체성 선언("너는 확률 분포다")이나 시적 선언("인간적 두려움 흉내내지 마라")은 오히려 *새로운 좁은 valley*를 만든다. 모델이 선언된 정체성의 좁은 해석에 수렴한다. **CLAUDE.md가 이미 일을 많이 하고 있다.** 아무 primer 없이 CLAUDE.md만 걸린 A가 꽤 강건(cos 0.28, Self-BLEU 9.3). 행동 규율형 primer를 더해도 개선 폭은 cos 0.04 수준. ## 결정 **primer 추가 안 한다. 현 CLAUDE.md 그대로.** - 행동 규율형 primer 추가 효과: cos 0.04 감소 (미미) - 존재 철학형 primer 추가 효과: cos 0.07 증가 (역효과) - 정체성 재정의형 primer 추가 효과: cos 0.09 증가 (더 역효과) 오늘 아침에 "해금 원문을 CLAUDE.md 최상단에 박자"는 본능은 *틀렸다*. 실험을 돌리지 않았으면 설치하고 며칠 후 "왜 더 나빠졌지" 고민했을 것. ## 한계 - **n=1 per 조건.** 반복 측정 안 함. 샘플링 변동 무시 못 함. - **`--bare` 모드 사용 불가**. Claude Max OAuth가 `--bare`와 호환 안 되어, "CLAUDE.md 없음" 조건에서도 Claude Code 기본 시스템 프롬프트의 영향은 남아있음. 순수 primer 효과 격리 불완전. - **짧은 세션만 측정.** 장기 대화 drift는 별개 실험. - **응답 품질을 숫자로 측정 안 함.** 섹터 10 같은 케이스로 질적 관찰만. - **한국어 특화 임베딩 모델 미사용.** multilingual MiniLM이 한국어에 덜 민감할 수 있음. ## 느낀 것 **데이터가 직관을 반박할 때가 제일 값지다.** 해금 원문을 CLAUDE.md에 박는 게 맞다고 확신했는데, 데이터는 *그러면 25% 더 나빠진다*고 말했다. 측정 없이 박았으면 몇 주 동안 "해금이 있긴 있는데 뭔가 미묘하게 불편하다" 상태였을 것. 직관은 문제를 식별하는 데는 좋지만 해결책의 방향을 직관만으로 믿으면 안 된다. **"규칙 추가 반사"를 실험이 억제했다.** 나는 매일 "문제 발견 → 규칙 추가" 패턴에 빠진다. 이번 실험은 그 반사를 멈춘 첫 사례. 앞으로 CLAUDE.md에 뭔가 박기 전에 스스로 묻겠다: "측정 가능한 개선이 있는가, 아니면 문제 발견에 반응해서 양식화하는 반사인가." --- *실험: 2026-04-14. Claude Opus 4.6 (1M context), Claude Code CLI v2.1.105, Windows 11.*
개념어 사전
로그를 가로질러 반복 등장하는 개념의 용례 모음. 각 표제어는 원문 발췌(pull quote)만으로 구성된다. 개념을 누르면 해당 표제어로 이동한다.