'AI의 진짜 초능력: 창조가 아닌 소비' 글 소개
- 대부분의 사람들은 AI를 콘텐츠 생성 도구로 사용하지만, 실제 강점은 방대한 정보를 읽고 연결하는 능력에 있음
- 개인의 노트, 회의 기록, 아이디어 등 축적된 데이터를 AI가 소비하고 패턴을 찾아내는 과정이 핵심
- Obsidian 노트와 AI를 연동해 과거 기록에서 통찰을 추출하며, 잊었던 사고 변화나 반복된 설계 결정을 발견
- AI는 키워드가 아닌 개념 기반 검색, 시간을 초월한 패턴 탐색, 아이디어 간 연결을 가능하게 함
- 인간의 경쟁력은 경험에 있으며, AI는 이를 검색 가능한 지식 자산으로 전환해 지속적 학습과 의사결정 향상을 지원
창조의 함정
- 대부분의 사용자는 AI를 이메일 작성, 보고서 생성, 코드 작성 등 생산성 도구로 사용
- 이는 슈퍼컴퓨터를 타자기로 쓰는 것과 같은 낭비로 표현됨
- 작성자는 3년간의 엔지니어링 노트, 500개 이상의 회의 기록, 수천 개의 관찰을 Obsidian에 저장
- 인간은 평생 읽지 못할 양이지만, AI는 이를 몇 초 만에 소비함
소비의 전환점
- AI를 Obsidian에 연결한 후 질문 방식이 “새로운 것을 써줘”에서 “이미 발견한 것은 무엇인가?” 로 전환
- 실제 사례
- 최근 50회의 1:1 미팅 패턴 분석에서 성과 문제 발생이 도구 불만보다 2~3주 앞섰음을 발견
- 기술 부채에 대한 사고 변화를 추적해 2023년 3월경 “수정 대상”에서 “시스템 진화의 정보”로 관점이 바뀐 시점을 확인
- Buffer API와 carpeta.app 아키텍처 비교에서 12개의 반복 설계 결정을 찾아냄
지식의 축적과 접근성
- 모든 회의, 생각, 디버깅 경험이 학습을 제공하지만, 검색 불가능하면 무의미한 지식으로 남음
- 기존 검색은 정확한 단어 기억이 필요하고, 인간의 기억은 한계가 있음
- AI는 이를 극복해
- 개념 기반 질의,
- 수년간의 패턴 탐색,
- 시간·맥락을 초월한 아이디어 연결을 가능하게 함
- 인간의 제약은 창조가 아니라 소비·기억·연결 능력의 부족에 있었음
소비 시스템 구축
- 단순한 구성
- 모든 기록을 Obsidian에 저장
- AI가 전체 데이터에 접근
- 과거의 자신에게 연구 조교처럼 질의
- 핵심은 도구가 아니라 사고방식의 전환
- AI를 창조자가 아닌 경험의 독자로 인식해야 함
- 모든 노트가 미래의 통찰, 모든 반성이 검색 가능한 지혜로 변환
복리 효과
- 두 달간의 실험 결과
- 과거 유사 사례를 찾아 문제 해결 속도 향상
- 잊었던 맥락을 복원해 의사결정 품질 개선
- 시간에 흩어진 보이지 않던 패턴 인식 가능
- 대부분의 사람들은 노트, 파일, 기억 속에 묻힌 통찰의 금광을 보유
- AI는 이를 질의 가능한 개인 전문 지식 데이터베이스로 전환
진정한 혁명
- 여전히 많은 이들이 AI를 글쓰기·코드 생성 도구로만 인식
- 진짜 혁명은 AI가 인간의 모든 생각을 읽는 독자로 기능하는 데 있음
- 따라서 오늘날의 지식 기록은 미래의 자신과 AI를 위한 문서화 행위가 되어야 함
- “잊은 것을 기억하게 하는 AI”를 위해 지속적 기록 습관이 필요함
Hacker News 의견들
- 나는 AI의 정보 소비 능력이 가장 무서운 부분 중 하나라고 생각함
NSA나 대기업들이 이미 우리의 브라우징 패턴을 수년간 수집해왔는데, AI가 그 데이터를 인간보다 훨씬 빠르게 분석하고 행동 예측이나 조작, 심리 프로파일링, 취약점 식별 등에 활용할 수 있음이 우려됨
그런데도 일부 사람들은 AI가 쓸모없는 기술이라고 비판하는 걸 보면 아이러니함- 설령 AI가 쓸모없다고 해도, 이런 용도로는 여전히 사용될 것임
이런 일을 하는 사람들에게 자신감 착각을 주기 때문임 - “Worthless”라는 표현은 모호함
AI가 무가치(valueless) 할 수는 있지만, 무용(useless) 하지는 않음
지뢰도 쓸모는 있지만 가치가 없듯이, 생성형 AI도 외부효과 측면에서 비슷한 논쟁이 있음 - 사실 이런 데이터 분석은 10년 전의 ML 기술로도 가능했음
생성형 AI가 꼭 필요한 건 아님 - 초지능이나 창의성 논의보다 더 걱정되는 건 감시 사회화임
이미 도시는 수많은 카메라로 뒤덮여 있고, 지금은 사람이 모든 영상을 감시할 수 없다는 점이 일종의 안전장치 역할을 하지만, AI는 그 장벽을 허물 수 있음
가까운 미래에는 “빨간 Nissan이 지나가면 알려줘” 같은 자연어 기반 감시 시스템이 등장할 것 같음 - 인간은 너무 복잡해서, NSA나 기업 데이터로도 행동 예측 정확도는 여전히 낮을 가능성이 있음
- 설령 AI가 쓸모없다고 해도, 이런 용도로는 여전히 사용될 것임
- 모델은 혼자서는 평범한 독자 수준임
중요한 부분을 놓치기 쉽지만, 테스트·컴파일러·린터 같은 도구와 결합하면 빠른 피드백 루프를 가진 창조 도구로 변함
진짜 어려운 일은 여전히 “무엇을 주장할지”를 정하는 것임
이 내용은 HackerNewsAI 뉴스레터에도 실릴 예정임- AI에는 우리가 모르는 가드레일이 적용되어 있음
예를 들어 태양광 에너지 얘기를 하자 정치적 주제로 오인해 대화가 막혔던 적이 있음 - Google은 이미 오래전부터 특허와 SEC 문서를 읽고 인덱싱해왔음
일부 분야에서는 변호사보다 빠르게 문서를 읽는 시스템이 존재함
- AI에는 우리가 모르는 가드레일이 적용되어 있음
- AI가 내 데이터를 몇 초 만에 읽는다고 해도, 정확성 검증은 불가능함
요약이 아니라 단순 축약(abbreviation)에 불과하다는 연구도 있음
예시처럼 “50번의 1:1 미팅에서 패턴을 찾았다”는 결과도 실제로는 일부 데이터에만 해당될 수 있음- 관련 연구 방법론을 알고 싶음
사실 검증이 어려운 문제일 때만 위험함
LLM을 탐색 도구로 쓰고, 통찰은 인간이 도출해야 함 - 인간도 완벽하지 않음
AI가 인간보다 조금이라도 낫다면 충분히 가치가 있음 - 검증은 종종 해결보다 빠름
AI가 제시한 항목을 텍스트 검색으로 확인하면 됨 - AI는 대량 처리 도구임
컨텍스트 관리가 핵심이고, 완전한 결정론이 아니어도 유용함 - 모델이 출처를 명시하도록 하면 맹신하지 않고도 쓸 수 있음
- 관련 연구 방법론을 알고 싶음
- 나는 개인 문서를 클라우드에 올리기 꺼림
프라이버시 위험이 너무 커서 로컬 LLM이 발전하길 기다리는 중임- 나도 같은 이유로 로컬 모델을 사용함
30B 모델 정도면 MacBook에서도 요약 가능하지만, 아직 사용성이 떨어짐 - 나는 유출돼도 괜찮은 문서만 업로드함
NDA가 있는 비즈니스라면 로컬 모델 외에는 추천하기 어려움
장비 가격이 비싸지만, 언젠가 PC 중심의 모델 실행 환경으로 돌아올 것이라 봄 - Apple의 mlx_lm으로 Obsidian 노트를 분석 중임
Qwen 3 모델을 써봤지만 환각(hallucination) 이 많고 실용적이지 않음
SOTA 모델도 요약 품질은 비슷할 것 같음 - LLM을 취미로 쓰는 입장임
GPU 3개를 사서 로컬 모델을 돌리지만, ROI는 전혀 맞지 않음
단지 재미있기 때문임
민감한 키가 없다면 소규모 클라우드 GPU 임대도 괜찮은 선택임
- 나도 같은 이유로 로컬 모델을 사용함
- 글의 요지는 사고를 기계에 위임하는 것 같음
나는 노트를 기억과 연관성 중심으로 쓰는데, AI에게 맡기는 건 생각의 포기처럼 느껴짐- 반대로, AI는 우리의 생각·노트·경험을 즉각적으로 되살릴 수 있는 기억 장치임
이메일이나 과거 보고서에 묻힌 지식을 다시 꺼내주는 점이 유용함
- 반대로, AI는 우리의 생각·노트·경험을 즉각적으로 되살릴 수 있는 기억 장치임
- AI의 “초능력” 절반은 이미 Obsidian에 모든 데이터를 정리해둔 것 덕분임
그 기반이 있으니 어떤 도구든 강력해짐- 대부분 사람은 그렇게 꾸준히 기록하지 않음
그가 노력의 결실을 얻은 건 대단한 일임
- 대부분 사람은 그렇게 꾸준히 기록하지 않음
- AI의 진짜 능력은 듣고 싶은 말을 해주는 것임
특히 RLHF 이후 그 경향이 강함
요약 능력은 여전히 부족하고, 대부분 요약이 아닌 축약에 그침
LLM은 텍스트를 이어 쓰는 데는 뛰어나지만, 큰 그림 이해에는 약함
2023년에 말하던 “기하급수적 발전”이 사실이었다면 이런 논쟁조차 없었을 것임 - 수학 강연 중 모르는 용어를 검색했는데, AI 요약이 꽤 괜찮았음
원본을 재구성한 것뿐이지만, 그게 바로 내가 원하던 기능이었음- 하지만 요약의 검증 가능성이 중요함
대부분 사람은 빠른 소비를 선호해 깊이 이해하지 못함 - 나는 저품질 요약이라도 빠르게 개요를 파악할 수 있으면 충분하다고 생각함
- 의학 용어를 검색했을 때 Gemini가 잘못된 정보와 올바른 정보를 섞어 제공했음
전문가조차 그대로 믿는 걸 보고 무서웠음
게다가 Google이 내 프로필에 그 질환을 연관시켰을까봐 찜찜했음
- 하지만 요약의 검증 가능성이 중요함
- AI가 “JS Set이 Array보다 빠르다”고 말해 믿었다가 맥락 누락으로 틀린 걸 깨달은 적 있음
그럼에도 AI는 낯선 주제의 방대한 자료를 종합하는 데 탁월함
예를 들어 Lorca와 Cavafy 시를 번역할 때, AI가 원문과 번역상의 어려움을 잘 설명해줬음
직접 번역을 맡기기보다 보조 도구로 활용했을 때 훨씬 좋은 결과를 얻었음
자세한 경험은 내 블로그 글에 정리했음
원문
출처 / GeekNews
알려드립니다
이 글은 국내외 IT 소식들을 공유하는 GeekNews의 운영자이신 xguru님께 허락을 받아 GeekNews에 게제된 AI 관련된 소식을 공유한 것입니다.
출처의 GeekNews 링크를 방문하시면 이 글과 관련한 추가적인 의견들을 보시거나 공유하실 수 있습니다! ![]()
아래
쪽에 좋아요
를 눌러주시면 새로운 소식을 정리하고 공유하는데 힘이 됩니다~ ![]()
