[GN⁺] AI의 진짜 초능력: 창조가 아닌 소비

'AI의 진짜 초능력: 창조가 아닌 소비' 글 소개

  • 대부분의 사람들은 AI를 콘텐츠 생성 도구로 사용하지만, 실제 강점은 방대한 정보를 읽고 연결하는 능력에 있음
  • 개인의 노트, 회의 기록, 아이디어 등 축적된 데이터를 AI가 소비하고 패턴을 찾아내는 과정이 핵심
  • Obsidian 노트와 AI를 연동해 과거 기록에서 통찰을 추출하며, 잊었던 사고 변화나 반복된 설계 결정을 발견
  • AI는 키워드가 아닌 개념 기반 검색, 시간을 초월한 패턴 탐색, 아이디어 간 연결을 가능하게 함
  • 인간의 경쟁력은 경험에 있으며, AI는 이를 검색 가능한 지식 자산으로 전환해 지속적 학습과 의사결정 향상을 지원

창조의 함정

  • 대부분의 사용자는 AI를 이메일 작성, 보고서 생성, 코드 작성 등 생산성 도구로 사용
    • 이는 슈퍼컴퓨터를 타자기로 쓰는 것과 같은 낭비로 표현됨
  • 작성자는 3년간의 엔지니어링 노트, 500개 이상의 회의 기록, 수천 개의 관찰을 Obsidian에 저장
    • 인간은 평생 읽지 못할 양이지만, AI는 이를 몇 초 만에 소비

소비의 전환점

  • AI를 Obsidian에 연결한 후 질문 방식이 “새로운 것을 써줘”에서 “이미 발견한 것은 무엇인가?” 로 전환
  • 실제 사례
    • 최근 50회의 1:1 미팅 패턴 분석에서 성과 문제 발생이 도구 불만보다 2~3주 앞섰음을 발견
    • 기술 부채에 대한 사고 변화를 추적해 2023년 3월경 “수정 대상”에서 “시스템 진화의 정보”로 관점이 바뀐 시점을 확인
    • Buffer API와 carpeta.app 아키텍처 비교에서 12개의 반복 설계 결정을 찾아냄

지식의 축적과 접근성

  • 모든 회의, 생각, 디버깅 경험이 학습을 제공하지만, 검색 불가능하면 무의미한 지식으로 남음
  • 기존 검색은 정확한 단어 기억이 필요하고, 인간의 기억은 한계가 있음
  • AI는 이를 극복해
    • 개념 기반 질의,
    • 수년간의 패턴 탐색,
    • 시간·맥락을 초월한 아이디어 연결을 가능하게 함
  • 인간의 제약은 창조가 아니라 소비·기억·연결 능력의 부족에 있었음

소비 시스템 구축

  • 단순한 구성
    • 모든 기록을 Obsidian에 저장
    • AI가 전체 데이터에 접근
    • 과거의 자신에게 연구 조교처럼 질의
  • 핵심은 도구가 아니라 사고방식의 전환
    • AI를 창조자가 아닌 경험의 독자로 인식해야 함
    • 모든 노트가 미래의 통찰, 모든 반성이 검색 가능한 지혜로 변환

복리 효과

  • 두 달간의 실험 결과
    • 과거 유사 사례를 찾아 문제 해결 속도 향상
    • 잊었던 맥락을 복원해 의사결정 품질 개선
    • 시간에 흩어진 보이지 않던 패턴 인식 가능
  • 대부분의 사람들은 노트, 파일, 기억 속에 묻힌 통찰의 금광을 보유
    • AI는 이를 질의 가능한 개인 전문 지식 데이터베이스로 전환

진정한 혁명

  • 여전히 많은 이들이 AI를 글쓰기·코드 생성 도구로만 인식
  • 진짜 혁명은 AI가 인간의 모든 생각을 읽는 독자로 기능하는 데 있음
  • 따라서 오늘날의 지식 기록은 미래의 자신과 AI를 위한 문서화 행위가 되어야 함
    • “잊은 것을 기억하게 하는 AI”를 위해 지속적 기록 습관이 필요함

Hacker News 의견들

  • 나는 AI의 정보 소비 능력이 가장 무서운 부분 중 하나라고 생각함
    NSA나 대기업들이 이미 우리의 브라우징 패턴을 수년간 수집해왔는데, AI가 그 데이터를 인간보다 훨씬 빠르게 분석하고 행동 예측이나 조작, 심리 프로파일링, 취약점 식별 등에 활용할 수 있음이 우려됨
    그런데도 일부 사람들은 AI가 쓸모없는 기술이라고 비판하는 걸 보면 아이러니함
    • 설령 AI가 쓸모없다고 해도, 이런 용도로는 여전히 사용될 것임
      이런 일을 하는 사람들에게 자신감 착각을 주기 때문임
    • “Worthless”라는 표현은 모호함
      AI가 무가치(valueless) 할 수는 있지만, 무용(useless) 하지는 않음
      지뢰도 쓸모는 있지만 가치가 없듯이, 생성형 AI도 외부효과 측면에서 비슷한 논쟁이 있음
    • 사실 이런 데이터 분석은 10년 전의 ML 기술로도 가능했음
      생성형 AI가 꼭 필요한 건 아님
    • 초지능이나 창의성 논의보다 더 걱정되는 건 감시 사회화
      이미 도시는 수많은 카메라로 뒤덮여 있고, 지금은 사람이 모든 영상을 감시할 수 없다는 점이 일종의 안전장치 역할을 하지만, AI는 그 장벽을 허물 수 있음
      가까운 미래에는 “빨간 Nissan이 지나가면 알려줘” 같은 자연어 기반 감시 시스템이 등장할 것 같음
    • 인간은 너무 복잡해서, NSA나 기업 데이터로도 행동 예측 정확도는 여전히 낮을 가능성이 있음
  • 모델은 혼자서는 평범한 독자 수준임
    중요한 부분을 놓치기 쉽지만, 테스트·컴파일러·린터 같은 도구와 결합하면 빠른 피드백 루프를 가진 창조 도구로 변함
    진짜 어려운 일은 여전히 “무엇을 주장할지”를 정하는 것임
    이 내용은 HackerNewsAI 뉴스레터에도 실릴 예정임
    • AI에는 우리가 모르는 가드레일이 적용되어 있음
      예를 들어 태양광 에너지 얘기를 하자 정치적 주제로 오인해 대화가 막혔던 적이 있음
    • Google은 이미 오래전부터 특허와 SEC 문서를 읽고 인덱싱해왔음
      일부 분야에서는 변호사보다 빠르게 문서를 읽는 시스템이 존재함
  • AI가 내 데이터를 몇 초 만에 읽는다고 해도, 정확성 검증은 불가능함
    요약이 아니라 단순 축약(abbreviation)에 불과하다는 연구도 있음
    예시처럼 “50번의 1:1 미팅에서 패턴을 찾았다”는 결과도 실제로는 일부 데이터에만 해당될 수 있음
    • 관련 연구 방법론을 알고 싶음
      사실 검증이 어려운 문제일 때만 위험함
      LLM을 탐색 도구로 쓰고, 통찰은 인간이 도출해야 함
    • 인간도 완벽하지 않음
      AI가 인간보다 조금이라도 낫다면 충분히 가치가 있음
    • 검증은 종종 해결보다 빠름
      AI가 제시한 항목을 텍스트 검색으로 확인하면 됨
    • AI는 대량 처리 도구
      컨텍스트 관리가 핵심이고, 완전한 결정론이 아니어도 유용함
    • 모델이 출처를 명시하도록 하면 맹신하지 않고도 쓸 수 있음
  • 나는 개인 문서를 클라우드에 올리기 꺼림
    프라이버시 위험이 너무 커서 로컬 LLM이 발전하길 기다리는 중임
    • 나도 같은 이유로 로컬 모델을 사용함
      30B 모델 정도면 MacBook에서도 요약 가능하지만, 아직 사용성이 떨어짐
    • 나는 유출돼도 괜찮은 문서만 업로드함
      NDA가 있는 비즈니스라면 로컬 모델 외에는 추천하기 어려움
      장비 가격이 비싸지만, 언젠가 PC 중심의 모델 실행 환경으로 돌아올 것이라 봄
    • Apple의 mlx_lm으로 Obsidian 노트를 분석 중임
      Qwen 3 모델을 써봤지만 환각(hallucination) 이 많고 실용적이지 않음
      SOTA 모델도 요약 품질은 비슷할 것 같음
    • LLM을 취미로 쓰는 입장임
      GPU 3개를 사서 로컬 모델을 돌리지만, ROI는 전혀 맞지 않음
      단지 재미있기 때문임
      민감한 키가 없다면 소규모 클라우드 GPU 임대도 괜찮은 선택임
  • 글의 요지는 사고를 기계에 위임하는 것 같음
    나는 노트를 기억과 연관성 중심으로 쓰는데, AI에게 맡기는 건 생각의 포기처럼 느껴짐
    • 반대로, AI는 우리의 생각·노트·경험을 즉각적으로 되살릴 수 있는 기억 장치
      이메일이나 과거 보고서에 묻힌 지식을 다시 꺼내주는 점이 유용함
  • AI의 “초능력” 절반은 이미 Obsidian에 모든 데이터를 정리해둔 것 덕분임
    그 기반이 있으니 어떤 도구든 강력해짐
    • 대부분 사람은 그렇게 꾸준히 기록하지 않음
      그가 노력의 결실을 얻은 건 대단한 일임
  • AI의 진짜 능력은 듣고 싶은 말을 해주는 것
    특히 RLHF 이후 그 경향이 강함
    요약 능력은 여전히 부족하고, 대부분 요약이 아닌 축약에 그침
    LLM은 텍스트를 이어 쓰는 데는 뛰어나지만, 큰 그림 이해에는 약함
    2023년에 말하던 “기하급수적 발전”이 사실이었다면 이런 논쟁조차 없었을 것임
  • 수학 강연 중 모르는 용어를 검색했는데, AI 요약이 꽤 괜찮았음
    원본을 재구성한 것뿐이지만, 그게 바로 내가 원하던 기능이었음
    • 하지만 요약의 검증 가능성이 중요함
      대부분 사람은 빠른 소비를 선호해 깊이 이해하지 못함
    • 나는 저품질 요약이라도 빠르게 개요를 파악할 수 있으면 충분하다고 생각함
    • 의학 용어를 검색했을 때 Gemini가 잘못된 정보와 올바른 정보를 섞어 제공했음
      전문가조차 그대로 믿는 걸 보고 무서웠음
      게다가 Google이 내 프로필에 그 질환을 연관시켰을까봐 찜찜했음
  • AI가 “JS Set이 Array보다 빠르다”고 말해 믿었다가 맥락 누락으로 틀린 걸 깨달은 적 있음
    그럼에도 AI는 낯선 주제의 방대한 자료를 종합하는 데 탁월함
    예를 들어 Lorca와 Cavafy 시를 번역할 때, AI가 원문과 번역상의 어려움을 잘 설명해줬음
    직접 번역을 맡기기보다 보조 도구로 활용했을 때 훨씬 좋은 결과를 얻었음
    자세한 경험은 내 블로그 글에 정리했음

원문

출처 / GeekNews


:information_source: 알려드립니다

이 글은 국내외 IT 소식들을 공유하는 GeekNews의 운영자이신 xguru님께 허락을 받아 GeekNews에 게제된 AI 관련된 소식을 공유한 것입니다.

출처의 GeekNews 링크를 방문하시면 이 글과 관련한 추가적인 의견들을 보시거나 공유하실 수 있습니다! :wink:

:gift: 아래:arrow_lower_right:쪽에 좋아요:heart:를 눌러주시면 새로운 소식을 정리하고 공유하는데 힘이 됩니다~ :star_struck:

3개의 좋아요