Claw Compactor 소개
Claw Compactor는 LLM(대규모 언어 모델)을 기반으로 AI 에이전트를 운영할 때 발생하는 토큰 비용과 컨텍스트 창(Context Window) 부하를 획기적으로 줄여주는 오픈소스 토큰 압축 엔진입니다. 최근 AI 에이전트가 복잡한 워크플로우를 수행하면서 수십만 토큰에 달하는 대화 기록, 코드 베이스, 세션 로그 등을 처리하게 됨에 따라 발생하는 막대한 비용 문제를 해결하기 위해 등장했습니다. 이 도구는 특히 OpenClaw와 같은 자율형 AI 에이전트 프레임워크와 결합하여 워크스페이스 메모리와 세션 기록을 효율적으로 관리하는 데 특화되어 있습니다.
Claw Compactor가 주목받는 이유는 단순히 텍스트를 줄이는 것을 넘어, 14단계의 퓨전 파이프라인(Fusion Pipeline) 을 통해 데이터의 유형(코드, JSON, 로그 등)을 스스로 감지하고 각 유형에 최적화된 압축 알고리즘을 적용한다는 점입니다. 이를 통해 AI 에이전트의 운영 비용을 최대 97%까지 절감할 수 있으며, LLM 추론을 전혀 사용하지 않는 결정론적(Deterministic) 방식을 채택하여 압축 과정 자체에 드는 추가 비용이 '제로'라는 강력한 장점을 가지고 있습니다.
Input
|
v
┌─────────────────────────────────────────────────────────────────────────┐
│ FUSION PIPELINE │
│ │
│ QuantumLock ─> Cortex ─> Photon ─> RLE ─> SemanticDedup ─> Ionizer │
│ | | | | | | │
│ KV-cache auto-detect base64 path simhash JSON │
│ alignment 16 languages strip shorten dedup sampling │
│ │
│ ─> LogCrunch ─> SearchCrunch ─> DiffCrunch ─> StructuralCollapse │
│ | | | | │
│ log folding result dedup context fold import merge │
│ │
│ ─> Neurosyntax ─> Nexus ─> TokenOpt ─> Abbrev ─────────> Output │
│ | | | | │
│ AST compress ML token format NL shorten │
│ (tree-sitter) classify optimize (text only) │
│ │
│ [ RewindStore ] ── hash-addressed LRU for reversible retrieval │
└─────────────────────────────────────────────────────────────────────────┘
배경을 살펴보면, 기존의 LLM 컨텍스트 관리 방식은 단순히 오래된 메시지를 삭제하거나 전체 내용을 다시 요약(Summarization)하는 방식이 주를 이루었습니다. 하지만 요약 방식은 모델 추론 비용이 발생할 뿐만 아니라 중요한 세부 정보를 누락시킬 위험이 큽니다. Claw Compactor는 규칙 기반의 손실/무손실 압축을 혼합하여 중요한 사실과 결정 사항은 보존하면서도 토큰 수만 정밀하게 깎아내는 엔지니어링 접근법을 취하고 있습니다.
Claw Compactor의 14단계 파이프라인 개요
Claw Compactor의 핵심은 데이터를 흐름에 따라 순차적으로 가공하는 14단계 퓨전 파이프라인입니다. 각 단계는 데이터의 불변성(Immutability)을 유지하며 최적의 압축 결과를 도출합니다.
| # | 단계 (Stage) | 순서 (Order) | 목적 (Purpose) | 적용 대상 (Applies To) |
|---|---|---|---|---|
| 1 | QuantumLock | 3 | 시스템 프롬프트 내 동적 컨텐츠를 격리하여 KV-캐시 적중률 극대화 | 시스템 메시지 |
| 2 | Cortex | 5 | 컨텐츠 유형 및 16개 프로그래밍 언어 자동 감지 | 유형 미지정 컨텐츠 |
| 3 | Photon | 8 | Base64 인코딩 이미지 감지 및 압축 | 전체 |
| 4 | RLE | 10 | 경로 약어화($WS), IP 접두사 압축, Enum(열거형) 축소 | 전체 |
| 5 | SemanticDedup | 12 | 컨텐츠 블록 간 SimHash 지문 기반 중복 제거 | 전체 |
| 6 | Ionizer | 15 | 스키마를 유지하며 JSON 배열 통계적 샘플링 및 에러 보존 | JSON |
| 7 | LogCrunch | 16 | 반복되는 로그 라인을 발생 횟수 기반으로 폴딩(Folding) | 로그 |
| 8 | SearchCrunch | 17 | search/grep 결과 내 중복 데이터 제거 | 검색 결과 |
| 9 | DiffCrunch | 18 | git diff 내의 변경되지 않은 컨텍스트 라인 폴딩 | Diff |
| 10 | StructuralCollapse | 20 | import 블록 병합 및 반복되는 어설션/패턴 축약 | 코드 |
| 11 | Neurosyntax | 25 | tree-sitter 기반 AST 분석 코드 압축 (식별자는 유지) | 코드 |
| 12 | Nexus | 35 | ML 토큰 레벨 압축 (모델 미사용 시 불용어 제거로 대체) | 텍스트 |
| 13 | TokenOpt | 40 | 토크나이저 포맷 최적화 (볼드/이탤릭 제거 및 공백 정규화) | 전체 |
| 14 | Abbrev | 45 | 자연어 약어화 (코드/JSON 등 구조화 데이터는 제외) | 텍스트 |
지능형 콘텐츠 감지 및 분류 (Cortex Layer)
Coretex Layer에서는 입력된 데이터가 Python 소스 코드인지, JSON 데이터인지, 아니면 단순 시스템 로그인지 자동으로 감지합니다. 현재 약 16개 이상의 프로그래밍 언어와 다양한 데이터 형식을 식별할 수 있습니다.
하이브리드 압축 레이어
딕셔너리 인코딩(자주 등장하는 구문을 짧은 코드로 치환), RLE(반복되는 경로 및 IP 주소 압축) 등을 통해 데이터를 1:1로 복구 가능한 상태(무손실 레이어)로 압축합니다.
또한, 세션 관찰 내용(Observations) 중 중복된 사실을 제거하거나, 긴 로그 라인을 카운트 기반으로 폴딩(Folding)하여 핵심 의미만 남기는 손실 레이어(지식 보존형)도 제공합니다.
Claw Compactor의 주요 압축 단계 상세
- QuantumLock: 시스템 프롬프트 내의 동적 콘텐츠를 격리하여 KV-캐시 적중률을 극대화합니다.
- SemanticDedup: SimHash 지문 분석을 통해 내용이 유사한 블록을 찾아 중복을 제거합니다.
- Ionizer: JSON 배열 내에서 통계적 샘플링을 수행하고 스키마 구조를 유지하면서 데이터 크기를 줄입니다.
- Tree-Sitter 기반 코드 압축: AST(추상 구문 트리) 분석을 통해 코드의 논리 구조를 해치지 않고 불필요한 공백과 주석 등을 정리합니다. 식별자(Variable Name)는 축소하지 않아 모델의 이해도를 유지합니다.
가역적 압축 (Rewind Store)
압축된 내용 중 일부가 나중에 필요할 경우를 대비하여, 원본 데이터를 해시 주소 기반의 캐시에 저장합니다. LLM은 필요한 경우 도구 호출(Tool Use)을 통해 특정 마커 ID의 원본 내용을 다시 불러올 수 있습니다.
Claw Compactor 설치 및 사용 방법
Python 3.9 이상 환경에서 독립적인 도구로 실행하거나 OpenClaw의 플러그인으로 통합할 수 있습니다.
# 저장소 복제 및 이동
git clone https://github.com/open-compress/claw-compactor.git
cd claw-compactor
# 압축 효율 미리보기 (벤치마크 모드)
python3 scripts/mem_compress.py /path/to/workspace benchmark
# 전체 워크스페이스 압축 실행
python3 scripts/mem_compress.py /path/to/workspace full
주요 명령어 안내:
dict: 자동 학습된 코드북을 사용하여 딕셔너리 인코딩을 수행합니다.observe: 세션 트랜스크립트를 구조화된 관찰 데이터로 변환합니다.auto: 감시 모드를 활성화하여 파일이 변경될 때마다 실시간으로 압축을 수행합니다.
라이선스
Claw Compactor 프로젝트는 MIT 라이선스로 공개 및 배포되고 있습니다. 상업적 이용 및 수정이 자유로우나 저작권 고지 사항을 유지해야 합니다.
Claw Compactor 공식 홈페이지
Claw Compactor 프로젝트 GitHub 저장소
더 읽어보기
-
Context Gateway: 의도에 기반하여 컨텍스트를 압축하며 속도 한계를 해결하는 프록시 도구 (feat. Compresr)
-
LLM 상용화 시, 비용을 낮추면서 성능 향상을 위한 3가지 전략 (feat. FrugalGPT by Portkey)
이 글은 GPT 모델로 정리한 글을 바탕으로 한 것으로, 원문의 내용 또는 의도와 다르게 정리된 내용이 있을 수 있습니다. 관심있는 내용이시라면 원문도 함께 참고해주세요! 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다. ![]()
파이토치 한국 사용자 모임
이 정리한 이 글이 유용하셨나요? 회원으로 가입하시면 주요 글들을 이메일
로 보내드립니다! (기본은 Weekly지만 Daily로 변경도 가능합니다.)
아래
쪽에 좋아요
를 눌러주시면 새로운 소식들을 정리하고 공유하는데 힘이 됩니다~ ![]()

