ZeroClaw: 100% Rust로 작성된 초경량 자율형 인공지능 에이전트 프레임워크

ZeroClaw 소개

하버드 대학교(Harvard), 매사추세츠 공과대학교(MIT), 그리고 선다이 클럽(Sundai.Club) 커뮤니티 소속 개발자와 연구진들이 주도하여 개발한 ZeroClaw는 100% Rust 프로그래밍 언어로 작성된 초경량 자율형 인공지능 에이전트 프레임워크입니다. 이 프로젝트는 인공지능 에이전트가 동작하는 런타임 운영체제 역할을 수행하며, 모델, 도구, 메모리, 실행 환경 등의 복잡한 인프라를 추상화하여 한 번 구축한 에이전트를 어디서든 실행할 수 있도록 돕습니다. ZeroClaw는 과도한 클라우드 비용이나 무거운 서버 사양, 특정 플랫폼에 종속되는 문제를 근본적으로 해결하는 것을 목표로 하고 있습니다.

기존의 인공지능 프레임워크들은 방대한 종속성 라이브러리와 높은 메모리 요구량으로 인해 고성능 하드웨어를 강제하는 경우가 많았습니다. 하지만 ZeroClaw는 릴리스 빌드 기준 약 8.8MB 크기의 단일 실행 파일로 컴파일되며, 런타임 시 5MB 미만의 램(RAM) 메모리만으로도 안정적으로 구동됩니다. 이러한 압도적인 경량화 설계 덕분에 10달러 수준의 저렴한 싱글 보드 컴퓨터나 리소스가 매우 제한된 엣지 디바이스에서도 인공지능 에이전트를 원활하게 운영할 수 있습니다. 이는 클라우드 인프라 유지 비용을 극적으로 절감하는 동시에, 개인이 직접 온프레미스 환경에서 인공지능을 구축하고 활용하는 진입 장벽을 크게 낮추는 핵심적인 역할을 합니다.

더불어 ZeroClaw는 보안과 모듈화라는 두 가지 핵심 가치를 아키텍처 설계의 최우선 순위로 삼고 있습니다. 기본적으로 모든 프로세스를 격리된 샌드박스 환경에서 실행하며, 파일 시스템 접근 제어와 명령어 허용 목록을 통해 에이전트의 예기치 않은 동작이나 악의적인 시스템 접근을 원천적으로 차단합니다. 또한, 각 구성 요소를 독립적으로 교체할 수 있는 유연한 구조를 채택하여 사용자가 특정 언어 모델이나 통신 플랫폼에 얽매이지 않고 자신만의 인공지능 생태계를 자유롭게 구성할 수 있는 완벽한 자율성을 제공하는 것이 특징입니다.

ZeroClaw vs. OpenClaw 비교

이전까지 널리 사용되던 대표적인 에이전트 프레임워크인 OpenClaw와 비교할 때, ZeroClaw는 성능과 자원 효율성 면에서 획기적인 개선을 이루어냈습니다.

OpenClaw가 대규모 메모리와 상대적으로 높은 컴퓨팅 파워를 요구하여 고가의 하드웨어나 클라우드 인스턴스를 필요로 했던 반면, ZeroClaw는 메모리 사용량을 기존 대비 약 99% 절감하고 인프라 구축 비용을 98% 이상 낮추는 놀라운 효율성을 보여줍니다. 콜드 스타트 속도 역시 비약적으로 향상되어, 0.6GHz 수준의 저전력 코어에서도 1초 이내, 일반적인 환경에서는 10ms 미만의 빠른 부팅 속도를 자랑합니다. 기존 OpenClaw 사용자를 배려하여 터미널에서 마이그레이션 명령어를 입력하는 것만으로 기존의 설정 파일과 마크다운 기반의 정체성 데이터를 손쉽게 이전할 수 있는 강력한 하위 호환성도 갖추고 있습니다.

ZeroClaw의 주요 특징

ZeroClaw의 가장 두드러진 기술적 특징은 프로바이더, 채널, 도구, 메모리 등 모든 하위 시스템이 Rust 프로그래밍 언어의 트레이트(Trait) 기반 인터페이스로 설계된 모듈형 아키텍처라는 점입니다. 이는 개발자가 핵심 코드를 단 한 줄도 수정하지 않고도 설정 파일의 내용만 변경하여 원하는 구성 요소를 즉시 교체할 수 있음을 의미합니다. 언어 모델 프로바이더의 경우 오픈에이아이, 앤스로픽, 제미나이와 같은 상용 클라우드 응용 프로그램 인터페이스는 물론이며, 올라마나 엘엘엠 스튜디오를 활용한 로컬 모델 연동까지 총 28개 이상의 다양한 엔드포인트를 기본적으로 지원하여 사용자의 선택권을 극대화합니다.

통신 및 메시징 채널 역시 뛰어난 확장성을 제공하여 슬랙, 디스코드, 텔레그램, 왓츠앱 등 다양한 플랫폼과 원활하게 연동됩니다. 에이전트는 데몬 모드를 통해 백그라운드에서 상시 대기하며 사용자의 메시지에 응답하거나 정해진 일정에 따라 백그라운드 작업을 처리할 수 있고, 게이트웨이 모드를 활용하면 웹 서비스나 외부 애플리케이션에서 인공지능 응용 프로그램 인터페이스를 직접 호출하여 응답을 받을 수도 있습니다. 사용자는 자신이 구축하고자 하는 서비스의 목적과 규모에 맞게 두 가지 모드를 개별적으로 사용하거나 동시에 실행하여 완전한 자율형 어시스턴트 시스템을 유연하게 구축할 수 있습니다.

자체 메모리 시스템 및 보안 메커니즘

인공지능 에이전트의 문맥 유지와 기억 능력 관리를 위해 ZeroClaw는 외부 데이터베이스나 추가적인 검색 엔진에 의존하지 않는 독립적인 하이브리드 메모리 시스템을 내장하고 있습니다. 기본적으로 에스큐엘라이트를 데이터 저장소로 활용하며, 벡터 유사도 검색과 키워드 일치 검색을 결합하여 사용자의 과거 대화 내역이나 문서 컨텍스트를 빠르고 정확하게 불러옵니다. 이러한 로컬 중심의 메모리 관리는 파인콘이나 엘라스틱서치와 같은 무거운 외부 인프라 구축의 필요성을 없애고 데이터가 외부 서버로 유출되는 것을 원천적으로 방지하여 데이터 프라이버시 측면에서도 큰 이점을 제공합니다.

보안은 자율형 에이전트 운영에 있어 가장 치명적인 요소 중 하나이며, ZeroClaw는 이를 해결하기 위해 설계 단계부터 강력한 보안 정책을 기본값으로 엄격하게 적용했습니다. 에이전트가 실행되는 작업 공간은 철저히 격리되어 시스템의 주요 디렉터리에 임의로 접근할 수 없으며, 내부적으로 실행 가능한 명령어 역시 사용자가 사전에 명시한 허용 목록 내에서만 동작하도록 통제됩니다. 또한, 외부 클라이언트가 에이전트와 연결을 맺을 때는 반드시 고유한 페어링 코드를 통한 인증을 거쳐야 하며, 인증 키와 같은 중요한 민감 정보는 암호화된 상태로 로컬 키 파일에 안전하게 보관되어 무단 접근을 방지합니다.

설치 및 로컬 언어 모델 연동

ZeroClaw는 크로스 플랫폼을 완벽히 지원하며 윈도우, 리눅스, 맥오에스 환경에서 손쉽게 컴파일 및 설치가 가능합니다. 소스 코드를 직접 빌드하기 위해서는 시스템에 씨 플러스 플러스 빌드 도구와 Rust 툴체인이 사전에 구성되어 있어야 하며, 터미널 환경에서 카고 패키지 매니저를 사용하면 별도의 복잡한 과정 없이 즉시 실행 파일을 시스템에 구축할 수 있습니다. 설치가 완료된 후 터미널에 아래의 명령어를 입력하여 소프트웨어를 설치합니다.

cargo install zeroclaw

설치가 완료된 후 로컬 환경에서 데이터를 외부로 보내지 않고 인공지능을 구동하고 싶다면, 올라마와 같은 로컬 대규모 언어 모델 구동기와 연동하는 것이 보안과 비용 측면에서 가장 효율적입니다. 홈 디렉터리 하위에 위치한 설정 파일을 열어 프로바이더 항목을 아래와 같이 수정하면, 에이전트가 로컬 그래픽 처리 장치 자원을 활용하여 텍스트 추론을 수행하게 됩니다. 이를 통해 사용자는 클라우드 플랫폼에 지불해야 하는 응용 프로그램 인터페이스 호출 비용을 완전히 없앨 수 있으며, 오프라인 환경에서도 독립적으로 동작하는 강력한 개인용 인공지능 비서를 운영할 수 있습니다.

[provider]
name = "ollama"
default_model = "gpt-oss:20b"

라이선스

ZeroClaw 프로젝트는 Apache 2.0 라이선스MIT 라이선스 하에 공개 및 배포되고 있습니다.

:house: ZeroClaw 공식 홈페이지

:github: ZeroClaw 프로젝트 GitHub 저장소




이 글은 GPT 모델로 정리한 글을 바탕으로 한 것으로, 원문의 내용 또는 의도와 다르게 정리된 내용이 있을 수 있습니다. 관심있는 내용이시라면 원문도 함께 참고해주세요! 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다. :hugs:

:pytorch:파이토치 한국 사용자 모임:south_korea:이 정리한 이 글이 유용하셨나요? 회원으로 가입하시면 주요 글들을 이메일:love_letter:로 보내드립니다! (기본은 Weekly지만 Daily로 변경도 가능합니다.)

:wrapped_gift: 아래:down_right_arrow:쪽에 좋아요:+1:를 눌러주시면 새로운 소식들을 정리하고 공유하는데 힘이 됩니다~ :star_struck:

1개의 좋아요