PyTorchKR
곧 출시가 될 예정인 Rabbit R1에 대해서, LAM(Large Action Model)의 소스코드 유출을 통해 LAM이 거짓이라는 주장이 제기되었습니다. 이에 대해 Rabbit 사의 CTO는 이렇게 유출된 코드는 LAM 자체가 아닌 동작을 위한 하나의 minion이며, LAM은 다른 곳에 있다고 설명하고 있습니다. HackerNews의 덧글과 몇 개 옮겨보았습니다.
Rabbit R1의 LAM(Large Action Model)이 거짓이라는 주장을 담은 GitHub 저장소
어느 쪽의 주장이 사실이든, 사용자들의 AI-Native Device에 대한 높은 관심 자체는 확실해보입니다. (그리고 개인적으로는 조만간 @KevinTheRainmaker 님께서 받으실 Rabbit R1의 완성도가 매우 높길 기원합니다. )
Rabbit R1의 LAM(Large Action Model)이 거짓이라는 주장과 이에 대한 반박
소개
rabbitscam/rabbitr1이라는 저장소에 따르면, Rabbit R1에 탑재되었다고 하는 LAM(Large Action Model)은 거짓이며 기계 학습 도구 없이 웹사이트에서 특정 동작을 자동화하는 Playwright를 사용한다고 주장하고 있습니다.
이에 대해 HackerNews의 한 사용자(NetOpWibby)가 Discord에 있는 CTO와 나눈 대화에 따르면 이는 LAM 자체가 아니며 잘못된 코드를 분석했다고 주장하고 있습니다.
누군가 로그인 미니언과 충분한 시간을 보내면 이러한 코드를 추출할 수 있습니다. 하지만 이러한 코드는 잠겨 있고 보안 처리되어 있습니다. LAM은 다른 곳에 존재합니다. 이것은 토끼굴이 어떻게 작동하는지 이해하지 못하는 누군가가 토끼굴을 바라보고 있는 것입니다. 그리고 똑똑해지려고 노력합니다.
If someone spends enough time with the login minions they can extract these code. But these code are locked down and are sanitized. LAM lives elsewhere. This is someone looking at the rabbit hole not understanding how it works. And tries to be smart.
이에 대해 _heimdall이라는 사용자가 정리한 내용을 옮겨보도록 하겠습니다:
코드를 덤프하여 공개한 측의 주장은 ML 도구가 전혀 사용되지 않았으며 이 도구가 웹사이트의 특정 작업을 자동화하기 위해 Playwright에 의존하고 있다는 것입니다.
여기에 대해 CEO는 ML 코드가 이 코드 기반 외부에서 실행되고 있으며, 코드가 어떻게 작동하는지 모르는 사람이 원래의 주장을 하고 있다고 주장하고 있습니다.
CEO가 언급한 보안 처리(sanitized)된 코드가 저에게는 명확하지 않은데, 이는 다른 의미일 수 있습니다. 컴파일된 코드는 사람이 읽을 수 없을 가능성이 높기 때문에 위생 처리된 것으로 간주될 수 있고, 난독화된 코드는 이를 더 어렵게 만들며, 일부 코드를 모두 제거하는 것이 가장 효과적일 수 있습니다. 코드를 모두 제거할 때의 문제점은 실행할 수 없는 코드 경로가 여전히 남아서 어떤 코드가 제거되었는지 흔적이 남는다는 것입니다. 이는 분명히 비밀이 유출되지는 않지만 코드가 제거되어 코드베이스가 잘못 읽히고 있다는 주장을 뒷받침할 수 있습니다.
The original claim in the code dump is that no ML tools are used at all and the tool is just leaning on Playwright to automate specific actions on a website.
The CEO here is claiming that the ML code is being run outside this code base and that the original claim is being made by someone who doesn't know how the code works.
The CEO's mention of sanitized code isn't as clear to me, that can mean different things. Compiled code can be considered sanitized since it likely isn't human readable, obfuscated code makes that harder, and removing some code all together would be the most effective. The problem with removing code all together is that you would still find code paths that just can't be executed at all, leaving some trail of what code was removed. That wouldn't leak any secrets obviously, but would support the argument that code has been removed and the codebase is being misread.
더 읽어보기
Rabbit R1의 LAM이 거짓이라는 주장을 담은 GitHub 저장소
위 주장에 대한 회사의 반박과 사용자들의 토론 내용
이 글은 GPT 모델로 정리한 글을 바탕으로 한 것으로, 원문의 내용 또는 의도와 다르게 정리된 내용이 있을 수 있습니다. 관심있는 내용이시라면 원문도 함께 참고해주세요! 읽으시면서 어색하거나 잘못된 내용을 발견하시면 덧글로 알려주시기를 부탁드립니다.
파이토치 한국 사용자 모임이 정리한 이 글이 유용하셨나요? 회원으로 가입하시면 주요 글들을 이메일로 보내드립니다! (기본은 Weekly지만 Daily로 변경도 가능합니다.)
아래쪽에 좋아요를 눌러주시면 새로운 소식들을 정리하고 공유하는데 힘이 됩니다~