SA - Segment Anything

Meta에서 SAM(Segment Anything Model)을 공개했습니다.

잠깐 데모를 사용해봤는데 잘해주네요 :+1:

아래는 SAM을 소개하는 메타의 블로그 글 앞 부분을 발췌한 것과 DeepL로 번역한 것입니다.

Segmentation — identifying which image pixels belong to an object — is a core task in computer vision and is used in a broad array of applications, from analyzing scientific imagery to editing photos. But creating an accurate segmentation model for specific tasks typically requires highly specialized work by technical experts with access to AI training infrastructure and large volumes of carefully annotated in-domain data.
어떤 이미지 픽셀이 물체에 속하는지 식별하는 세그멘테이션은 컴퓨터 비전의 핵심 작업으로, 과학 이미지 분석부터 사진 편집에 이르기까지 다양한 애플리케이션에 사용됩니다. 그러나 특정 작업을 위한 정확한 세분화 모델을 생성하려면 일반적으로 AI 학습 인프라와 신중하게 주석이 달린 대량의 도메인 내 데이터에 액세스할 수 있는 기술 전문가가 고도로 전문화된 작업을 수행해야 합니다.

Today, we aim to democratize segmentation by introducing the Segment Anything project: a new task, dataset, and model for image segmentation, as we explain in our research paper. We are releasing both our general Segment Anything Model (SAM) and our Segment Anything 1-Billion mask dataset (SA-1B), the largest ever segmentation dataset, to enable a broad set of applications and foster further research into foundation models for computer vision. We are making the SA-1B dataset available for research purposes and the Segment Anything Model is available under a permissive open license (Apache 2.0). Check out the demo to try SAM with your own images.
오늘 저희는 연구 논문에서 설명한 것처럼 이미지 분할을 위한 새로운 작업, 데이터 세트, 모델인 [세그먼트 애니씽] 프로젝트를 도입하여 분할의 대중화를 목표로 하고 있습니다. 광범위한 애플리케이션을 지원하고 컴퓨터 비전을 위한 기초 모델에 대한 추가 연구를 촉진하기 위해 일반 Segment Anything 모델(SAM)과 역대 최대 규모의 세분화 데이터 세트인 Segment Anything 10억 마스크 데이터 세트(SA-1B)를 모두 공개하고 있습니다. 우리는 연구 목적으로 SA-1B 데이터 세트를 제공하고 있으며, 세그먼트 애니씽 모델은 허용된 오픈 라이선스(Apache 2.0)에 따라 사용할 수 있습니다. 자신의 이미지로 SAM 체험 데모를 확인해 보세요.

Translated with DeepL

더 자세한 내용은 아래 링크들을 참고해주세요~

Demo

Paper

Blog Post

Code

2개의 좋아요