[230306] 모두의연구소가 전하는 오늘의 AI소식

봄이 한발짝 다가온 오늘도 안녕하신가요!
퇴근길 읽을만한 AI뉴스 전해드립니다 ㅎㅎ

Stable Diffusion에 대한 관심이 높은 만큼 이제는 ControlNet 또한 인기가 높아졌습니다. ControlNet이란 최소한의 인터페이스로 최대한 커스터마이징할 수 있도록 도와주는 네트워크입니다. 그렇기에 ControlNet이 현재 거의 모든걸 진행할 수 있다고 봐도 무방합니다. HuggingFace는 ControlNet을 조금 더 편안하게 사용하기 위해서 diffusers 내에 'StableDiffusionControlnetPipeline'을 만들었고 이를 활용하면 손쉽게 사용할 수 있습니다. 해당 내용에 관심이 있다면 클릭해주세요!!

요즘 식당에 가면 간간이 서빙하는 로봇을 볼 수 있습니다. 그러나 사람이 많이 다니는 환경에서는 아직 로봇 네비게이션이 완벽하지 않습니다. 거기다가 사각지대에서 로봇이 인간을 먼저 인식해서 양보하거나 사람에게 부담스럽지 않게 일정한 거리를 유지하는 방식으로 탐색은 아직 쉽지 않습니다. 구글 로보틱스 팀과 에브리데이 로봇은 합작해서 실제 상황에서의 실시간 Attention을 활용한 예측 컨트롤러를 발표했습니다. 해당 블로그를 누르면 실 사례를 gif로 볼 수 있어 직접 들어가서 실 성능을 확인해부세요!!

Diffusion이 대세가 된 지금 Google에서 텍스트 기반 video diffusion 모델인 Dreamix를 발표했습니다. Dreamix는 원본 비디오의 저해상도 정보와 텍스트 프롬프트를 이용해 새로운 고해상도 비디오를 출력합니다. 또한 시간에 맞는 Attention과 마스킹을 통해 모션 편집도 가능하게 만들었고 애니메이션을 위한 새로움 프레임워크 또한 도입했습니다. 이제는 Diffusion 모델이 비디오에도 영향을 미치고 있고 구현 또한 완벽에 가까워졌습니다. 관련한 비디오를 보고 싶다면 url을 클릭해주세요!!

2개의 좋아요

감사합니다! ^^
요 몇 일 바빠서 밀린 소식들을 몰아서 봤네요. :smiley_cat:


Dreamix는 정말 좋아보이네요 ㅎㅎㅎ

조만간 관심있는 주제에 대해서 직접 비디오를 생성해서 보는 서비스들도 생기지 않을까 싶습니다 :thinking: