[TLDR] 오늘의 AI 뉴스, 2023-08-30: 구글의 SynthID 워터마크 🆔, 아마존의 AI 인수 🏢, 디퓨전을 이용한 모델 보안 강화 🔐

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다. :star_struck:

더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요! :robot:

TLDR-AI 뉴스 레터 썸네일

:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

Google, SynthID 워터마크 출시 / Google Launches The SynthID Watermark (3 minute read)

SynthID 워터마크는 이미지에서는 볼 수 없지만 탐지 도구에서는 쉽게 발견할 수 있도록 만들어져 어떤 이미지가 AI로 생성되었는지 확실하게 알 수 있는 방법을 제공합니다.

The SynthID watermark is meant to be impossible for you to see in an image but easy for the detection tool to spot, providing a reliable way to know which images are AI-generated.

Quora의 Poe, 봇 검색 및 엔터프라이즈 패키지 출시 / Quora’s Poe Launches Bot Search and Enterprise Package (1 minute read)

Quora의 AI 챗봇 제품인 Poe가 사용자 지정 봇을 검색할 수 있는 기능과 프리미엄 요금제를 위한 새로운 엔터프라이즈 티어를 추가하여 업데이트되었습니다.

Quora’s AI chatbot product Poe has been updated with the ability to search for custom bots and a new enterprise tier for its premium plans.

실리콘밸리의 거인들과 싸우는 CoreWeave / CoreWeave Is Battling the Giants of Silicon Valley (7 minute read)

뉴저지에 기반을 둔 스타트업인 CoreWeave는 AI 인프라의 주요 업체로 부상했으며, AI에 필수적인 강력한 GPU 기반 컴퓨팅을 위한 클라우드 서비스를 제공하고 있습니다. 원래 암호 화폐에 손을 댔던 코어위브는 AI로 방향을 선회하여 현재 마이크로소프트, 구글, 아마존과 같은 거대 기술 기업과 경쟁하고 있습니다. 약 20억 달러의 가치를 지닌 이 회사는 최근 상당한 규모의 자금을 확보했으며, 엔비디아 GPU를 재정적 성장을 위한 지렛대로 활용하고 있습니다.

CoreWeave, a New Jersey-based startup, has emerged as a major player in AI infrastructure, offering cloud services for powerful GPU-based computing crucial for AI. Originally dabbling in cryptocurrency, CoreWeave pivoted to AI and now competes with tech giants like Microsoft, Google, and Amazon. The company, valued at around $2 billion, recently secured significant funding and uses its Nvidia GPUs as leverage for financial growth.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

적응형 컴퓨팅 분야의 읽기 목록 / Adaptive computation reading list (17 minute read)

적응형 계산은 모델이 주어진 작업에 사용할 계산의 양(예: 사용할 매개변수 수)을 선택할 수 있다는 개념입니다. 여기에는 검색 기반 샘플링 방법이나 전문가 모델의 혼합(MoE; Mixture-of-Expert)이 포함될 수 있습니다. 이 읽기 목록은 적극적으로 유지 관리되며 매우 철저합니다.

Adaptive computation is the idea that a model can choose how much computation (e.g. how many parameters to use) to use for a given task. These can include search-based sampling methods or mixture of expert models. This reading list is actively maintained and extremely thorough.

LangFuse (GitHub Repo)

Langfuse는 LLM 기반 애플리케이션을 위한 오픈소스 통합 가시성 및 분석 솔루션입니다. 주로 프로덕션 용도에 맞춰져 있지만 일부 사용자는 LLM 애플리케이션의 로컬 개발에도 사용합니다.

Langfuse is an open source observability & analytics solution for LLM-based applications. It is mostly geared towards production usage but some users also use it for local development of their LLM applications.

(더 읽어보기 :point_right: 🪢 Langfuse: LLM 기반 어플리케이션 관측 및 분석을 위한 오픈소스 도구)

DSPy (GitHub Repo)

DSPy는 추론 및 도구/검색 보강을 통해 LM을 개선하고 프롬프트 및 미세 조정하는 기술을 통합하며, 이 모든 것이 구성 및 학습하는 최소한의 파이토닉 모듈 세트를 통해 표현됩니다.

DSPy unifies techniques for prompting and fine-tuning LMs as well as improving them with reasoning and tool/retrieval augmentation, all expressed through a minimalistic set of Pythonic modules that compose and learn.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

Fuzzy Metaballs+: 3D 가우시안으로 렌더링하는 유연한 기법 / Flexible techniques for rendering with 3D Gaussian (8 minute read)

휴대폰으로 동영상을 찍고 CPU에서 몇 초만 처리하면 어떤 결과가 나올까요? 이 경우에는 최첨단 형상 재구성이 가능합니다! 가우시안 스플래팅과는 약간 다르지만 동일한 기본 수학을 사용하는 이 기술은 접근 가능한 3D 모양 캡처의 멋진 진전입니다.

What do you get when you take a cell phone video and a few seconds on a CPU? Well, in this case - state of the art shape reconstruction! Slightly different from Gaussian splatting, but using the same fundamental math, this technique is a cool step forward in accessible 3D shape capture.

UniPT: 전이 학습에서 메모리 사용 간소화하기 / Simplifying Memory Use in Transfer Learning (18 minute read)

연구원들은 "범용 병렬 튜닝"(UniPT)이라는 새로운 접근 방식을 통해 전이 학습 방법이 메모리를 덜 사용하도록 하는 방법을 발견했습니다. 이를 통해 일상적인 상황에서 이러한 고급 방법을 더 쉽게 사용할 수 있습니다.

Researchers have found a way to make transfer learning methods use less memory with a new approach called "Universal Parallel Tuning" (UniPT). This makes it easier to use these advanced methods in everyday situations.

DiffSmooth: 확산을 사용하여 모델의 보안 강화 / Enhancing Security in Models Using Diffusion (29 minute read)

연구원들은 "디퓨젼 모델"을 통해 이미 강력하게 학습된 모델을 더욱 강력하게 만들 수 있는지 연구하고 있습니다. 새로운 방법인 "DiffSmooth"는 확산을 사용하여 데이터를 정리한 다음 특수 평활화 프로세스를 사용하여 모델을 더욱 안정적으로 만듭니다.

Researchers are exploring if "diffusion models" can make models that are already trained to be robust even stronger. A new method, "DiffSmooth", cleans up data using diffusion and then uses a special smoothing process to make the models even more reliable.

:gift: 그 외 소식 / Miscellaneous

멀티턴 채팅 모델 선택이 어렵다 / Multi-turn chat models are hard to choose (Hugging Face model)

많은 벤치마크가 언어 모델의 전체 기능을 정확하게 포착하지 못합니다. 안타까운 사실은 모델 평가가 점점 더 분위기에 기반하고 있다는 것입니다. 이 개방형 어시스턴트 모델은 현존하는 최고의 턴 기반 채팅 모델 중 하나라는 것이 커뮤니티의 정서입니다.

Many benchmarks don't accurately capture the full capabilities of language models. The unfortunate truth is model evaluation is increasingly vibes-based. The community sentiment is that this open assistant model is one of the best turn-based chat models available.

Llama 2는 GPT-4만큼 기사 요약에 정확하다 / Llama 2 Is As Accurate At Summarizing Articles As GPT-4 (10 minute read)

라마 2-70b는 GPT-4만큼 사실 정확도가 높고, gpt-3.5 터보보다 훨씬 저렴하면서도 훨씬 더 나은 것으로 밝혀졌습니다.

Llama-2-70b has been found to be almost as strong at factuality as GPT-4, and considerably better than gpt-3.5-turbo, all while being significantly cheaper.

(더 읽어보기 :point_right: [GN] Llama2가 요약에 있어 GPT-4만큼 정확하며 30배 더 저렴)

교육 분야의 AI / AI in Education (16 minute read)

이 문서에서는 맞춤형 튜터링, 적응형 수업, 행정 지원을 통해 교육을 혁신할 수 있는 ChatGPT와 같은 생성형 AI 모델의 잠재력에 대해 살펴봅니다. 교육과 정책에 대한 시사점을 논의하지만, 이점을 극대화하고 위험을 제한하기 위해 사람의 감독이 필요함을 강조합니다.

This article explores the potential of generative AI models like ChatGPT to transform education through customized tutoring, adaptive lessons, and administrative support. It discusses implications for teaching and policy but stresses the need for human oversight to maximize benefits and limit risks.

:zap: 더 읽어보기 / Quick Links

아마존, YC 스타트업 Fig 인수 (3분) / Amazon acquires YC startup Fig (3 minute)

Fig는 YC, General Catalyst 및 여러 엔젤 투자자로부터 2 백만 달러의 벤처 자금을 모금했습니다. 아마존이 이번 인수로 큰돈을 벌었을 것 같지는 않지만, 다른 AI 회사가 성장 초기에 대기업에 인수되는 것은 흥미로운 일입니다.

Fig has raised $2m in venture dollars from YC, General Catalyst, and a host of angel investors. It’s unlikely Amazon broke the bank making this acquisition, but it’s interesting to see another AI company get acquired so early on in its journey by a larger company.

AI에 대한 비관적 전망 / A pessimistic view on AI (3 minute read)

현재 AI에 대한 비관적인 견해와 AI로 인해 변화된 미래 세계에 대한 비관적인 견해.

A pessimistic view both on the current AI moment and the future world once changed by AI.

Gamma (Product)

Gamma는 AI를 사용하여 1분 이내에 프레젠테이션, 문서 또는 웹페이지를 생성합니다.

Gamma uses AI to generate a working presentation, document, or webpage in under a minute.

Mine My Reviews (Product)

마이 리뷰는 AI를 사용하여 고객의 리뷰와 추천글에서 인사이트를 수집합니다.

Mine My Reviews uses AI to glean insights from your customer’s reviews and testimonials.