[TLDR] 오늘의 AI 뉴스, 2023-06-23: Inflection의 파운데이션 모델 🏗️, 새로운 Stable Diffusion 모델 🖼️, 더 효율적인 ResNet 🌐

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다. :star_struck:

더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요! :robot:

TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

Inflection, It's AI 모델 출시 / Inflection Debuts It’s AI Model (1 minute read)

"모든 사람을 위한 개인용 AI"를 만드는 것을 목표로 하는 AI 스타트업인 Inflection이 Pi 대화 에이전트를 구동하는 대규모 언어 모델을 공개했습니다.

Inflection, an AI startup aiming to create “personal AI for everyone,” has taken the wraps off the large language model powering its Pi conversational agent.

Stability, 새로운 Stable Diffusion 모델 출시 / Stability Debuts New Stable Diffusion Model (1 minute read)

Stability AI는 이전 작업보다 더 사실적인 이미지를 생성하는 새로운 AI 모델을 출시했습니다. SDXL 0.9라고 불리는 이 모델은 텍스트 기반 프롬프트에 응답하여 이미지를 생성할 수 있으며, 이전 모델보다 더 보기 좋고 구도쪽 섬세함이 더 뛰어납니다.

Stability AI has released a new AI model for generating images that it says are more realistic than previous efforts. The model, called SDXL 0.9, can create images in response to text-based prompts that are better looking and have more compositional detail than previous models.

ElevenLabs, 새로운 생성형 음성 AI 제품 출시 및 1,900만 달러 시리즈 A 투자 유치 발표 / ElevenLabs Launches New Generative Voice AI Products and Announces $19m Series A (4 minute read)

음성 기술 연구 회사이자 오디오 AI 소프트웨어 분야의 선두주자인 ElevenLabs는 모든 콘텐츠에 보편적으로 접근할 수 있도록 한다는 사명의 일환으로 음성 AI 연구 및 제품 배포를 지속하기 위해 1,900만 달러 규모의 시리즈 A를 유치했습니다. 이번 투자에는 Nat Friedman, Daniel Gross, Andreessen Horowitz가 주도적으로 참여했습니다. 이 제품은 크리에이티브, 엔터테인먼트, 출판 분야에서 100만 명 이상의 등록 사용자를 유치했습니다.

ElevenLabs, a voice technology research company and leader in audio AI software, has raised a $19m Series A to continue its voice AI research and product deployment - part of its mission to make all content universally accessible. The funding was led by Nat Friedman, Daniel Gross, and Andreessen Horowitz. The product has attracted over 1 million registered users across creative, entertainment, and publishing spaces.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

더 효율적인 ResNet / A More Efficient ResNets (GitHub Repo)

연구원들이 제안한 컴팩트한 ResNet 모델은 더 큰 ResNet18보다 성능이 뛰어나며, 500만 개 미만의 학습 가능한 파라미터를 사용하면서도 CIFAR-10 데이터 세트에서 96.04%의 테스트 정확도를 달성하여 스토리지가 제한된 장치에 이상적입니다.

Researchers proposed a compact ResNet model outperforms the larger ResNet18, reaching 96.04% test accuracy on the CIFAR-10 dataset while using fewer than 5 million trainable parameters, ideal for storage-limited devices.

FastSAM, 세그먼트 애니씽 모델(SAM)의 더 빠른 대안 / A Faster Alternative to the Segment Anything Model (GitHub Repo)

이 저장소는 이미지 분할 및 캡션과 같은 작업을 위해 컴퓨터 비전에서 사용되는 도구인 최근 제안된 SAM(Segment Anything) 모델과 동일한 성능을 발휘하는 빠른 새 방법을 소개합니다. 이 새로운 기법은 인스턴스 분할이라는 보다 표준적인 접근 방식을 사용하여 비슷한 결과를 얻지만 50배 더 빠르므로 더 실용적입니다.

This repo introduces a speedy new method that performs as well as the recently proposed Segment Anything (SAM) model, a tool used in computer vision for tasks like image segmentation and captioning. This new technique uses a more standard approach called instance segmentation, achieving similar results but 50 times faster, making it more practical for real-world use.

Kaguya (GitHub Repo)

제어된 방식으로 로컬 파일을 로드하고 편집할 수 있을 뿐만 아니라 Python, JavaScript 및 bash 스크립트를 실행할 수 있는 ChatGPT 플러그인입니다.

A ChatGPT plugin that allows you to load and edit your local files in a controlled way as well as run any Python, JavaScript, and bash script.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

Tart: LLM의 추론 능력 향상 / Tart: Boosting the Reasoning Abilities of LLMs (25 minute read)

이 연구는 대규모 언어 모델(LLM)이 다양한 작업을 처리할 수 있지만 확률적 추론에 어려움을 겪어 성능이 제한된다는 사실을 밝혀냈습니다. 저자는 일반적인 방식으로 학습된 추론 모듈인 Tart라는 솔루션을 제안하며, 이 솔루션을 기존 모델과 결합하면 다양한 작업과 양식에 걸쳐 추론 능력과 전반적인 성능을 크게 향상시킬 수 있습니다.

This study uncovers that large language models (LLMs) can handle different tasks, but struggle with probabilistic reasoning, which limits their performance. The authors propose a solution named Tart - a reasoning module trained in a generic manner, which, when combined with any pre-existing model, significantly improves its reasoning capabilities and overall performance across various tasks and modalities.

MPT 30B 출시 / MPT 30B released (7 minute read)

MPT는 MosaicML의 언어 모델 시리즈입니다. 7B 모델은 출시 후 단 몇 주 만에 수백만 번 다운로드되었습니다. 다음 모델인 30B는 H100에서 학습되었으며 컨텍스트 길이가 8k입니다. 상업적 사용이 가능하며, 코딩도 가능합니다! 이 모델은 단일 A100에 fp16 / fp8 정밀도로 장착할 수 있습니다.

MPT is a series of language models from MosaicML. Their 7B model has been downloaded millions of times in just a few short weeks since launch. This next model, 30B, was trained on H100s and has an 8k context length. It is commercially licensed and can even code! It fits on a single A100 in fp16 / fp8 precision.

:gift: 그 외 소식 / Miscellaneous

AI를 학습시키기 위해 돈을 받는 사람들이 AI에 아웃소싱하고 있다 / The People Paid To Train AI Are Outsourcing To AI (4 minute read)

인공지능 모델을 학습시키기 위해 돈을 받는 사람들 중 상당수가 그 일을 인공지능에 아웃소싱하고 있을 수 있다는 새로운 연구 결과가 발표되어, 이미 오류가 발생하기 쉬운 이 분야에 더 많은 오류가 발생할 것이라는 우려가 커지고 있습니다.

A significant proportion of people paid to train AI models may be themselves outsourcing that work to AI, a new study has found, stroking fears that further errors will be brought into the already error-prone field.

타임지의 샘 알트먼 인터뷰 / Time Interviews Sam Altman (10 minute read)

AI와 OpenAI에 관한 모든 것에 대한 샘 알트만과의 인터뷰.

An interview with Sam Altman on everything AI and OpenAI.

우리 모두는 AI의 무료 데이터 작업자 / We are all AI’s Free Data Workers (7 minute read)

AI 모델 뒤에 숨어 있는 인간의 노동력은 종종 간과됩니다. AI 응답을 평가하고 개선하는 데이터 어노테이터는 AI 챗봇이 의도한 대로 작동하도록 하기 위해 오랜 시간 일합니다. 에티오피아, 에리트레아, 케냐의 데이터 노동자들은 온라인상의 혐오와 잘못된 정보를 정리하는 데 종종 악용되는 등 이 작업은 잔인하고 화가 날 수 있습니다. 이 노동자들은 이제 더 나은 근무 환경을 위해 노조를 결성하고 있습니다.

The human labor behind AI models is often overlooked. Data annotators, who evaluate and improve AI responses, work long hours to make AI chatbots behave as intended. The work can be brutal and upsetting, with data workers in Ethiopia, Eritrea, and Kenya often exploited to clean up online hate and misinformation. These workers are now unionizing for better working conditions.

:zap: 더 읽어보기 / Quick Links

5월에 생성형 AI 채용 공고 20% 증가 / Generative AI Job Postings Up 20% In May (1 minute read)

지난달 미국의 생성형 AI 관련 채용 공고가 약 20% 증가했습니다.

Generative AI-related job postings in the United States jumped about 20% last month.

FlagAI (GitHub Repo)

FlagAI(빠른 대규모 일반 AI 모델)는 대규모 모델을 위한 빠르고 사용하기 쉬우며 확장 가능한 툴킷입니다.

FlagAI (Fast LArge-scale General AI models) is a fast, easy-to-use, and extensible toolkit for large-scale models.

GPT-4로 생성된 투자 발표는 자금 확보 가능성이 3배 더 높다 / GPT-4 Generated Pitches Are 3x More Likely To Secure Funding (1 minute read)

GPT-4로 생성된 투자자 피치는 사람이 작성한 피치에 비해 펀딩을 확보할 가능성이 3배 더 높습니다.

Investor pitches generated by GPT-4 are 3x more likely to secure funding compared to human-written pitches.

Upword 2.0 (Product Launch)

지식 근로자를 위한 획기적인 온라인 리서치 도구. 주요 기능은 다음과 같습니다: 1. 한 번에 여러 문서 처리 2. AI 리서치 코파일럿(리서치용 ChatGPT) 3. 콘텐츠와 요약을 정리하고, 듣고, 공유하세요.

Game-changing online research tool for knowledge workers. Features include: 1. Process multiple documents at once 2. AI research copilot (ChatGPT for research) 3. Organize your content and summaries, listen, and share.

2개의 좋아요