[TLDR] 오늘의 AI 뉴스, 2023-05-30: 엔비디아의 새로운 AI 제품🆕, AI 제품 군비 경쟁🚀, 사실 확인 LLM🤥

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다. :star_struck:

더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으시면 파이토치 한국 사용자 모임에 방문해주세요! :robot:

TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

Barkour: 구글의 4족 로봇용 민첩성 테스트 / Barkour: Google's 4 legged agility test (12 minute read)

벤치마크는 표준화된 방식으로 다양한 기술의 성능을 측정하는 데 사용됩니다. 4족 보행 로봇 모션은 활발한 연구 분야이지만 평가 환경의 차이로 인해 많은 진전을 측정하기 어렵습니다. 구글은 자체적으로 민첩성 테스트를 발표하고 그 유용성을 선보이고 있습니다.

Benchmarks are used to measure performance of various techniques in a standardized way. 4 legged robotic motion is an active area of research, but a lot of progress is hard to measure due to dissimilarities in evaluation environments. Google has presented an agility test for their own work and are now showcasing its usefulness.

엔비디아, 더 많은 AI 제품 공개 / Nvidia Unveils More AI Products (2 minute read)

엔비디아의 CEO인 젠슨 황은 최근 새로운 슈퍼컴퓨터를 포함하여 인공지능과 관련된 새로운 제품과 서비스를 공개하며, 자신의 회사를 세계에서 가장 가치 있는 칩 제조업체로 만든 열풍을 활용하기 위해 노력하고 있습니다.

Nvidia CEO Jensen Huang recently unveiled a new batch of products and services tied to artificial intelligence, including a new supercomputer, looking to capitalize on a frenzy that has made his company the world’s most valuable chipmaker.

세계 최대 광고 대행사 WPP, 엔비디아의 도움으로 AI에 올인 / The world’s biggest ad agency is going all in on AI with Nvidia’s help (4 minute read)

세계 최대 광고 에이전시인 WPP는 엔비디아와 협력하여 개인화되고 확장 가능한 광고를 제작하기 위해 생성형 AI를 사용하고 있습니다. 이 플랫폼은 다양한 소스의 콘텐츠를 결합하여 적응력이 뛰어난 광고 캠페인을 효율적으로 제작할 수 있습니다. 이러한 움직임은 광고 업계에서 잠재적인 일자리 대체에 대한 우려를 불러일으키고 있습니다.

WPP, the world's largest advertising agency, is teaming up with Nvidia to use generative AI for creating personalized, scalable ads. The platform combines content from various sources, allowing for efficient production of highly adaptable advertising campaigns. The move has stirred concerns over potential job displacement in the advertising industry.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

Docta (GitHub Repo)

Docta는 데이터의 문제를 감지하고 수정하기 위한 포괄적인 서비스를 제공하는 고급 데이터 중심 AI 플랫폼입니다.

Docta is an advanced data-centric AI platform that offers a comprehensive range of services aimed at detecting and rectifying issues in your data.

니치 모델이 여전히 일반 모델을 능가하는 성능 / Niche models still outperform generalist ones (GitHub Repo)

고닷 엔진은 오픈 소스 게임 엔진입니다. 사용자가 게임 상호작용을 코딩할 수 있는 커스텀 스크립팅 언어가 있습니다. 제너럴리스트 모델은 이 언어로 작업할 때 잘 작동하지 않습니다. 이 저장소에서는 고품질의 '지침들(instructs)'에 따라 오픈 모델을 미세 조정하는 방법을 보여줍니다. 이 튜닝을 통해 스타코더와 다른 모델이 GPT4의 성능을 크게 향상시킬 수 있습니다.

The Godot engine is an open source game engine. It has a custom scripting language that allows users to code up gaming interactions. Generalist models don’t do super well when working with this language. This repository shows how to fine-tune open models on high quality instructions. This tuning let's star coders and other models dramatically outperform GPT4.

Sophia (GitHub Repo)

공식 구현된 "Sophia: 언어 모델 사전 학습을 위한 확장 가능한 확률론적 2차 최적화 도구"의 공식 구현

The official implementation of “Sophia: A Scalable Stochastic Second-order Optimizer for Language Model Pre-training”

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

언어 모델에서 사실 오류를 잡아내는 프레임워크 / A Framework to Catch Factual Errors in Language Models (20 minute read)

이 연구는 교차 심문으로 알려진 법의 진실 추구 과정에서 영감을 얻은 방법을 사용하여 인공지능 또는 언어 모델에서 생성된 텍스트의 사실 오류를 자동으로 감지하는 새로운 방법을 제시합니다. 이 접근 방식은 두 모델이 상호 작용하고 한 모델이 질문을 통해 다른 모델의 주장을 확인하는 방식으로, 기존 방법보다 오류를 훨씬 더 효과적으로 잡아내어 인공지능이 생성한 텍스트의 정확성을 향상시킬 수 있는 가능성을 보여줍니다.

This study presents a new way to automatically detect factual errors in text generated by artificial intelligence, or language models, by using a method inspired by truth-seeking processes in law known as cross-examination. The approach involves having two models interact, with one checking the claims made by the other through questions, proving significantly more effective in catching errors than existing methods, demonstrating the potential for improving the accuracy of AI-generated text.

대규모 언어 모델이 상충되는 외부 정보에 반응하는 방법 / How Large Language Models React to Conflicting External Information (22 minute read)

이 연구는 인간과 유사한 텍스트를 생성하는 AI인 대규모 언어 모델(LLM)이 '알고 있는 것'과 모순되는 새로운 정보가 주어졌을 때 어떻게 반응하는지를 탐구합니다. 연구 결과, 이러한 모델은 일관성 있고 설득력 있는 정보라면 새로운 정보를 매우 잘 받아들일 수 있지만, 새로운 데이터에 기존 '지식'과 일치하는 요소가 포함되어 있으면 기존 '지식'을 확인하는 경향이 있으며, 이러한 행동은 확증 편향(confirmation bias)으로 알려져 있습니다. 이러한 연구 결과는 증강 학습 모델을 더욱 개선하고 적용하는 데 중요합니다.

This study explores how large language models (LLMs), or AI that generates human-like text, respond when given new information that contradicts what they 'know'. Our research found that these models can be very receptive to the new information, provided it's coherent and convincing, but they also tend to confirm their existing 'knowledge' if the new data contains any elements that agree with it, a behavior known as confirmation bias. These findings are important for further improvements and applications of augmented LLMs.

대규모 언어 모델을 사실 기반으로 유지하기 위해 'According-to' 프롬프트 사용 / Using 'According-to' Prompts to Keep Large Language Models Fact-Based (13 minute read)

이 연구에서는 이전에 본 텍스트를 기반으로 응답하도록 지시하여 AI가 가짜 정보를 생성하는 것을 방지하기 위해 '에 따라' 프롬프트라는 새로운 접근 방식을 제안합니다. AI의 응답이 학습 데이터에서 얼마나 직접적으로 나오는지를 측정하는 새로운 평가 점수(QUIP-Score)를 도입하고, 이러한 프롬프트가 AI가 보다 사실적인 상태를 유지하는 데 도움이 되며, 주어진 작업에서 종종 성능을 향상시키는 추가적인 이점을 제공한다는 것을 보여줍니다.

This research proposes a new approach, called "according-to" prompting, to prevent AI from generating fake information by directing them to base their responses on previously seen text. We introduce a new evaluation score (QUIP-Score) that measures how much the AI's responses come directly from its training data, and show that these prompts help the AI stay more factual, with the added benefit of often improving its performance in given tasks.

:gift: 그 외 소식 / Miscellaneous

사만다와 만나기 / Meet Samantha (6 minute read)

언어 모델에는 에이전트를 모방하는 기묘한 능력이 있습니다. 즉, 페르소나를 맡도록 요청할 수 있습니다. 약간의 신중한 구성을 통해 이 페르소나를 다른 모델이 사용할 수 있도록 훈련 데이터 세트로 추출할 수 있습니다. 이 경우 GPT4가 사만다로 증류되었는데, 그 과정을 위한 프롬프트 구성이 흥미롭습니다.

Language models have an odd ability to imitate agents. This means you can ask them to take on a persona. With some careful construction, you can distill this persona into a training data set for another model to use. In this case, GPT4 was distilled into Samantha - the prompt construction for that process is interesting.

100TB GPU 출시 / 100 terabyte GPU system (6 minute read)

새로운 DGX가 출시되었습니다! 노드 간 NVLink는 256개의 Grace CPU(각각 480GB의 LPDDR5)와 256개의 Hopper GPU(각각 96GB의 HBM3)로 구성된 시스템을 생성합니다. 각 GPU는 900Gbps로 다른 GPU 또는 CPU의 메모리에 직접 액세스할 수 있습니다. 이는 모델 트레이닝을 위한 놀라운 시스템으로 이어집니다.

The new DGX is here! NVLink between nodes creates a system with 256 Grace CPUs (each with 480GB of LPDDR5) and 256 Hopper GPUs (each with 96GB of HBM3). Each GPU can directly access the memory of any other GPU or CPU at 900 Gbps. This leads to an amazing system for training models.

AI 제품 군비 경쟁에서 승리하기 / Winning The AI Products Arm Race (17 minute read)

사람들이 실제로 사용하는 AI 제품을 만들기 위한 전체 가이드로, 많은 AI 제품이 실패하는 이유와 AI의 단점을 극복하는 방법 등 주요 질문에 대한 답변이 포함되어 있습니다.

A full guide to creating AI products that people actually use, with key questions answered including why so many AI products fail and how to overcome the disadvantages of AI.

:zap: 더 읽어보기 / Quick Links

미디어가 ChatGPT를 다루는 방법 / How The Media Is Covering ChatGPT (5 minute read)

이 기사는 OpenAI에서 개발한 대규모 언어 모델 챗봇인 ChatGPT에 대한 언론 보도에 대해 설명합니다. 이 기사에서는 ChatGPT에 대한 언론의 보도가 대체로 긍정적이었으며, 챗봇이 인간 수준의 텍스트를 생성하는 능력에 대해 찬사를 보냈다고 주장합니다. 그러나 이 기사에서는 일부 전문가들이 잘못된 정보를 퍼뜨리거나 유해한 콘텐츠를 생성하는 데 ChatGPT가 사용될 가능성에 대해 우려를 표명하고 있다고 지적하고 있습니다.

The article discusses the media coverage of ChatGPT, a large language model chatbot developed by OpenAI. The article argues that the media coverage of ChatGPT has been largely positive, and that the chatbot has been praised for its ability to generate human-quality text. However, the article also notes that some experts have expressed concerns about the potential for ChatGPT to be used to spread misinformation or to create harmful content.

Dreamore AI (Product Launch)

잠재의식을 해석하고 그림을 그리는 앱인 Dreamore로 꿈을 실현하세요. 프로이트와 시바 경과 같은 다양한 꿈 해석자 중에서 선택할 수 있습니다.

Bring your dreams to life with Dreamore, the app that interprets and paints your subconscious thoughts. You can choose from different dream interpreters, such as Freud and Lord Shiva.

AI는 이미 기능성 음악을 만들고 있다 / AI Is Already Making Functional Music (2 minute read)

UMG는 Endel이라는 AI 스타트업과 협력하여 아티스트의 음악을 청취자의 수면, 집중력 향상 등에 도움이 되는 "사운드스케이프"로 전환했습니다. 엔델은 AI를 사용하여 사용자의 환경과 선호도를 분석하여 개인화된 사운드스케이프를 생성합니다. 사운드스케이프는 사용자가 긴장을 풀고 집중하거나 수면을 취할 수 있도록 설계되었습니다.

UMG has teamed up with an AI startup called Endel to turn its artists' music into “soundscapes” designed to help listeners sleep, focus, and more. Endel uses AI to analyze a user's environment and preferences to create a personalized soundscape. The soundscapes are designed to help users relax, focus, or sleep.

AI, 마비된 사람도 마음으로 글을 쓸 수 있게 하다 / AI Allows Paralyzed Person To Write With His Mind (1 minute read)

이 시스템은 뇌에 이식된 전극을 사용하여 손의 움직임을 상상하는 것과 관련된 뇌 활동을 감지합니다. 그런 다음이 활동을 사용하여 컴퓨터 화면의 커서를 제어하여 텍스트를 작성하는 데 사용할 수 있습니다. 이 시스템은 몇몇 마비 환자들을 대상으로 테스트되었으며, 분당 최대 66자의 속도로 글을 쓸 수 있도록 도와주었습니다.

The system uses electrodes implanted in the brain to detect brain activity related to imagining hand movements. This activity is then used to control a cursor on a computer screen, which can be used to write text. The system has been tested with a few paralyzed people, and it has been able to help them write at speeds of up to 66 characters per minute.