[TLDR] 오늘의 AI 뉴스, 2023-05-23: OpenAI의 초지능 거버넌스🏛️, Apple - ChatGPT 사용 제한🍎, 강화 학습으로 디퓨전 모델 학습🦾

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다. :star_struck:

더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으시면 파이토치 한국 사용자 모임에 방문해주세요! :robot:

TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

OpenAI의 초지능 거버넌스 / Governance Of Superintelligence (3 minute read)

OpenAI는 AI 시스템이 10년 이내에 대부분의 영역에서 전문가 기술을 능가할 수 있을 것으로 예측합니다. 이를 관리하기 위해 AI 개발의 글로벌 조정, 초지능에 대한 국제적 권위, 초지능을 안전하게 만들기 위한 연구 등 세 가지 전략을 제안합니다. OpenAI는 소규모 AI 개발을 지원하면서 강력한 시스템에 대한 공공의 감독을 강조합니다. 이들은 위험에도 불구하고 초지능은 피할 수 없는 것이며 세상을 크게 개선할 수 있다고 믿습니다.

OpenAI predicts AI systems could surpass expert skills in most domains within a decade. To manage this, they propose three strategies: global coordination of AI development, an international authority for superintelligence, and research into making superintelligence safe. While supporting smaller-scale AI development, OpenAI emphasizes public oversight for powerful systems. Despite risks, they believe superintelligence is inevitable and can significantly improve the world.

인텔, Aurora GenAI 발표 / Intel announces Aurora GenAI (2 minute read)

인텔은 1조 개에 달하는 방대한 매개변수를 자랑하는 ChatGPT와 같은 AI 모델의 경쟁자인 Aurora GenAI를 발표했습니다. 복잡한 작업을 겨냥한 이 모델은 향상된 대화, 번역, 요약 및 코딩 능력을 약속합니다. 이 모델은 학계 및 연구 기관과의 협업을 통한 인텔의 거대한 AI 전략의 일부입니다.

Intel has announced Aurora GenAI, its competitor to AI models like ChatGPT, boasting a massive 1 trillion parameters. Aimed at complex tasks, the model promises enhanced conversation, translation, summarization, and coding abilities. It's part of Intel's grand AI strategy, with collaborations from academic and research institutions.

Apple, 직원들의 ChatGPT 사용 제한 / Apple restricts use of OpenAI's ChatGPT for employees (1 minute read)

월스트리트 저널에 따르면 애플은 데이터 보안 및 유출에 대한 우려로 인해 직원들의 ChatGPT 및 깃허브의 코파일럿과 같은 외부 AI 도구 사용을 제한한 것으로 알려졌습니다. 이러한 조치는 챗봇 데이터 관리, 특히 사용자 데이터가 AI 알고리즘을 개선하는 데 사용되는 방식에 대한 조사가 강화되는 가운데 나온 것입니다. OpenAI는 최근 이러한 개인 정보 보호 문제를 해결하기 위해 ChatGPT의 '시크릿 모드'를 발표하고 iOS용 ChatGPT 앱을 출시했습니다.

Apple has reportedly limited its employees' use of external AI tools such as ChatGPT and GitHub's Copilot due to concerns over data security and leaks, according to the Wall Street Journal. This move comes amidst growing scrutiny over chatbot data management, specifically how user data is used to improve AI algorithms. OpenAI recently announced an "incognito mode" for ChatGPT to address these privacy concerns, as well as launching a ChatGPT app for iOS.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

Meta, 1100개 이상의 언어를 지원하는 음성인식 모델 공개 / Meta’s Voice Recognition for 1100+ languages (4 minute read)

메타의 연구자들은 대규모 다국어 음성(MMS)이라는 프로젝트를 통해 기계가 수천 개의 언어를 이해하고 말하는 방법을 가르치는 데 획기적인 발전을 이루었습니다. 자가 학습 시스템과 1,100개 이상의 언어 데이터베이스를 사용하는 이 기술은 정보 접근성을 높이고 사라질 위험에 처한 많은 언어를 보존하는 것을 목표로 합니다.

Meta scientists have made a breakthrough in teaching machines how to understand and speak thousands of languages, thanks to a project called Massively Multilingual Speech (MMS). The technology, which uses a self-learning system and a database of over 1,100 languages, aims to make information more accessible and help preserve many languages that are at risk of disappearing.

CoDi: 컴포저블 디퓨전을 통한 Any-to-Any 생성 / CoDi: Any-to-Any Generation via Composable Diffusion (3 minute read)

저자들은 입력의 조합에 따라 언어, 이미지, 비디오 또는 오디오와 같은 모든 유형의 출력물을 생성할 수 있는 고유한 AI 모델인 컴포저블 디퓨전(CoDi)을 소개하며, 이는 기존 AI 시스템과 차별화되는 특징이라고 설명합니다. 많은 입출력 조합에 대한 학습 데이터가 부족함에도 불구하고 CoDi는 입력 및 출력 영역 모두에서 모달리티를 정렬하여 원래 학습 데이터에 포함되지 않은 경우에도 상호 연결된 모드를 동시에 생성할 수 있도록 함으로써 그 격차를 성공적으로 해소합니다.

The authors introduce Composable Diffusion (CoDi), a unique AI model that can generate any mix of output types - like language, images, video, or audio - based on any combination of inputs, which sets it apart from traditional AI systems. Despite the lack of training data for many input-output combinations, CoDi successfully bridges the gap by aligning modalities in both input and output areas, allowing for simultaneous generation of interconnected modes, even when they were not part of the original training data.

GPT-JSON (GitHub Repo)

GPT-JSON은 예상 출력 형식을 선언적으로 정의할 수 있는 GPT 래퍼(wrapper)입니다. 스키마를 설정하고 프롬프트를 작성하면 결과를 유형 힌트가 있는 아름다운 객체를 반환합니다.

GPT-JSON is a wrapper around GPT that allows for declarative definition of expected output format. Set up a schema, write a prompt, and get results back as beautiful typehinted objects.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

CRITIC: 스스로 수정하는 AI 언어 모델을 위한 새로운 프레임워크 / CRITIC: A New Framework for Self-Correcting AI Language Models (24 minute read)

연구원들은 사실 확인 또는 디버깅 도구를 사용하여 대규모 언어 모델(LLM)이 인간과 유사한 방식으로 자신의 결과물을 검증하고 개선할 수 있는 CRITIC이라는 시스템을 도입했습니다. 이 프로세스는 모델이 초기 출력을 생성하고 도구와 상호 작용하여 평가한 다음 받은 피드백에 따라 출력을 수정하는 과정을 포함하며, 이 프로세스는 질문 답변, 프로그램 합성, 독성 감소 등의 영역에서 LLM의 성능을 향상시키는 것으로 입증되었습니다.

Researchers have introduced a system named CRITIC, which allows large language models (LLMs) to validate and improve their own outputs in a way similar to humans using tools for fact-checking or debugging. The process involves the model producing an initial output, interacting with tools to evaluate it, and then revising the output based on the feedback received, which has been proven to enhance the performance of LLMs in areas like question answering, program synthesis, and reducing toxicity.

강화학습(RL)으로 디퓨전 모델 훈련하기 / Train diffusion models with RL (4 minute read)

강화 학습은 최근 사람의 피드백에 초점을 맞춘 많은 연구와 함께 각광을 받고 있습니다. 계산 피드백을 보상 모델로 사용할 수도 있다는 것이 밝혀졌습니다. 이 연구에서는 LLaVA 시각적 질문 답변 시스템을 사용하여 다양한 과제에 대해 버트 점수를 부여합니다. 흥미롭게도 그들은 기본 확산 모델의 성능을 크게 향상시킬 수 있었습니다.

Reinforcement learning has been getting its day in the sun recently with a lot of work focusing on human feedback. It turns out that you can also use computational feedback as a reward model. And this work they use the LLaVA visual question answering system to give them a bert score for a number of different tasks. Interestingly they're able to dramatically improve the performance of a base diffusion model.

RLHF는 정렬을 하기 위한 마술 지팡이가 아니다 / RLHF is not a magic wand for alignment (12 minute read)

무언가를 인간의 가치에 맞춘다는 것은 어떤 의미일까요? 광범위한 인간의 가치와 같은 것이 있을까요? 이 멋진 포스팅에서는 RL을 사용하여 모델을 정렬하는 아이디어를 살펴봅니다. 커뮤니티에서는 정렬이 잘 정의되어 있지 않기 때문에 인간의 피드백을 생성하는 데 사용되는 코호트를 재현할 수 없으며, 이러한 모델이 어느 정도 실질적으로 결합되어 RL을 통한 정렬을 의미한다는 사실이 우리가 생각하는 것보다 더 어려울 수 있다는 생각이 있습니다.

What does it even mean to align something to human values? Is there such a thing as broad human values? This great post explores the ideas of using RL to align models. There is this idea in the community that since alignment isn’t well defined, the cohorts used to generate human feedback aren’t reproducible, and the fact that these models change somewhat substantially combine to mean alignment via RL might be harder than the hype leads us to believe.

:gift: 그 외 소식 / Miscellaneous

AI 홍수 예보, 전 세계로 확대 / AI Flood Forecasting Goes Global (2 minute read)

Google은 홍수 예측을 개선하기 위해 AI를 사용하고 있습니다. 다양한 데이터 소스를 통합하여 Google의 모델은 홍수 발생과 그 심각성을 예측할 수 있습니다. 이 조기 경보 시스템은 지역 사회가 홍수에 대비하고 잠재적으로 생명을 구하는 데 도움이 됩니다.

Google is using AI to enhance flood forecasting. By integrating various data sources, Google's model can predict flood events and their severity. This early warning system helps communities prepare and potentially save lives.

하드웨어 설계를 위한 AI / AI For Hardware Design (5 minute read)

Flux.ai 튜토리얼은 AI를 하드웨어 설계에 적용하는 방법을 소개하며 효율성, 정확성, 혁신 개선 등 설계 프로세스에 AI를 통합할 때 얻을 수 있는 잠재적 이점을 설명하고 이러한 기술을 구현하기 위한 실용적인 가이드를 제공합니다.

The Flux.ai tutorial introduces how AI can be applied to hardware design, outlining the potential benefits of integrating AI into the design process such as improved efficiency, accuracy, and innovation, while also providing a practical guide for implementing these technologies.

내 편집 업무를 대신하는 AI / AI Took My Editing Job (5 minute read)

작가들은 AI 글쓰기 봇의 등장으로 수익성 높은 고객을 잃었습니다. 이러한 좌절에도 불구하고 작가는 이를 새로운 모험을 추구하고, 독자와 개인적으로 소통할 수 있는 기회로 보고 있습니다. 대부분의 사람들은 새로운 AI 세계에서 자신을 재발명해야 할 것입니다.

The author lost a profitable client due to the rise of AI writing bots. Despite the setback, the author sees it as an opportunity to pursue new ventures and connect with readers on a personal level. Most people will have to reinvent themselves in the new world of AI.

:zap: 더 읽어보기 / Quick Links

AI 펜타곤 사기극 / AI Pentagon Hoax Goes Viral (2 minute read)

폭발로 인해 펜타곤이 파괴되는 모습을 담은 가짜 동영상이 온라인에 등장했는데, 이 동영상은 BigGAN이라는 AI 모델로 제작되었습니다. 사실적으로 보였지만 시청자들은 금방 불일치하는 부분을 발견했고, 이는 AI 기반 딥페이크에 대한 우려가 커지고 있으며 공포나 잘못된 정보를 조장할 수 있다는 점을 강조했습니다.

A phony video surfaced online portraying the Pentagon being destroyed by an explosion, created with an AI model called BigGAN. Despite appearing realistic, viewers quickly spotted inconsistencies, highlighting the growing concern over AI-enabled deepfakes and their potential to incite panic or misinformation.

Apple의 AI 세금 / Apple’s AI Tax (2 minute read)

애플은 모든 앱스토어 인앱 구매의 30%를 세금으로 징수하여 수억 달러를 벌어들일 것으로 예상됩니다.

Apple stands to make hundreds of millions from their 30% cut of all App Store in-app purchases.

팔란티어의 군사용 AI에 대한 "전례 없는" 수요 / Palantir Is Seeing “Unprecedented” Demand For Its Military AI (2 minute read)

피터 틸이 공동 설립한 데이터 분석 회사 팔란티어는 이번 달에 일부 고객에게 첫 번째 버전이 출시될 군용 인공 지능 플랫폼에 대한 "전례 없는" 수요를 목격하고 있습니다.

Palantir, the data analysis firm co-founded by Peter Thiel, is seeing “unprecedented” demand for its military artificial intelligence platform, the first version of which will roll out to some customers this month.

Zeda.io 2.0 (Product Launch)

Zeda.io는 제품 팀이 고객에게 중요한 문제를 발견하고, 다음에 무엇을 구축할지 결정하며, 성과를 창출하기 위한 전략을 수립할 수 있도록 지원하는 AI 기반 제품 검색 및 전략 플랫폼입니다.

Zeda.io is an AI-powered product discovery and strategy platform that helps product teams uncover problems that matter to customers, decide what to build next, and create strategies to drive outcomes.