파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다.
더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요!
주요 뉴스 & 신규 출시 소식 / Headlines & Launches
Apple, 'Apple GPT' 테스트 중 - OpenAI를 잡기 위한 생성형 AI 도구 개발 / Apple Tests ‘Apple GPT,’ Develops Generative AI Tools to Catch OpenAI (9 minute read)
Apple은 대규모 언어 모델 분야에서 경쟁하기 위한 노력의 일환으로 AI 프레임워크인 Ajax와 챗봇 서비스인 Apple GPT를 만들고 있습니다. Apple의 AI 노력은 아직 실험 단계이지만 내부자들은 내년에 중요한 발표가 있을 것으로 예상하고 있습니다.
Apple is creating an AI framework, Ajax, and a chatbot service, Apple GPT, as part of its push to compete in the large language model space. While Apple's AI efforts are still experimental, insiders anticipate a significant announcement next year.
Keras Core가 출시되었습니다! / Keras Core is out! (5 minute read)
케라스 코어는 2023년 가을에 출시될 케라스 3.0의 미리 보기 역할을 합니다. Keras 코드베이스를 완전히 재구상한 Keras Core는 모듈식 백엔드 아키텍처를 기반으로 구축되어, 처음에는 TensorFlow, JAX, PyTorch를 포함한 모든 프레임워크에서 Keras 워크플로우를 작동할 수 있습니다.
Keras Core serves as a preview of what's coming in Keras 3.0 in Fall 2023. Keras Core, a complete reimagining of the Keras codebase, is built upon a modular backend architecture, allowing Keras workflows to operate on any framework, initially including TensorFlow, JAX, and PyTorch.
Llama 2가 진짜배기고 RLHF가 핵심 / Llama 2 is the real deal and RLHF was key (12 minute read)
학습 말뭉치를 두 배로 늘린 것도 분명 도움이 되었지만, Meta의 직원들은 보상 모델과 RLHF 프로세스가 Llama 2의 출시에 안전하고 유용한 모델을 얻는 데 핵심적이었다고 말합니다. 기술 논문 전문을 읽을 시간이 없었다면, 이 포스팅에서 HuggingFace의 RLHF 책임자가 핵심 아이디어를 요약한 글을 읽어보세요.
While doubling the training corpus certainly helped, folks at Meta claim the reward model and RLHF process was key to getting a safe and useful model for Llama 2's release. If you didn't have time to read the full technical paper, this post is an excellent summary of key ideas from the head of RLHF at HuggingFace.
연구 & 혁신 관련 소식 / Research & Innovation
RepViT: 이미지 인식을 위한 효율적인 아키텍처 / RepViT: An Efficient Architecture for Image Recognition (GitHub Repo)
연구원들은 경량 비전 트랜스포머와 기존 컨볼루션 신경망의 효율적인 설계 요소를 결합하여 RepViT라는 새로운 종류의 경량 신경망을 개발했습니다.
Researchers have developed a new kind of lightweight neural network called RepViT by combining the efficient design elements of lightweight Vision Transformers and traditional Convolutional Neural Networks.
ARCTIC : 손 물체 접촉 추정을 위한 인상적인 데이터셋 / Impressive dataset for hand object contact estimation (GitHub Repo)
손이 물체와 접촉하는 시점을 추정하는 것은 AR/VR 및 로봇공학의 핵심 과제입니다. 딥러닝에서는 데이터가 가장 중요합니다. 이 새로운 대규모 데이터셋에는 손 재구성, 합성 물체 모션 등과 같은 다양한 작업을 위한 수백만 개의 주석이 달린 프레임이 포함되어 있습니다.
Estimating when hands come into contact with an object is a key challenge for AR/VR and robotics. In deep learning, data is queen. This new large scale dataset contains millions of annotated frames for a variety of tasks such as hand reconstruction, synthetic object motion, and more.
OnlineRefer: 비디오 오브젝트 세분화 / Referring Video Object Segmentation (GitHub Repo)
이 저장소에서는 사람의 지시에 따라 비디오에서 객체를 식별하고 세그먼트화하는 기술인 비디오 객체 세그먼테이션을 참조하기 위한 효율적인 온라인 모델인 OnlineRefer를 소개합니다.
This repository introduces an efficient online model, OnlineRefer, for Referring Video Object Segmentation, a technique that identifies and segments an object in a video based on human instruction.
엔지니어링 및 리소스 관련 소식 / Engineering & Resources
GPT-4의 흔들리는 마음 이해하기 / Understanding the Changing Minds of GPT-4 (14 minute read)
이 연구에서는 널리 사용되는 인공지능 언어 모델인 GPT-3.5와 GPT-4의 업데이트가 수학 문제 해결, 까다로운 질문 답하기, 코드 작성, 시각적 사고와 같은 작업에서 어떻게 성능을 변화시킬 수 있는지 살펴봅니다.
This study looks at how updates to popular artificial intelligence language models GPT-3.5 and GPT-4 can change their performance in tasks like math problem-solving, answering tricky questions, writing code, and visual thinking.
SHARCS: 멀티모달 학습을 위한 새로운 방법 / A New Method for Multimodal Learning (19 minute read)
이 논문의 저자들은 텍스트, 그림, 소리 등 다양한 유형의 데이터를 한 번에 학습하는 시스템인 SHARCS를 제안합니다. 이 시스템은 다양한 데이터 유형에서 공통된 개념을 찾아 이해하기 쉬운 방식으로 서로 연결하여 예측을 개선하고 누락된 데이터를 찾는 데 도움이 될 수 있습니다.
The authors of this paper propose SHARCS, a system that learns from different types of data at once, like text, pictures, and sounds. It works by finding common concepts in these different data types and linking them together in a way that's easy to understand, which can help improve predictions and find missing data.
SAM-PT: 비디오 객체 추적: 포인트 기반 세분화 접근법 / Video Object Tracking: A Point-Based Segmentation Approach (4 minute read)
이 연구에서는 세그먼트 애니씽 모델(SAM)을 활용하여 동영상에서 객체의 추적 및 세그먼테이션을 개선하는 새로운 시스템인 SAM-PT를 소개합니다. SAM-PT는 여러 비디오 세분화 벤치마크에서 우수한 성능을 제공합니다.
This study introduces SAM-PT, a new system that leverages the Segment Anything Model (SAM) to improve tracking and segmentation of objects in videos. SAM-PT offers superior performance across several video segmentation benchmarks.
그 외 소식 / Miscellaneous
컴퓨터로 만든 데이터를 AI 모델 학습에 사용하는 이유 / Why Computer-Made Data Is Being Used To Train AI Models (4 minute read)
인공지능 회사들은 강력한 생성 모델을 개발하는 데 필요한 방대한 양의 데이터를 확보하기 위해 처음부터 정보를 생성하는 새로운 방법을 모색하고 있습니다.
Artificial intelligence companies are exploring a new avenue to obtain the massive amounts of data needed to develop powerful generative models: creating the information from scratch.
AI 실존적 위험에 대한 환상 / The Illusion Of AI Existential Risk (12 minute read)
인간을 멸종시킬 수 있는 AI 시스템은 만들어질 가능성이 낮고, 만들어지더라도 그 계획을 실행할 수 없을 가능성이 높기 때문에 AI로 인한 인간 멸종 위험은 과장된 것입니다.
The risk of human extinction from AI is overstated, as AI systems that are capable of causing human extinction are unlikely to be created, and even if they were created, they are unlikely to be able to carry out their plans.
우리 모두가 곧 답해야 할 소름 끼치는 질문 / A Creepy Question We’ll All Have To Answer Soon (7 minute read)
고통을 느낄 수 있는 기계를 설계할 수 있는 가능성에 대한 탐구.
An exploration into the possibility of designing machines that can feel pain.
더 읽어보기 / Quick Links
메타는 왜 라마2를 오픈소스했을까요? / Why Did Meta Open-Source Llama 2? (2 minute read)
메타가 라마 2를 오픈소스화한 이유는 크게 두 가지입니다. 독점 모델을 보유한 경쟁사의 해자를 줄이고, 메타의 상용 제품을 보완하거나 무료 계층을 제공하기 위해서입니다.
Meta open-sourced Llama 2 for two main reasons: it reduces the moat of competitors who have proprietary models and it provides a free-tier or complement to Meta's own commercial offering.
Superhuman AI (Product Launch)
인기 있는 이메일 클라이언트인 Superhuman은 바쁜 사람들이 이메일을 더 빠르게 작성할 수 있도록 도와주는 AI 기능 모음을 출시했습니다.
The popular email client Superhuman just launched a suite of AI features to help busy people write emails faster.
AI 연구자를 위한 오픈소스 학습 곡선 / The Open Source Learning Curve For AI Researchers (5 minute read)
AI 연구자를 위한 오픈소스 학습 곡선은 가파르지만 보상은 매우 큽니다. 오픈소스를 마스터한 연구자는 자신의 작업을 전 세계와 공유하고, 다른 연구자와 협업하고, 다른 사람의 작업을 기반으로 구축할 수 있습니다. 이는 AI 연구 및 개발의 빠른 진전으로 이어질 수 있습니다.
The open source learning curve for AI researchers is steep, but the rewards are great. Researchers who master open source can share their work with the world, collaborate with other researchers, and build on the work of others. This can lead to faster progress in AI research and development.