[TLDR] 오늘의 AI 뉴스, 2023-10-24: 아이폰의 생성형 AI 📱, 파운데이션 모델들의 투명성 지수 ☝️, 멀티턴 대화 LLM 🗣️

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터 의 승인을 받아 AI 소식을 DeepL로 번역 하여 전합니다. :star_struck:
더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요! :robot:
TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

애플, 이르면 iOS 18부터 아이폰에서 생성형 AI 기능으로 ChatGPT를 따를 것이라는 소문 / Apple Rumored to Follow ChatGPT With Generative AI Features on iPhone as Soon as iOS 18 (2 minute read)

Apple은 빠르면 2024년 말부터 iOS에 생성형 AI 기술을 구현할 계획입니다. 향후 2년 동안 수백 대의 AI 서버를 구축할 것으로 보입니다. 아마도 클라우드 기반과 온디바이스 AI의 조합을 제공할 것입니다. 이 시기는 iOS 18의 출시와 일치하는 것으로 보입니다. ios

Apple plans to start implementing generative AI technology in iOS in late 2024 at the earliest. The company will likely build hundreds of AI servers over the next two years. It will probably offer a combination of cloud-based and on-device AI. The time frame seems to line up with the release of iOS 18.

파운데이션 모델들의 투명성 지수 소개 / Introducing The Foundation Model Transparency Index (7 minute read)

스탠포드, MIT, 프린스턴의 연구팀이 상업 파운데이션 모델의 투명성 수준을 평가하기 위한 투명성 지수를 개발했습니다. 파운데이션 모델 투명성 지수(FMTI)로 알려진 이 지수는 투명성의 100가지 측면을 평가하며, 그 결과 주요 파운데이션 모델 기업들 사이에 개선의 여지가 상당하다는 것을 보여줍니다. foundation-model

A team of researchers from Stanford, MIT, and Princeton has developed a transparency index to evaluate the level of transparency in commercial foundation models. The index, known as the Foundation Model Transparency Index (FMTI), assesses 100 different aspects of transparency, and the results indicate that there is significant room for improvement among major foundation model companies.

공동의 운명: 생성적 AI 면책으로 고객 보호하기 / Shared fate: Protecting customers with generative AI indemnification (3 minute read)

Google은 생성형 AI와 관련된 위험을 완화하기 위해 고객에게 두 가지 면책 조항을 제공하고 있습니다. 첫 번째는 학습 데이터에 적용되어 타사의 지적 재산권 침해로부터 사용자를 보호합니다. 두 번째, 생성된 결과물 배상책임은 책임 있는 AI 관행을 준수한다는 전제하에 Google 제품을 사용하여 생성된 콘텐츠에 대해 제기된 지적 재산권 청구를 보장합니다. ai-copyright

Google is offering its customers two indemnities to mitigate the risks associated with generative AI. The first covers training data, protecting users against third-party intellectual property infringements. The second, generated output indemnity, covers IP claims made against content created using Google products, assuming responsible AI practices are followed.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

프로그래밍 방식으로 fine-tune.jsonl 만들기 / Make a fine-tune.jsonl programmatically (6 minute read)

언어 모델을 튜닝하려면 특정 형식의 학습 데이터를 생성해야 합니다. 이 과정은 종종 답답하고 느립니다. 이 게시물에서는 이러한 프로세스를 자동화하는 쉬운 방법에 대해 자세히 설명합니다. fine-tuning

Tuning language models requires creating training data in a specific format. This is often frustrating and slow. This post dives into easy ways to automate that process.

MOST-LPS: 라이다 팬옵틱 세분화에 대한 새로운 접근 방식 / A New Approach to Lidar Panoptic Segmentation (GitHub Repo)

이 프로젝트는 기존의 세그먼트 중심 방식에서 벗어나 라이다 파놉틱 세그먼트(LPS) 및 추적을 위한 새로운 감지 중심 네트워크를 제시합니다.

This project presents a novel detection-centric network for lidar panoptic segmentation (LPS) and tracking, moving away from the traditional segmentation-focused methods.

BAS: 새로운 방법으로 오브젝트 로컬라이제이션 개선하기 / Improving Object Localization with a New Method (GitHub Repo)

약하게 감독되는 객체 로컬라이제이션은 간단한 사진 레이블만으로 객체를 찾는 데 도움이 됩니다. 새로운 배경 활성화 억제(BAS) 방법은 사진의 중요한 부분에 초점을 맞추고 나머지는 무시하여 여러 데이터 세트에서 놀라운 결과를 보여줌으로써 이 작업을 더 잘 수행합니다.

Weakly supervised object localization helps find objects using only simple picture labels. The new Background Activation Suppression (BAS) method does this better by focusing on important parts of a picture and ignoring the rest, showing amazing results on several datasets.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

BotChat: 멀티턴 대화에서 LLM의 대화 능력 평가하기 / Evaluating Chatting Abilities of LLMs in Multi-Turn Dialogues (12 minute read)

이 연구는 대규모 언어 모델(LLM)이 인간과 같은 다중 턴 대화에 참여할 수 있는 능력을 평가합니다.

This study assesses the ability of large language models (LLMs) to engage in human-like multi-turn conversations.

SALMONN: 소리의 세계를 이해하도록 조정된 AI 모델 / SALMONN: The AI Model Tuned to Understand the World of Sound (18 minute read)

이 백서에서는 텍스트 이해와 음성부터 음악까지 다양한 오디오 입력을 처리하는 기능을 결합한 독특한 AI 모델인 SALMONN을 소개합니다. SALMONN은 음성 인식과 같은 훈련된 오디오 작업에서 뛰어난 성능을 발휘할 뿐만 아니라 훈련되지 않은 언어로 음성을 번역하는 것과 같은 인상적인 신흥 기술도 보여줍니다.

This paper introduces SALMONN, a unique AI model that combines text understanding with the ability to process various audio inputs, from speech to music. Not only does SALMONN perform well in trained audio tasks like speech recognition, it also shows impressive emergent skills like translating speech into untrained languages.

:gift: 그 외 소식 / Miscellaneous

홀리 엘모어와 롭 마일스의 AI 안전 옹호에 관한 대화 / Holly Elmore And Rob Miles Dialogue On AI Safety Advocacy (32 minute read)

AI Pause의 주최자인 홀리 엘모어와 AI 안전 유튜버 롭 마일스가 AI 안전에 대해 긴 시간 동안 토론합니다. ai-security

AI Pause organizer Holly Elmore and AI Safety YouTuber Rob Miles have a long discussion on AI safety.

AI를 추가한 모든 앱들은 이런 식입니다 / Every app that adds AI looks like this (5 minute read)

AI 붐으로 인해 스타트업이 과포화 상태에 이르렀고, 일부 스타트업은 프레젠테이션 자료만으로 막대한 자금을 조달하고 있어 과대광고와 고평가가 이루어지고 있을 가능성이 있습니다. 전문가들은 모든 스타트업이 혁신가는 아니며 많은 스타트업이 단순히 모방에 그친다고 경고합니다. AI 브랜딩과 유용성에 대한 진정성과 명확성을 높이고, 수준 이하의 AI 도구를 '마법'으로 마케팅하는 일은 줄여야 합니다.

The AI boom has led to an oversaturation of startups with some raising massive funds on just a pitch deck, potentially indicating overhype and overvaluation. Experts caution that not all startups are innovators; many simply imitate. There should be more authenticity and clarity in AI branding and utility and less marketing of subpar AI tools as "magic".

GPT-4가 로봇 손에게 사람보다 펜 돌리기 묘기를 더 잘 가르칠 수 있을까요? / Can GPT-4 teach a robot hand to do pen spinning tricks better than you do? (7 minute read)

유레카는 초인적인 수준의 로봇 손재주에 대한 보상 기능을 설계하는 개방형 에이전트로, CGI 아티스트가 프레임 단위로 애니메이션하기 어려운 펜 회전 트릭을 학습할 수 있습니다.

Eureka is an open-ended agent that designs reward functions for robot dexterity at a super-human level - it can learn pen-spinning tricks, something that is difficult for CGI artists to animate frame by frame.

:zap: 더 읽어보기 / Quick Links

플러그인이지만 개방된 OpenAgents / OpenAgents, plugins but open (GitHub Repo)

언어 모델 플러그인을 완벽하게 제어할 수 있는 언어 모델 플러그인 작성 프레임워크입니다.

Framework for writing language model plugins that gives you full control.

Pi 웹 브라우징 / Pi web browsing (1 minute read)

이제 Pi는 뉴스와 이벤트와 같은 웹의 데이터에 액세스할 수 있습니다. inflection

Pi now has access to data from the web like news and events.

Ween (Product)

정성적 데이터를 실행 가능한 인사이트로 전환하는 AI 플랫폼입니다.

An AI platform that turns qualitative data into actionable insights.

'레딧은 검색 없이도 살아남을 수 있다'며 회사에서 구글 차단 위협 / ‘Reddit can survive without search’: company reportedly threatens to block Google (3 minute read)

Reddit은 데이터 비용을 지불하기 위해 AI 회사와 계약을 체결하지 못할 경우 검색 크롤러를 차단할 수 있습니다. 535개 이상의 뉴스 조직이 AI 회사가 콘텐츠를 스크랩하지 못하도록 차단하기로 결정했습니다. X의 새로운 읽기 제한은 AI 스타트업의 데이터 스크래핑 때문입니다.

Reddit may block search crawlers if it can't reach deals with generative AI companies to pay for its data. More than 535 news organizations have opted to block their content from being scraped by AI companies. X's new reading limits are due to data scraping by AI startups.