[TLDR] 오늘의 AI 뉴스, 2023-11-06: xAI의 Grok이 ChatGPT보다 나은 성능 🏅, OpenAI 개발자 데이 📅, NeurIPS 2023 논문 다이제스트 📃

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터의 승인을 받아 AI 소식을 DeepL로 번역하여 전합니다. :star_struck:
더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요! :robot:
TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

엘론 머스크의 xAI가 LLM 벤치마크에서 ChatGPT를 이겼습니다 / Elon Musk's xAI beats ChatGPT on LLM benchmarks (4 minute read)

xAI는 34억 개의 파라미터로 자동 회귀 언어 모델을 학습했습니다. 성능이 매우 뛰어나며 X 플랫폼에 내장된 AI 시스템을 구동합니다.

xAI trained an autoregressive language model at 34B params. It is quite performant and will power an AI system built into the X platform.

OpenAI 개발자 데이에서 기대할 수 있는 사항 / What To Expect At OpenAI Dev Day (3 minute read)

오늘 OpenAI 개발자 데이가 개최되며, OpenAI 개발자 도구의 개선 사항, ChatGPT의 새로운 요금제, 그리고 새롭게 개선된 버전의 ChatGPT iOS 앱인 기즈모 V8을 엿볼 수 있다는 소문이 돌고 있습니다.

OpenAI Dev Day is today and it is rumored that we can expect enhancements to OpenAI’s developer tools, new pricing plans for ChatGPT, and a peek at Gizmo V8, a new and improved version of the ChatGPT iOS app.

생성형 AI 보안 강화를 위한 VRP 확장 / Expanding VRP for Enhanced Generative AI Security (3 minute read)

Google은 취약점 보상 프로그램(VRP)을 제너레이티브 AI까지 확대하여 AI 안전 및 보안에 대한 연구를 장려하고 있습니다. 동시에 더 나은 AI 공급망 안전을 보장하기 위해 오픈소스 작업을 확대하고 있습니다. 또한 모델 변조 및 데이터 중독과 같은 위협으로부터 AI 공급망을 보호하기 위해 보안 AI 프레임워크(SAIF)와 구글 오픈소스 보안팀(GOSST)을 활용하고 있습니다.

Google is extending its Vulnerability Rewards Program (VRP) to include generative AI, encouraging research into AI safety and security. Simultaneously, it's expanding its open-source work to ensure better AI supply chain safety. It is also leveraging the Secure AI Framework (SAIF) and the Google Open Source Security Team (GOSST) to protect AI supply chains from threats like model tampering and data poisoning.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

NeurIPS 2023의 하이라이트 / Highlights from NeurIPS 2023 (45 minute read)

논문 다이제스트는 NeurIPS 2023의 많은 논문에 대한 요약을 생성했습니다. 흥미롭게도 이 작업의 대부분은 현재 거의 1년이 지났으며 이미 커뮤니티에서 쉽게 채택되었습니다.

Paper digest generated summaries of many papers from NeurIPS 2023. Interestingly, much of this work is almost a year old at this point and has already been readily adopted by the community.

HelixNet: 3가지 모델을 하나로 통합 / HelixNet is 3 models combined into one (4 minute read)

미스트랄 기반에서 생성용, 비평용, 재생용 등 세 가지 작업별 모델을 미세 조정하면 전체 시스템에서 생성 성능이 크게 향상됩니다. 합성 데이터는 이러한 모델을 조정하는 데 사용됩니다.

If you fine-tune three task-specific models from the Mistral base, one for generation, one for critique, and a final one for regeneration then the entire system shows dramatically improved generation performance. Synthetic data is used to tune these models.

스케치: 로봇이 수행하기를 원하는 작업 / Sketch what you want your robot to do (6 minute read)

로봇이 수행하기를 원하는 작업의 대략적인 윤곽을 스케치하는 것은 새로운 형태의 커뮤니케이션이며, 일반적인 픽 앤 플레이스 작업에 놀랍도록 효과적입니다.

Sketching a rough outline of what you want a robot to accomplish is a novel form of communication and turns out to work surprisingly well for standard pick and place tasks.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

Video2Music: 동영상을 위한 맞춤형 음악 제작 / Video2Music Creates Tailored Music for Videos (GitHub Repo)

Video2Music의 AI 프레임워크는 사용자 연구를 통해 검증된 고유한 데이터 세트와 트랜스포머 모델을 활용하여 동영상에 감정적으로 일치하는 음악을 생성합니다.

Video2Music’s AI framework generates emotionally congruent music for videos, leveraging a unique dataset and transformer model validated by user studies.

Qdrant: Rust 기반 벡터 데이터베이스 / X "similar posts" powered by rust-based vector database (GitHub Repo)

Qdrant는 초고속 벡터 데이터베이스를 사용하여 임베딩을 저장합니다.

Qdrant uses a lightning-fast vector database to store embeddings.

Giskard: LLM 및 ML 모델을 위한 오픈소스 테스트 프레임워크(GitHub Repo 스폰서) / Giskard: Open-source testing framework for LLMs & ML models (GitHub Repo Sponsor)

기스카드는 파이썬 라이브러리입니다. 성능 편향, 데이터 유출, 허위 상관관계, 환각, 독성, 보안 문제 등 표 형식 모델부터 LLM에 이르기까지 AI 모델의 취약성을 자동으로 탐지합니다. 모델을 빠르고 안전하게 프로덕션에 적용하세요.

Giskard 설치(GitHub를 통해) 또는 콜랩에서 사용해보기

Giskard is a Python library that automatically detects vulnerabilities of AI models, from tabular models to LLM, including: performance biases, data leakage, spurious correlation, hallucination, toxicity, security issues and many more. Get your model to production quickly and safely.

Install Giskard (via GitHub) or try it in Colab

Deepspeed, 추론 소프트웨어 출시 / Deepspeed releases inference software (GitHub Repo)

언어 모델의 빠른 제공을 위해 vLLM 및 텍스트 생성 인터페이스와 경쟁하기 위한 Deepspeed의 새로운 소프트웨어입니다. 다양한 최신 가속 기능이 포함되어 있으며 예비 결과 최대 2.4배 빠른 것으로 나타났습니다.

This is Deepspeed's new software for competing with vLLM and text-generation interfaces for the fast serving of language models. It comes with many state-of-the-art acceleration features and preliminary results suggest it's up to 2.4x faster.

:gift: 그 외 소식 / Miscellaneous

AI 데이터 파이프라인 공격 / AI data pipeline attacks (6 minute read)

데이터 웰 포이즈닝과 기타 데이터 파이프라인 공격은 사이버 보안 커뮤니티의 큰 과제이며, 대부분의 AI 조직에서 사각지대에 놓여 있는 경우가 많습니다. 이 게시물에서는 향후 대응에 도움이 될 수 있도록 공격의 개요(코드 포함)를 설명합니다.

Poisoning the data well and other data pipeline attacks are a huge challenge for the cyber security community and often a blindspot for most AI organizations. This post outlines (with code) what the attacks are to help with future mitigation.

크루즈는 AI의 테라노스가 될까요? / Could Cruise Be The Theranos Of AI? (4 minute read)

GM의 무인 자동차 회사인 크루즈는 차량 운전을 원격 운전자에게 의존하는 경우가 많아 자율 주행이라는 회사의 주장에 도전하고 있습니다. 이번 폭로로 자율주행차의 진정한 기능에 대한 우려가 커지고 있으며, 자율주행차의 안전성과 자율성에 대한 투명성과 조사가 필요하다는 목소리가 커지고 있습니다.

Cruise, GM's driverless car company, frequently relies on remote operators for its vehicles, challenging the company's claims of autonomy. The revelation raises concerns about the true capabilities of self-driving cars and prompts calls for transparency and investigation into the safety and autonomy of such vehicles.

확장 프롬프트 주입 및 데이터 추출 / Extensions prompt injection and data exfiltration (12 minute read)

생성형 AI 플러그인에서 발생하는 새로운 취약점에 대해 자세히 알아보세요. 이 공격은 SQL 인젝션과 유사하지만 감염된 Google 문서를 통해 이루어졌습니다. Google이 문제를 해결했지만 보안 연구원은 다른 사용자의 프롬프트를 유출할 수 있었습니다.

A great deep dive into some novel vulnerabilities that come from generative AI plugins. In this case, the attack resembles SQL injection but came via an infected Google Doc. While Google has fixed the issue, the security researcher was able to exfiltrate other users’ prompts.

:zap: 더 읽어보기 / Quick Links

레이어 / Layer (Product)

Layer는 AI 기반 요약, 정보 추출 등을 통해 조사 시간을 40%까지 줄여줍니다.

Layer cuts your research time by 40% with AI-powered summarization, information extraction, and more.

Google의 연구 장학생 프로그램 지원서 접수 시작 / Google's research scholar program is open for applications (2 minute read)

Google의 프로그램을 통해 초기 경력 박사후 연구원급 연구자는 리소스를 갖춘 팀에 합류하여 연구 과제를 계속 진행할 수 있습니다.

Google's program allows early career postdoc-level researchers to join a team with resources and continue their research agenda.

(광고) :technologist::robot: Dystr: 자율 에이전트를 갖춘 AI 기반 엔지니어링 허브 / :technologist::robot: Dystr: AI powered engineering hub with autonomous Agents (Sponsor)

엔지니어링 자료의 데이터 분석 및 저장을 위해 설계된 LLM이 통합된 협업 클라우드 환경입니다. 내장된 AI 에이전트를 통해 Dystr은 워크로드를 자동화하여 엔지니어가 핵심 업무에 집중할 수 있도록 지원합니다. Google, Valve, Meta, SpaceX의 엔지니어 대열에 합류하세요.
무료 크레딧으로 시작하세요!

A collaborative, LLM-infused cloud environment designed for data analysis and storage of engineering materials. With built-in AI Agents, Dystr automates workloads, freeing engineers to focus on core tasks. Join the ranks of engineers at Google, Valve, Meta, & SpaceX.
Start with free credits!

이제 ChatGPT Plus에서 파일 분석 가능 / ChatGPT Plus Can Now Analyze Files (1 minute read)

ChatGPT Plus의 최신 업데이트는 PDF 작업 기능을 포함한 새로운 베타 기능을 도입합니다. 사용자는 문서를 업로드하고 상호 작용하는 동시에 복합적인 지원을 받을 수 있습니다.

The latest update on ChatGPT Plus introduces fresh beta functionalities, including the ability to work with PDFs. Users can upload and interact with documents alongside receiving multimodal assistance.