[TLDR] 오늘의 AI 뉴스, 2023-10-30: 구글, 앤트로픽에 2억 달러 투자 💰, RAG 신비화 ❓, 사전(dict) 학습으로 LLM을 분해 📚

파이토치 한국 사용자 모임에서는 TLDR 뉴스레터 의 승인을 받아 AI 소식을 DeepL로 번역 하여 전합니다. :star_struck:
더 많은 AI 소식 및 정보를 공유하고 함께 성장하고 싶으신가요? 지금 파이토치 한국어 커뮤니티에 방문해주세요! :robot:
TLDR-AI 뉴스 레터 썸네일


:rocket: 주요 뉴스 & 신규 출시 소식 / Headlines & Launches

구글, 앤트로픽에 20억 달러 투자 / Google Invests $2B Into Anthropic (2 minute read)

구글은 OpenAI의 경쟁사인 Anthropic에 막대한 투자를 약속했으며, 이 AI 스타트업에 최대 20억 달러를 투자하기로 했습니다. funding

Google has committed to a substantial investment in Anthropic, a competitor to OpenAI, earmarking up to $2 billion for the AI startup.

프론티어 모델 포럼의 초대 이사 임명, 빅테크는 안전 이니셔티브 기금에 1천만 달러 추가 / First director of the Frontier Models Forum named and big tech adds $10m to safety initiative funding (4 minute read)

크리스 메세롤은 프론티어 모델 포럼의 초대 이사입니다. 많은 대형 기술 기업이 AI 안전 기금에 자금을 추가했습니다. ai-security frontier-model-forum

Chris Meserole is the first director of the Frontier Models Forum. Many large tech companies have added funding to the AI safety fund.

아마존, 광고주를 위한 AI 기반 이미지 광고 출시 / Amazon Ads Launches AI-Powered Imagery for Advertisers (2 minute read)

아마존 광고는 광고 실적을 개선하기 위해 라이프스타일 및 브랜드 테마 이미지를 생성하는 AI 기반 이미지 생성 기능을 베타 버전에 도입했습니다. 기술적 전문 지식이 필요하지 않은 이 툴을 통해 브랜드는 더욱 매력적인 광고를 제작할 수 있으며, 클릭률을 40%까지 높일 수 있는 것으로 알려졌습니다. 이 기능은 고객 피드백을 바탕으로 광고주에게 점진적으로 배포될 예정입니다.

Amazon Ads has introduced an AI-powered image generation feature in beta that creates lifestyle and brand-themed images to improve ad performances. The tool, which requires no technical expertise, enables brands to create more engaging ads, reportedly increasing click-through rates by 40%. It will be rolled out progressively to advertisers based on customer feedback.

:brain: 연구 & 혁신 관련 소식 / Research & Innovation

NNGuide: 배포되지 않은 데이터 식별하기 / Identifying Out-of-Distribution Data (14 minute read)

ML 모델은 때때로 익숙하지 않은 데이터를 이전에 본 적이 있다고 착각하여 잘못 인식할 수 있습니다. 새로운 방법인 NNGuide는 특히 알려지지 않은 데이터를 식별할 때 모델이 더 나은 의사 결정을 내릴 수 있도록 도와줍니다.

ML models can sometimes wrongly recognize unfamiliar data, thinking they've seen it before. A new method, NNGuide, helps models make better decisions, especially when identifying unknown data.

단-의미(monosemanticity)를 향해: 사전 학습으로 언어 모델 분해하기 / Towards Monosemanticity: Decomposing Language Models With Dictionary Learning (60 minute read)

연구자들은 희소 자동 인코더를 사용하여 신경망의 다의미성을 해결하고 모델 이해도를 높이기 위해 더 명확한 특징을 추출합니다. 이러한 특징은 출력에 영향을 미치고 복잡한 상호작용을 나타냅니다.

Researchers use sparse autoencoders to tackle neural networks' polysemanticity, extracting clearer features for improved model understanding. These features influence outputs and exhibit complex interactions.

EFT: 작은 모델을 훈련하여 대형 모델 훈련 에뮬레이션 / Emulate training a large model just by training a small one (28 minute read)

에뮬레이터 미세 조정(EFT)은 직접 환경 설정 최적화 그룹에서 나온 것으로, 작은 모델을 미세 조정한 다음 그 미세 조정을 큰 모델에 투영하면 어떤 일이 발생하는지 탐구합니다. 이 반직관적인 전략은 놀랍도록 잘 작동합니다. fine-tuning

Emulator Fine Tuning (EFT) comes from the direct preference optimization group and explores what happens if you fine tune a small model and then project that fine tuning onto a large model. This counterintuitive strategy works shockingly well.

:man_technologist: 엔지니어링 및 리소스 관련 소식 / Engineering & Resources

오디오플레어 / AudioFlare (GitHub Repo)

모든 오디오 파일을 전사, 분석, 요약, 번역하는 데 Cloudflare AI Workers를 사용하는 올인원 AI 오디오 플레이그라운드입니다.

An all-in-one AI audio playground using Cloudflare AI Workers to transcribe, analyze, summarize, and translate any audio file.

GPT-4V에 대한 멀티모달 프롬프트 인젝션 이미지 공격 / Multi-Modal Prompt Injection Image Attacks Against GPT-4V (3 minute read)

새로운 GPT-4V는 이미지 입력과 대화형 대화가 가능하지만 시각적 프롬프트 주입 공격을 통해 데이터를 유출하고 이미지에 인코딩된 숨겨진 명령어를 실행할 수 있는 새로운 취약점도 발견되었습니다. prompt-injection gpt-4v

The new GPT-4V allows for interactive conversations with image inputs but also introduces new vulnerabilities through visual prompt injection attacks, enabling exfiltration of data and execution of hidden instructions encoded in images.

JudgeLM: 대규모 언어 모델 평가를 위한 시스템 / A System for Evaluating Large Language Models (GitHub Repo)

이 연구에서는 다양한 상황에서 대규모 언어 모델을 효율적으로 평가할 수 있는 새로운 방법인 "JudgeLM"을 소개합니다. 저자들은 방대한 데이터 세트와 벤치마킹 시스템을 개발했습니다.

This study presents "JudgeLM", a new method to efficiently evaluate Large Language Models in versatile situations. The authors developed a vast dataset and benchmarking system.

:gift: 그 외 소식 / Miscellaneous

Rust로 딥러닝하기 / Deep learning in Rust (Book)

Rust는 강력한 메모리 안전성을 갖춘 인기 있는 시스템 프로그래밍 언어입니다. Burn은 이러한 원칙을 기반으로 효율적인 ML을 위해 구축된 프레임워크입니다. 중요한 점은 Onyx 런타임과의 호환성을 제공한다는 점입니다.

Rust is a popular systems programming language with strong memory safety. Burn is a framework built on these principles for efficient ML. Importantly, it offers compatibility with the Onyx runtime.

AI 정렬은 제대로 진행되고 있나요? 너무 빠르게 진행되고 있나요? / Is AI alignment on track? Is it progressing... too fast? (8 minute read)

AI 조정은 측정할 수 있는 구체적인 벤치마크나 수치가 부족한 복잡한 문제입니다. AI로 인한 파멸에 대한 예측은 엄격한 모델보다는 내러티브에 의존합니다. 명확한 수치가 없기 때문에 AI 정렬 상태를 평가하기가 어렵습니다.

AI alignment is a complex issue that lacks concrete benchmarks or numbers for measurement. Predictions of AI-induced doom rely on narratives rather than rigorous models. The absence of hard numbers makes it challenging to assess the state of AI alignment.

AI 덕분에 프로그래밍의 미래에는 대문자로 외치는 것이 포함될 수 있습니다 / Thanks to AI, the future of programming may involve YELLING IN ALL CAPS (3 minute read)

OpenAI의 프롬프트는 프롬프트 엔지니어링에 대한 많은 특이점을 드러냅니다. 예를 들어, 프롬프트에서 '제발'을 많이 사용하고 중요한 지침은 모두 대문자로 표시되는 경우가 많습니다. 대문자로 된 문장에 응답자가 더 많은 주의를 기울이는 수많은 예시를 통해 모델이 학습되었기 때문에 지침을 대문자로 표시하는 것이 효과적일 수 있습니다. 이로 인해 사람들이 컴퓨터가 더 잘 작동하도록 소리를 지르는 미래가 올 수도 있습니다.

OpenAI's prompts reveal many quirks about prompt engineering. For example, the prompts use 'please' a lot and important instructions are often all capitalized. Capitalizing instructions likely works as the models were trained on huge numbers of examples where responses clearly paid more attention to capitalized sentences. This could result in a future where people shout at their computers to get them to work better.

:zap: 더 읽어보기 / Quick Links

RAG 신비화 / RAG Demystified (GitHub Repo)

LLM 기반의 고급 RAG 파이프라인.

An LLM-powered advanced RAG pipeline.

스포크 / Spoke (Product)

정보 과부하를 줄이고, 작업의 우선순위를 정하고, 즉각적인 컨텍스트를 제공하며, AI를 사용하여 핵심 워크플로를 강화하는 제품 팀용 우선순위 받은 편지함입니다.

A priority inbox for product teams that reduces information overload, prioritizes work, gives instant context, and augments core workflows using AI.

BakLLaVA: 미스트랄 기반 멀티모달 Llava 모델(허깅 페이스 허브) / Mistral powered multimodal Llava model (Hugging Face Hub)

Llava 미세 조정 패러다임은 강력한 언어 모델과 비전 기능을 결합합니다. 성능 향상을 위해 미스트랄 7B에 적용되었습니다. mistral-7b llava

The Llava fine tuning paradigm combines powerful language models with vision capabilities. It has been applied with Mistral 7B for improved performance.