|
LLM Internals: 토크나이저부터 Flash Attention까지, LLM 내부 구조를 단계별로 학습하는 오픈소스 교육 자료
|
|
0
|
210
|
4월 17, 2026
|
|
There Is No Spoon: 소프트웨어 엔지니어를 위한 직관적인 머신러닝 입문 자료
|
|
0
|
1121
|
4월 6, 2026
|
|
Attention Residuals: 트랜스포머 잔차 연결을 학습된 어텐션으로 대체하여 연산 효율을 높인 MoonshotAI의 새로운 메커니즘
|
|
0
|
280
|
3월 27, 2026
|
|
RustGPT: 순수 Rust로 처음부터 구현한 Transformer 기반 언어 모델
|
|
0
|
533
|
9월 16, 2025
|
|
PiToMe: 사용하지 않는 토큰을 병합하여 Transformer 모델의 효율성을 높이는 기법에 대한 연구
|
|
0
|
282
|
11월 5, 2024
|
|
Transformer Explainer: 복잡한 Transformer 모델을 시각적으로 이해하기
|
|
0
|
1095
|
8월 14, 2024
|
|
[GN] GPT-4o는 이미지를 어떻게 인코딩할까?
|
|
1
|
969
|
6월 15, 2024
|
|
SpreadSheet is All You Need: 스프레드시트(또는 엑셀)로 이해하는 nanoGPT의 동작 원리
|
|
0
|
464
|
6월 13, 2024
|
|
Vision Transformer에 대한 시각적 설명 (A Visual Guide to Vision Transformers)
|
|
2
|
11038
|
4월 24, 2024
|
|
Road to Sora: OpenAI의 Sora를 이해하기 위한 선행 연구 소개 (feat. Oxen.AI)
|
|
1
|
1490
|
3월 29, 2024
|
|
[GN⁺] Spreadsheets are all you need - 스프레드시트로 배우는 AI (영어 비디오 3편)
|
|
0
|
232
|
3월 16, 2024
|
|
(인텔 플랫폼에서) 더 빠른 Transformer를 위한 Intel Extension 공개
|
|
0
|
635
|
12월 7, 2023
|
|
[GN⁺] 애플의 새로운 'Transformer' 기반 텍스트 예측 모델
|
|
0
|
366
|
9월 18, 2023
|
|
한국어 방언의 영어로의 번역에 대한 질문
|
|
4
|
509
|
8월 30, 2023
|
|
트랜스포머의 validation과 test의 차이가 큰 경우가 발생합니다.
|
|
2
|
592
|
7월 14, 2023
|
|
[TLDR] 오늘의 AI 뉴스, 2023-05-29: AI에 대한 샘 알트먼의 낙관적 견해🪟, AI - 새로운 항생제 발견💉, 하이브리드 트랜스포머와 RNN 모델🔀
|
|
1
|
543
|
12월 31, 2023
|
|
[GN] AI Canon - a16z가 큐레이션한 AI 필수 자료 모음
|
|
0
|
309
|
5월 30, 2023
|
|
[DSBA] Transformer to LLaMA: 25가지 언어모델의 논문 소개 / 정리 (559p / PDF)
|
|
2
|
1622
|
5월 20, 2023
|
|
Transformer 강의 소개 (Stanford CS25)
|
|
1
|
1103
|
7월 31, 2022
|