#llm
Papers
2025 · ★★★★☆
Data Diversity Matters for Robust Instruction Tuning
AI 모델, 똑똑하게 학습시키는 '데이터 다양성'의 비밀 - QDIT 알고리즘을 통해 더 강건한 AI를 만드는 방법을 소개합니다.
aidata_selectiondatadiversity
2025 · ★★★★☆
Efficient Continual Pre-training for Building Domain Specific Large Language Models
LLM 전문가, A to Z 학습은 이제 그만! 10% 데이터로 성능 뛰어넘는 비법 - 지속적 사전학습과 데이터 선택 전략
cptdata-samplingllm
2025 · ★★★★☆
How much do language models memorize?
LLM의 기억력, 숫자로 측정할 수 있을까? 파라미터당 3.6비트의 비밀 - 정보 이론의 압축 원리로 언어모델의 기억 용량을 정량화하다
llmmembership_inferencemodel_capacity
2025 · ★★★★☆
LIMA: Less Is More for Alignment
LLM, 양보다 질? 단 1,000개의 데이터로 GPT-4와 경쟁한 LIMA 이야기 - 표면적 얼라인먼트 가설과 소량 고품질 데이터의 힘
aillmalignment
2025 · ★★★★☆
Reflexion: Language Agents with Verbal Reinforcement Learning
AI가 코드를 짜고, 복잡한 문제를 풀고, 심지어 게임까지 하는 시대입니다. 하지만 이 AI 에이전트들이 막다른 길에 부딪혔을 때, 어떻게 더 똑똑해질 수 있을까요?
ai에이전트llmreflexion
2025 · ★★★★☆
RETHINKING DATA SELECTION AT SCALE: RANDOM SELECTION IS ALMOST ALL YOU NEED
LLM 성능, '족집게 과외'보다 '랜덤'이 나은 이유 - 대규모 데이터셋에서 무작위 선택이 복잡한 알고리즘과 비슷한 성능을 보이는 이유
data_selectionllmllm_dataset
2025 · ★★★★☆
Efficient Memory Management for Large Language Model Serving with PagedAttention
LLM 서빙, 4배 빨라진 비밀: 운영체제에서 훔친 메모리 관리 기법 (vLLM) - PagedAttention을 통한 KV 캐시 메모리 최적화
aillmllm_serving