본문 바로가기

QA-LoRA: Quantization-Aware Low-Rank Adaptation of Large Language Models AI Summary ChatGPT LLM의 계산 부담을 줄이고 엣지 장치에 효과적으로 배치하기 위해 개발된 새로운 알고리즘입니다. 이 연구는 기존의 파라미터 효율적 미세 조정(PEFT)과 매개변수 양자화 방법의 한계를 극복하고자 QA-LoRA를 도입합니다. QA-LoRA는 기존 LoRA 방식에 양자화를 인지한 적응을 더해, LLM의 가중치를 효율적으로 양자화(INT4 등)하고, 미세 조정 이후에도 모델의 정확도를 유지합니다. QA-LoRA는 LLaMA 및 LLaMA2 모델군에 적용되어 여러 언어 이해 벤치마크에서 그 효과가 입증되었습니다. 이 방법은 LoRA와 비교하여 계산 비용이 낮으면서도 미세 조정 및 추론 단계에서 높은 성능을 제공합니다. 특히 양자화 비트 폭이 낮을 때 이점이 두드러지며, QLoR..
Teaching Arithmetic to Small Transformers Paper: https://arxiv.org/abs/2307.03381 AI-generated Summary 이 논문은 작은 트랜스포머가 next token prediction objective를 사용하여 덧셈, 곱셈, 제곱근과 같은 산술 연산을 어떻게 학습할 수 있는지 탐구합니다. 이들은 GPT-4와 같은 LLM이 광범위한 텍스트 데이터로 학습할 때 기본 산술과 같은 범용 작업에서 새로운 능력을 발휘할 수 있다는 사실을 발견했습니다. 그러나 이러한 작업은 next token prediction이라는 비지도 목표에 의해 명시적으로 인코딩되지 않습니다. 저자들은 기존의 훈련 데이터가 산술 학습에 가장 효과적이지 않다는 것을 입증하는 것으로 시작합니다. 간단한 형식 변경만으로도 정확도가 크게 향상되고 학습 ..
Generative Pretraining in Multimodality Paper: https://arxiv.org/abs/2307.05222v1 AI-generated Summary Emu는 multimodal context 내에서 이미지와 텍스트를 생성하는 데 탁월한 성능을 발휘하는 강력한 Transformer 기반 모델입니다. 이 모델은 하나의 모델에 대한 모든 자동 회귀 학습 프로세스를 통해 이미지, 텍스트, 비디오 등 단일 모달리티 또는 멀티모달 데이터 입력을 원활하게 처리할 수 있습니다. 이 모델은 시각 신호를 embedding으로 인코딩하고 이를 텍스트 토큰과 결합하여 interleaved input sequence를 형성합니다. 그런 다음 Emu는 다음 텍스트 토큰을 분류하거나 멀티모달 시퀀스에서 다음 시각적 임베딩을 회귀시키는 것을 목표로 end-to-end..
Secrets of RLHF in Large Language Models Part I: PPO Paper: https://arxiv.org/abs/2307.04964v1 AI-generated Summary 대규모 언어 모델(LLM)은 인간 중심의 비서를 만드는 것을 목표로 하는 인공 지능 개발에서 중요한 구성 요소로 자리 잡았습니다. 인간 피드백을 통한 강화 학습(RLHF)은 인간과의 조율을 달성하기 위한 핵심 기술 패러다임입니다. 하지만 몇 가지 한계와 해결해야 할 과제가 있습니다. 한 가지 한계는 모델 크기와 데이터 규모가 RLHF 성능에 미치는 영향이 철저하게 조사되지 않았기 때문에 스케일링 법칙(Scaling Law)입니다. 현재 연구는 70억 개의 매개변수 모델에 초점을 맞추고 있지만, 다양한 크기와 규모가 RLHF에 어떤 영향을 미치는지 이해하기 위해서는 추가 연구가 필요합니다. 또 ..
Curriculum Learning: A Survey Paper: https://arxiv.org/abs/2101.10382v1 AI-generated Summary "Curriculum Learning: A Survey"라는 제목의 논문에서는 커리큘럼 학습의 개념과 머신러닝 모델 학습에 미치는 영향에 대해 살펴봅니다. 커리큘럼 학습은 쉬운 샘플부터 시작하여 점차 어려운 샘플로 진행하는 특정 순서로 모델을 훈련하는 것입니다. 이 접근 방식은 추가 계산 비용 없이 데이터를 무작위로 섞어 학습하는 표준 학습 방식에 비해 성능이 향상되는 것으로 밝혀졌습니다. 저자들은 커리큘럼 학습 전략이 머신러닝의 다양한 영역과 광범위한 작업에 성공적으로 적용되었다고 강조합니다. 그러나 샘플을 쉬운 것부터 어려운 것까지 순위를 매기는 방법을 결정하고 더 어려운 데이터를 도입하기..
Knowledge Distillation of Large Language Models Paper: https://arxiv.org/abs/2306.08543v1 AI-generated Summary 지식 증류(KD)는 대규모 언어 모델(LLM)의 계산 수요를 줄이기 위해 사용되는 기법입니다. 이전의 KD 방법은 주로 화이트박스 분류 모델이나 ChatGPT와 같은 블랙박스 모델 API를 모방하기 위한 소규모 모델 훈련에 중점을 두었지만, 화이트박스 생성 LLM에서 지식을 효과적으로 증류하는 방법에 대한 탐색은 여전히 제한적입니다. 이는 LLM이 계속 발전함에 따라 점점 더 중요해지고 있습니다. 이 연구에서 저자들은 대규모 생성 언어 모델에서 더 작은 언어 모델을 추출하는 방법인 MiniLLM을 제안합니다. 생성 언어 모델과 관련된 문제를 해결하기 위해 저자는 표준 KD 접근법의 순방향 쿨백..
Nvidia RTX 30 시리즈 출시! 한국시간으로 9월 2일 새벽 1시에 Nvidia의 새로운 RTX 아키텍쳐 Ampere에 기반한 그래픽카드 3종을 새로 발표했습니다. 여러 가지 변화점들도 있고 그래픽카드 외에도 새로 발표한 내용들이 더 있지만, 관심이 가는 부분만 중점적으로 정말 주관적으로 발표를 해석해보겠습니다! 1. 90 라인업의 등장2018년 8월에 공개된 바로 전세대 라인업인 20 라인업의 발표 때는, 2080 Ti, 2080, 2070이 발표 되었습니다. 하지만 이번에는 3090, 3080, 3070을 발표했는데요. 90 라인업이 나올것이라는 의견은 출시 전부터 많이 루머로 있던 내용이지만, 실제로 이 90 라인업이 기존의 Ti 라인업을 대체하여 더 높은 성능을 강조하는 네이밍이 되는 것인지, 아니면 추후에 Ti 라인업을 따로 ..
갤럭시 S4에 Android 10 올려보기! 안녕하세요! 제가 예전에 이런 폰을 사용했던 적이 있습니다. 이미 앱등이가 되어버린 저는 가끔 안드로이드가 필요할 때마다 사용중인데요. 작년쯤인가.. 테스트용으로 갤럭시 S4 LTE-A(이하 갤포아)를 꺼내서 안드로이드 9.0 파이를 LineageOS로 올렸었는데요. 통신 쪽의 이슈가 있어서 전화를 할 수가 없는 상태라, 더 사용하지는 않고 방치해 두었습니다. 갑자기 오늘! 서랍을 정리하다 뭔가 안드로이드 10이 올라와 있을 거 같아서 XDA Forum을 들어가보니까...! 역시나... LineageOS 17.1(=Android 10)이 꽤 오래 전에 올라와 있더라구요! kyasu님 롬은 진짜 예전부터 써봤는데 아직도 갤포아 작업을 하고 계실 줄은 몰랐어요..! (링크: https://forum.xda-..