프로필사진

Paper Tale/Top ML Papers of the Week 21

🥇 이주의 ML 논문 (2023-06-19 ~ 2023-06-25)

1) Textbooks Are All You Need - phi-1이라는 1.3B 파라미터 규모의 LLM 소개. 사이즈가 작은 모델로, 교과서 품질의 데이터와 GPT-3.5로 생성한 합성 교과서 및 연습 문제를 사용하여 4일 동안 훈련. HumanEval 벤치마크에서 유망한 결과를 달성함 (paper | tweet) 2) RoboCat - 다양한 로봇 팔을 조작할 수 있는 새로운 기초 에이전트로, 최소 100개의 시연만으로도 작업을 해결할 수 있음. 이러한 self-inproving AI 에이전트는 새로운 훈련 데이터를 자체 생성하여 기술을 향상시키고 새로운 작업에 적응하는 데 더 효율적으로 만들어줌 (paper | tweet) 3) ClinicalGPT - 의료기록, 도메인 특화 지식, 다중 회차 대화..

🥇 이주의 ML 논문 (2023-06-12 ~ 2023-06-18)

1) Voicebox - 올인원 생성 음성 모델로, 6개 언어의 음성을 합성할 수 있음. 노이즈 제거, 콘텐츠 편집, 스타일 변환 등을 수행할 수 있으며, 현재 모델보다 20배 빠름. in-context learning을 이용하면 단일 목적 모델의 성능을 능가 (paper | tweet)  2) FinGPT - 금융 분야를 위한 오픈 소스 LLM으로, 연구자와 실무자에게 FinLLM을 개발하기 위한 접근 가능한 리소스를 제공하는 데이터 중심 접근 방식을 취함 (paper | tweet)  3) Crowd Workers Widely Use Large Language Models for Text Production Tasks - MTurk의 크라우드 워커 중 33~46%가 텍스트 제작 작업을 완료할 때 LL..

🥇 이주의 ML 논문 (2023-06-05 ~ 2023-06-11)

1) Tracking Everything Everywhere All at Once - 밀집된 장거리 모션을 추정하기 위한 테스트 시간 최적화 방법을 제안하고, 비디오의 모든 픽셀에 대한 정확한 전체 길이 모션 추정을 가능하게함 (paper | tweet) 2) AlphaDev - 처음부터 더 빠른 정렬 알고리즘을 발견하는 심층 강화 학습 에이전트로, 알고리즘은 이전에 알려진 인간 벤치마크를 능가하고 LLVM C++ 라이브러리에 통합됨 (paper | tweet) 3) Sparse-Quantized Representation - 모델 규모 전반에 걸쳐 LLM을 거의 무손실로 압축할 수 있는 새로운 압축 형식 및 양자화 기술로, 15% 속도 향상으로 4.75비트에서 LLM 추론을 허용 (paper | twe..

🥇 이주의 ML 논문 (2023-05-29 ~ 2023-06-04)

1) Let’s Verify Step by Step - 최종 답변에 대해 보상하는 대신 사고의 각 올바른 추론 단계를 보상하여 수학 문제 해결 태스크에서 SoTA 달성. MATH 테스트 세트의 대표적인 하위 집합에서 78%의 문제를 해결합니다. (paper | tweet)2) No Positional Encodings - 명시적인 위치 임베딩이 디코더 전용 트랜스포머에 필수적이지 않음을 보임. ALiBi 및 Rotary와 같은 다른 위치 인코딩 방법이 길이 일반화에 적합하지 않음을 증명 (paper | tweet)3) BiomedGPT - 시각, 언어 및 멀티모달 작업을 위한 통합 생체 의학 생성형 사전 훈련 트랜스포머 모델(a unified biomedical generative pretrained t..

🥇 이주의 ML 논문 (2023-05-22 ~ 2023-05-28)

1) QLoRA - 메모리 사용량을 줄여 65B 파라미터 모델을 48GB GPU에서 싱글 GPU에서 전체 16비트 파인튜닝 성능을 유지하면서 파인튜닝하는 효율적인 방법 (paper | tweet)2) LIMA - 1,000개의 세심하게 선별된 프롬프트와 응답으로 파인튜닝된 새로운 65B 파라미터 LLaMa 모델로, RLHF를 사용하지 않으며 훈련 데이터에 없는 보이지 않는 작업에 대해 일반화가 잘 됨. 응답을 생성하는 경우 GPT-4에 비해 43%에서 동등하거나 우선되는 응답을 생성하며, Bard와 비교했을 때 더 높은 결과를 얻음 (paper | tweet)3) Voyager - Minecraft에서 사용되는 LLM 기반의 구현형 평생 학습 에이전트로, 계속해서 세계를 탐험하고 기술을 습득하며 인간의 ..

🥇 이주의 ML 논문 (2023-05-15 ~ 2023-05-21)

1) Drag Your GAN - GAN을 제어하기 위한 방법으로, 이미지의 지점을 드래그하여 사용자 상호작용 방식으로 정확한 대상 지점에 도달할 수 있게 함 (paper | tweet)2) Evidence of Meaning - 언어 모델이 텍스트의 다음 토큰 예측만을 수행하도록 훈련되었음에도 의미를 학습할 수 있다는 주장 (paper | tweet)3) Med-PaLM 2 - 의료 질문 응답을 위한 최고 성능의 LLM으로, MedQA 데이터셋에서 SoTA로 86.5%의 점수를 기록하였으며, MedMCQA, PubMedQA 및 MMLU 임상 주제 데이터셋 전반에 걸쳐 SoTA에 근접하거나 뛰어넘음 (paper | tweet)4) MEGABYTE - 백만 바이트 이상의 시퀀스의 end-to-end 모델링..

🥇 이주의 ML 논문 (2023-05-08 ~ 2023-05-14)

1) LLM explains neurons in LLMs - GPT-4를 사용하여 LLM의 뉴런 동작에 대한 설명을 자동으로 작성하고 그 설명에 점수를 매기는 방법으로, 이는 향후 LLM의 해석 가능성을 향상시키고 잠재적으로 정렬 및 안전 문제를 감지하는 유망한 방법을 제공 (paper | tweet)2) PaLM 2 - Bard와 PaLM API가 통합된 새로운 최첨단 언어 모델로서, GPT-4와 비교하여 수학적 추론에서 경쟁력 있는 성능을 나타냄. Flan-PaLM 2라는 instruction-tuned 모델은 MMLU 및 BIG-bench Hard와 같은 벤치마크에서 우수한 성능을 보임 (paper | tweet)3) ImageBind - 동시에 여섯 가지 모달리티 간의 공동 임베딩 데이터를 학..

🥇 이주의 ML 논문 (2023-05-01 ~ 2023-05-07)

1) scGPT - 단일 세포 생물학을 위해 1000만 개의 세포에 대해 사전 훈련된 기본 대형 언어 모델 (paper | tweet)2) GPTutor - 코드 설명을 위한 ChatGPT 기반 도구로서 VSCode 확장 프로그램으로 제공됨. 일반 ChatGPT 및 Copilot보다 더 간결하고 정확한 설명을 제공한다고 주장하며, 프롬프트 엔지니어링을 통해 성능을 높이고 사용자 맞춤형으로 제공됨. 더 관련성 있는 코드를 프롬프트에 사용하도록 프로그래밍되어 있음 (paper | tweet)3) Shap-E - 3D 에셋을 위한 조건부 생성 모델로, 이전의 3D 생성 모델과 달리 이 모델은 텍스처가 입혀진 메시 및 신경 방사 필드(neural radiance field)를 렌더링할 수 있게 하는 암시적 함수..

🥇 이주의 ML 논문 (2023-04-24 ~ 2023-04-30)

1) Agents Learn Soccer Skills - 강화 학습을 적용하여 소형 인간형 로봇을 위해 민첩한 축구 기술을 합성한 논문으로, 생성된 정책은 빠른 대응, 걷기, 차기와 같은 동적인 이동 기술을 가능하게 함 (paper | tweet)2) Scaling Transformer to 1M tokens with RMT - 재귀 메모리 트랜스포머 아키텍처를 활용하여 BERT의 유효 컨텍스트 길이를 200만 토큰으로 증가시키면서 높은 메모리 검색 정확도를 유지함 (paper | tweet)3) Track Anything - 비디오 객체 추적 및 세그멘테이션을 위한 상호작용 도구로, segment anything를 기반으로 하며 사용자 클릭을 통해 물체의 유연한 추적과 세분화를 제공 (paper | t..

🥇 이주의 ML 논문 (2023-04-10 ~ 2023-04-16)

1) Zip-NeRF - mip-NeRF 360과 그리드 기반 모델을 결합하여 mip-NeRF 360보다 22배 빠르게 학습될 수 있도록 NeRF를 개선 (paper | tweet)2) LLMs as Generative Agents - LLM을 확장하여 인간과 유사한 행동을 시뮬레이션할 수 있는 에이전트를 구축하는 아키텍처를 제안. 에이전트의 경험을 완전한 기록으로 저장하고 시간에 따라 기억을 고찰(reflecion)로 합성하며, 행동을 계획하기 위해 이를 동적으로 검색하는 것이 가능 (paper | tweet)3) Scientific Research Capabilities of LLMs - 에이전트와 LLM을 결합하여 과학적 실험의 자율적인 설계, 계획 및 실행을 가능하게 함. 촉매된 크로스-커플링 반..