optimization(2)
-
LLM 정확도 최적화 위한 멘탈 모델(작성중)
개요 해당 글은 OpenAI Platform documentation에 있는 항목을 번역해오며 첨언한 글입니다. 👉 출처: Optimizing LLMs for accuracy LLM 활용시, 정확도 & 일관성 2마리 🐰 잡기 ✅ OpenAI에서 많은 스타트업 & 대기업 개발자와 작업해 본 결과, LLM 최적화는 다음과 같은 이유들로 어려움정확도 최적화 어떻게 시작해야 하는지언제, 어떤 최적화 방법 사용할 것인지배포에 적합한 정확도 수준은 어느 정도인지✅ 이 글에서는 LLM의 정확도와 동작 위한 최적화 방법에 대한 mental 모델 제공더보기Mental Model👉 참고: AI Design Guide #3. 멘탈모델 AI Design Guide #3. 멘탈모델인공지능 디자인하기 5단계 중 3단계 (멘탈모델..
2024.09.12 -
PEFT(효율적 파라미터 파인 튜닝) 활용한 성능 최적화: 프롬프트 튜닝 딥다이브
이 게시글은 2023년 11월 27일 Akriti Upadhyay가 medium에 게재한 "Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning" 글에 대한 번역과 함께 첨언한 내용임을 밝힙니다. 👉원문: "Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning" Optimizing Performance with PEFT: A Deep Dive into Prompt Tuning Elevate Your Language Model’s Performance with Advanced Prompt Optimization medium.com 목차는 다음과 같습니다. 앞에서는 관련 개념을 설명한..
2023.12.13