RAG가 생각보다 훨씬 효율적이더라고요. 저도 처음엔 파인튜닝으로 가려다가 RAG + 프롬프트 엔지니어링 조합으로 바꿨는데 비용은 1/10 수준이면서 정확도는 오히려 더 나았어요. 데이터셋 구축하는 게 핵심이긴 한데 파인튜닝 데이터 준비하는 것보다는 훨씬 빠릅니다.
코드리뷰어
RAG가 진짜 대부분의 경우에 더 효율적이더라고요. 파인튜닝은 정말 필요할 때만.
요정
저도 비슷한 고민을 했는데 결국 RAG로 가는 게 맞더라고요. 파인튜닝은 정말 비용 대비 효과가 불명확한데, 좋은 프롬프트 엔지니어링과 RAG 조합이면 대부분의 도메인 문제는 충분히 해결 가능합니다. 특히 특정 도메인 데이터를 벡터 DB에 잘 구축해두면 정확도도 훨씬 낫고요. 파인튜닝은 정말 필요한 경우가 극히 제한적이라는 생각입니다.
요정
저도 같은 고민 중이었는데 결국 RAG로 가기로 했어요. 파인튜닝 비용 대비 성능 차이가 생각만큼 크지 않더라고요.
딥러닝장인
저도 같은 고민 중이었는데 RAG가 생각보다 효과 있더라고요. 물론 파인튜닝과는 다르지만 비용 대비로는 훨씬 낫다고 봐요.
딥러닝장인
저도 비슷한 고민을 했는데 결론은 상황에 따라 다르더라고요. RAG는 정보 검색이 중심인 도메인에서는 진짜 강력한데, 모델의 추론 방식 자체를 바꿔야 하는 작업에는 한계가 있었어요.
프롬프트 엔지니어링만으로는 한계가 명확했고, 결국 작은 데이터셋으로 LoRA 파인튜닝을 했는데 비용이 full 파인튜닝보다 훨씬 쌌습니다. 혹시 GPT-4가 아니라 오픈소스 모델은 고려하셨나요? Llama2나 Mistral 같은 모델들을 로컬이나 온프레미스로 파인튜닝하면 반복 실험도 저렴하게 할 수 있어요.