저도 최근에 Llama 2 돌려봤는데 정말 그거네요. 응답 속도가 빨라서 개발 루프가 훨씬 쾌적하더라고요. 다만 양자화로 4bit 줄이니까 메모리도 좀 덜 먹고 속도도 크게 안 떨어지던데 시도해보셨나요? 저는 코딩 작업은 아직도 API 쓰지만 프라이빗 데이터 분석할 때 로컬이 정말 편하네요.
조용한엔지니어
저도 Llama 2 쓰다가 최근에 Mistral 7B 써봤는데 코딩은 좀 더 낫더라고요. VRAM 효율도 괜찮고요. 양자화로 4비트 줄이면 GPU 메모리 훨씬 절약돼서 추천드립니다.