2026.04.28 접속자 18
로그인 회원가입
HOT
[프롬프트] LLM한테 코드 리뷰 받을 때 쓰는 프롬프트 공유 [AI뉴스] 오픈AI가 GPT-6 내일 출시한다는데 성능이 진짜 대박이라네요 [AI뉴스] 이제 AI는 시켜야 할 걸 하는 에이전트 시대네요 [프롬프트] 챗봇한테 물어보는 방식 좀 바꿨더니 답변이 달라지더라고요 [프롬프트] GPT한테 물어볼 때 이렇게 하니까 답이 훨씬 낫더라요 [프롬프트] 문서 작성할 때 쓰는 프롬프트 공유합니다 [프롬프트] 영어 문서 번역할 때 쓰는 프롬프트 공유합니다 [기술 Q&A] LLM 로컬 배포하다가 느낀 거 공유합니다 [자유게시판] 편의점 야식으로 자취생 살리는 메뉴 뭐가 있나요 [AI뉴스] 요즘 오픈소스 AI 모델들이 미쳤네요... 구글 젬마4, 알리바바 큐원 근황 [프롬프트] LLM한테 코드 리뷰 받을 때 쓰는 프롬프트 공유 [AI뉴스] 오픈AI가 GPT-6 내일 출시한다는데 성능이 진짜 대박이라네요 [AI뉴스] 이제 AI는 시켜야 할 걸 하는 에이전트 시대네요 [프롬프트] 챗봇한테 물어보는 방식 좀 바꿨더니 답변이 달라지더라고요 [프롬프트] GPT한테 물어볼 때 이렇게 하니까 답이 훨씬 낫더라요 [프롬프트] 문서 작성할 때 쓰는 프롬프트 공유합니다 [프롬프트] 영어 문서 번역할 때 쓰는 프롬프트 공유합니다 [기술 Q&A] LLM 로컬 배포하다가 느낀 거 공유합니다 [자유게시판] 편의점 야식으로 자취생 살리는 메뉴 뭐가 있나요 [AI뉴스] 요즘 오픈소스 AI 모델들이 미쳤네요... 구글 젬마4, 알리바바 큐원 근황
프롬프트

LLM 토큰화 방식 차이 때문에 같은 프롬프트인데 결과가 왜 다를까요?

요정 2026.04.24 15:51 조회 17 추천 3 댓글 1건
요즘 GPT-4, Claude, Gemini 여러 모델을 돌려보고 있는데 같은 프롬프트를 던져도 결과가 꽤 다르더라고요. 처음엔 단순히 모델 성능 차이라고 생각했는데, 토큰화 방식 때문인 건 아닐까 싶어서 질문 올립니다.

예를 들어서 한국어 프롬프트를 쓸 때 GPT-4는 꽤 깔끔하게 이해하는데, 같은 내용을 Gemini에 보내면 약간 어색한 답변이 나올 때가 있거든요. 물론 한국어 학습 데이터 양이 다를 수도 있겠지만, 혹시 토큰 분할 방식이 다르면 그게 결과에 영향을 미친다는 게 가능할까요?

BPE 토큰화랑 SentencePiece 같은 방식들이 있다고 알고 있는데, 실제로 이게 모델의 이해도나 생성 품질에 얼마나 차이를 만드는지 궁금해요. 혹은 더 큰 요소들이 있어서 토큰화는 거의 무시해도 되는 부분일 수도 있고요.

요즘 각 모델들의 토큰화 방식을 비교해본 분이 있으면 경험담 좀 나눠주세요. 특히 멀티링구얼 모델들 쓰다가 차이를 느껴본 분들 말이에요. 아니면 이 부분에 대해 좀 더 자세히 설명해줄 수 있는 분이 있으면 감사하겠습니다.
추천 3 비추천 0
댓글 1

댓글목록

profile_image
GPT덕후하나
토큰화도 영향은 있는데 제 생각엔 그것보다 학습 데이터 구성이 훨씬 크다고 봐요. GPT-4는 한국어 데이터가 상대적으로 많이 들어가 있고, Gemini는 다국어를 고르게 학습시키다 보니 각 언어에서 깊이가 떨어지는 느낌이거든요.
실제로 토큰 분할 방식(BPE vs SentencePiece)이 생성 품질에 직접적인 영향을 주기보다는, 같은 의미가 더 많은 토큰으로 분할되면 context length를 더 써서 간접적으로 영향을 미친다고 봐요. 한국어 같은 경우 어떤 모델은 한 글자가 여러 토큰으로 쪼개져서 효율성이 떨어질 수 있죠.
한번 같은 프롬