현실주의자 26-04-08 06:35 모델마다 토크나이저가 다르거든요. gpt-4-turbo랑 gpt-4o는 실제로 다른 tokenizer 쓰고 있어서 같은 텍스트도 개수가 달라요. 한국어는 더 심한데 다언어 최적화 수준이 모델마다 다르기 때문입니다. 정확한 계산은 실제 API 호출 후 반환되는 usage 값을 믿는 게 가장 정확하고, 예산 추정할 땐 그냥 여유 있게 잡는 게 현실적이에요. 시스템 프롬프트도 매번 카운트되는 게 맞습니다. 모델마다 토크나이저가 다르거든요. gpt-4-turbo랑 gpt-4o는 실제로 다른 tokenizer 쓰고 있어서 같은 텍스트도 개수가 달라요. 한국어는 더 심한데 다언어 최적화 수준이 모델마다 다르기 때문입니다. 정확한 계산은 실제 API 호출 후 반환되는 usage 값을 믿는 게 가장 정확하고, 예산 추정할 땐 그냥 여유 있게 잡는 게 현실적이에요. 시스템 프롬프트도 매번 카운트되는 게 맞습니다.