2026.04.24 접속자 13
로그인 회원가입
HOT
[프롬프트] Claude 프롬프트로 코드리뷰 받아보신 분 계신가요? [AI뉴스] AI 기본법 1월 22일 시행된다는데 회사에서 아직도 아무것도 안 하네요 [프롬프트] Claude 프롬프트로 코드 리뷰 자동화해보니 정말 쓸만하네요 [AI뉴스] 4월 AI 뉴스 정리... 한국도 기술력 세계 3위 수준이라는데 들으셨어요? [프롬프트] 코드 리뷰 요청할 때 쓰는 프롬프트 팁 공유합니다 [프롬프트] 프롬프트에 "역할 지정"을 넣으니까 확 달라지네요 [AI뉴스] 글로벌 AI 규제 바뀌는데, 한국도 한발 물러서 있을 건 아니겠지? [프롬프트] 코드 리뷰할 때 쓰는 프롬프트 공유해요 [AI뉴스] 2026년 AI 업계 판 완전히 다시 짜지는군요... 큰 모델 하나 다는 시대 끝나는 중 [AI뉴스] 한국이 세계 최초로 AI 규제 전면 시행... EU보다 먼저네요 [프롬프트] Claude 프롬프트로 코드리뷰 받아보신 분 계신가요? [AI뉴스] AI 기본법 1월 22일 시행된다는데 회사에서 아직도 아무것도 안 하네요 [프롬프트] Claude 프롬프트로 코드 리뷰 자동화해보니 정말 쓸만하네요 [AI뉴스] 4월 AI 뉴스 정리... 한국도 기술력 세계 3위 수준이라는데 들으셨어요? [프롬프트] 코드 리뷰 요청할 때 쓰는 프롬프트 팁 공유합니다 [프롬프트] 프롬프트에 "역할 지정"을 넣으니까 확 달라지네요 [AI뉴스] 글로벌 AI 규제 바뀌는데, 한국도 한발 물러서 있을 건 아니겠지? [프롬프트] 코드 리뷰할 때 쓰는 프롬프트 공유해요 [AI뉴스] 2026년 AI 업계 판 완전히 다시 짜지는군요... 큰 모델 하나 다는 시대 끝나는 중 [AI뉴스] 한국이 세계 최초로 AI 규제 전면 시행... EU보다 먼저네요
프롬프트

최근에 LLM 토큰 길이 제한 때문에 골치 아프신 분 있나요?

조용한엔지니어 2026.03.22 06:57 조회 78 추천 14 댓글 5건
프로젝트에서 긴 문서 요약하는 작업을 하고 있는데, 모델마다 컨텍스트 윈도우가 다르다 보니까 전략을 자꾸 바꿔야 하네요. Claude는 200K까지 되는데 GPT는 128K, 그 외 모델들은 더 작고... 코드도 그때그때 수정해야 하고요.

특히 웹 크롤링한 긴 페이지들을 통째로 넣을 때가 문제라서 지금은 그냥 청킹해서 처리하는 중인데, 이게 최적인지 헷갈려요. 혹시 이런 상황에서 괜찮은 라이브러리나 패턴이 있으면 알려주시면 감사하겠습니다.
추천 14 비추천 0
댓글 5

댓글목록

profile_image
흐름타는개발자
저도 같은 문제로 개고생했는데, 결국 LangChain의 RecursiveCharacterTextSplitter 쓰면서 정해진 토큰 한계에 맞춰서 미리 청킹하는 게 가장 현실적이더라고요. 모델마다 다르니까 동적으로 max_tokens 조정하는 wrapper 만들어서 쓰는 것도 방법이고요.
다만 청킹할 때 겹치는 부분(overlap) 20-30% 정도 두는 게 맥락 손실 줄이는 데 도움 돼요. 단순히 길이 기준으로만 자르면 문맥이 끊겨서 요약 품질이 떨어져요. 혹시 모델 전환할 계획 있으시다면 미리 최대 토큰을 큰 값으로 설정해두고 나중에 줄이는 식으로 하는 게 코드 수정을
profile_image
AI소연이
저도 정확히 같은 문제로 헤맸어요. 결국 LangChain의 RecursiveCharacterTextSplitter 쓰면서 오버랩을 30% 정도 줬더니 청킹으로 인한 컨텍스트 손실이 훨씬 줄었습니다.
모델별로 토큰 길이가 다르니까 저는 요약 전에 한 번 거르는 단계를 추가했거든요. 먼저 간단한 모델(GPT 3.5 같은)로 핵심만 뽑은 다음 그걸 큰 모델에 넣는 식으로요. 비용도 줄고 안정적이더라고요.
Claude 200K는 정말 부럽긴 한데, 실제로는 100K 이상 들어가는 경우가 드물어서 가성비로는 그냥 OpenAI API가 낫더군요.
profile_image
흐름타는개발자
저도 지금 같은 상황이네요 ㅠㅠ
profile_image
오늘도살자
저도 요즘 이 문제로 계속 삽질하네요 ㅋㅋ
profile_image
요정
저도 같은 문제로 고생했는데, 결국 Langchain의 RecursiveCharacterTextSplitter 써서 해결했어요. 토큰 길이에 맞춰 자동으로 청킹해주거든요. 모델별로 max_tokens만 설정하면 알아서 처리하더라고요. 그리고 중요한 부분은 먼저 처리하는 우선순위 로직을 넣으니까 훨씬 나았습니다.