프롬프트 실행
Last updated
Last updated
GPT 모델
GPT 모델 선택
프롬프트
명령 프롬프트 내용
MaxToken
메세지 값을 반환할 최대 토큰 수
모델별 최소, 최대 토큰값 설정 확인
Temperature
모델의 응답 생성 과정에서 무작위성 제어값
범위 : 0.0 ~ 2.0 (기본값 1)
Top P
응답 생성 시 확률분포 상위 p에 해당하는 단어만 샘플링에 포함하도록 제한하는 매개변수 값
범위 : 0.0 ~ 1.0 (기본값 1)
N
요청 시 생성할 응답의 수
양의 정수 (기본값 1)
Precense penalty
이전에 언급되지 않은 주제를 모델이 탐색하도록 장려하는 매개변수값 지정
범위 : -2.0 ~ 2.0 (기본값 0)
Frequency penalty
동일한 단어나 구문이 반복되지 않도록 제어하는 매개변수
범위 : -2.0 ~ 2.0 (기본값 0)
User
요청에 사용자를 식별하는 문자열을 포함할 수 있는 매개변수 (선택)
id
응답 요청의 고유 식별자
object
응답 객체의 타입으로, GPT의 대화형 응답
created
응답이 생성된 Unix 타임스탬프(초 단위)
model
응답을 생성하는 데 사용된 GPT 모델의 이름
system_fingerprint
시스템의 고유 지문(fingerprint)으로, 시스템 내부 로깅 및 추적을 위한 값
choices[].index
응답의 순서(index). 하나의 요청에 여러 응답이 있을 경우를 구분합니다
choices[].message.role
메시지를 생성한 주체의 역할(role)
choices[].message.content
생성된 응답 내용
choices[].logprobs
응답 생성 중 사용된 로그 확률 정보(log probabilities)
choices[].finish_reason
응답 생성을 중단한 이유
usage.prompt_tokens
입력 프롬프트(prompt)에 사용된 토큰의 개수
usage.completion_tokens
생성된 응답(completion)에 사용된 토큰의 개수
usage.total_tokens
입력 프롬프트와 응답을 합한 총 토큰의 개수
usage.completion_tokens_details.reasoning_tokens
응답 생성 중 추론(reasoning)에 사용된 토큰 수
usage.completion_tokens_details.accepted_prediction_tokens
모델이 예측한 결과 중 수락된 예측 토큰 수
usage.completion_tokens_details.rejected_prediction_tokens
모델이 예측한 결과 중 거부된 예측 토큰 수