Parcourir la source

fix: use default max_token

zhayujie il y a 3 ans
Parent
commit
f67dae5b0b
1 fichiers modifiés avec 1 ajouts et 1 suppressions
  1. 1 1
      bot/chatgpt/chat_gpt_bot.py

+ 1 - 1
bot/chatgpt/chat_gpt_bot.py

@@ -45,7 +45,7 @@ class ChatGPTBot(Bot):
                 model="gpt-3.5-turbo",  # 对话模型的名称
                 messages=query,
                 temperature=0.9,  # 值在[0,1]之间,越大表示回复越具有不确定性
-                max_tokens=4096,  # 回复最大的字符数
+                #max_tokens=4096,  # 回复最大的字符数
                 top_p=1,
                 frequency_penalty=0.0,  # [-2,2]之间,该值越大则更倾向于产生不同的内容
                 presence_penalty=0.0,  # [-2,2]之间,该值越大则更倾向于产生不同的内容