llm-chat/backend/.env.example

22 lines
406 B
Plaintext

# 服务器配置
PORT=3000
NODE_ENV=development
# 数据库配置
DB_PATH=./database/chat.db
# LLM API配置 (需要用户配置)
LLM_API_BASE_URL=https://api.openai.com/v1
LLM_API_KEY=your_api_key_here
LLM_MODEL=gpt-3.5-turbo
# 缓存配置
CACHE_MAX_SIZE=500
CACHE_TTL=1800000
# 速率限制配置
RATE_LIMIT_WINDOW_MS=60000
RATE_LIMIT_MAX_REQUESTS=20
# CORS配置
CORS_ORIGIN=http://localhost:5173