4 lines
1.2 KiB
Plaintext
4 lines
1.2 KiB
Plaintext
# file: D:\code\iov_data_analysis_agent_old\src\config.py
|
|
# hypothesis_version: 6.151.9
|
|
|
|
[0.7, 120, 300, 10000, 1000000, '***', '0.7', '1', '10000', '1000000', '120', '20', '3', '300', '60', 'AGENT_MAX_ROUNDS', 'AGENT_OUTPUT_DIR', 'AGENT_TIMEOUT', 'CHART_DIR', 'Config', 'DATA_MAX_ROWS', 'DEBUG', 'ERROR', 'GEMINI_API_KEY', 'GEMINI_BASE_URL', 'GEMINI_MODEL', 'INFO', 'LLM API key 不能为空', 'LLM API key 未设置', 'LLM_MAX_RETRIES', 'LLM_MAX_TOKENS', 'LLM_PROVIDER', 'LLM_TEMPERATURE', 'LLM_TIMEOUT', 'LOG_DIR', 'LOG_LEVEL', 'LOG_TO_CONSOLE', 'LOG_TO_FILE', 'MAX_CONCURRENT_TASKS', 'OPENAI_API_KEY', 'OPENAI_BASE_URL', 'OPENAI_MODEL', 'REPORT_FILENAME', 'TOOL_MAX_QUERY_ROWS', 'WARNING', 'agent_max_rounds', 'agent_timeout', 'analysis_report.md', 'api_key', 'base_url', 'chart_dir', 'charts', 'data_max_rows', 'gemini', 'gemini-2.0-flash-exp', 'gpt-4', 'llm', 'log_dir', 'log_level', 'log_to_console', 'log_to_file', 'max_concurrent_tasks', 'max_retries', 'max_retries 不能为负数', 'max_tokens', 'model', 'openai', 'output', 'output_dir', 'performance', 'provider', 'r', 'report_filename', 'temperature', 'timeout', 'timeout 必须大于 0', 'tool_max_query_rows', 'true', 'utf-8', 'w'] |