generated from Python-2026Spring/assignment-05-final-project-template
7.4 KiB
7.4 KiB
期末项目评分标准
💯 总分:25 分
本文档详细说明评分系统如何评估你的项目,请仔细阅读。
总览
| 评估维度 | 分值 | 评估内容 |
|---|---|---|
| 📄 文档质量 | 8 分 | REPORT.md (5分) + CHANGELOG.md (3分) |
| ⚡ 功能表现 | 12 分 | 运行 manifest.yaml 中的命令,评估输出 |
| 🔧 代码质量 | 5 分 | 评估代码结构、可读性、安全性 |
⚠️ 必选功能(重要!)
以下 5 项功能是必选要求,缺少任何一项都会严重影响得分:
| 必选功能 | 说明 | 缺失后果 |
|---|---|---|
| LLM 集成 | 必须调用 DeepSeek/OpenAI API | ❌ 功能分最高 5/12,代码结构最高 1/2 |
| 外部数据交互 | 文件读写或其他 API 调用 | 影响核心功能评分 |
| 数据处理逻辑 | 有实质性数据操作,不只是透传 | 影响核心功能评分 |
| 用户交互 | CLI (argparse) 或 Web (Streamlit) | 影响用户体验评分 |
| 错误处理 | 无效输入不会导致程序崩溃 | 影响错误处理评分 |
🚨 LLM 集成是最重要的必选项! 没有 LLM 功能的项目将被视为不符合基本要求。
📄 文档质量评分(8 分)
REPORT.md 反思报告(5 分)
| 评分项 | 分值 | 满分标准 | 零分情况 |
|---|---|---|---|
| 项目定位 | 1 分 | 清楚说明解决什么问题、目标用户、为什么值得做 | 只说"完成作业"或占位符 [在此填写] |
| 技术决策 | 2 分 | 有技术选型对比表、选择理由、有效的 Prompt 示例、AI 帮不了的思考 | 模板 [例:JSON] 未替换,或"与 AI 协作"部分空白 |
| 迭代成长 | 1 分 | 描述真实遇到的挑战、尝试的方案、学到的经验 | 空洞的占位符或流水账 |
| 自我反思 | 1 分 | 诚实评价项目优缺点,有具体的遗憾点 | 套话"收获很大"或空白 |
技术决策详细说明(2分项)
这一项评估两部分内容:
1. 技术选型(1分)
- 填写技术选型表格(数据存储、用户界面、LLM提供商等)
- 说明考虑过的替代方案和选择理由
- 描述最难的技术决策
2. 与 AI 协作(1分)
- 展示一个你写得好的 Prompt 示例
- 解释为什么这个 Prompt 有效
- 说明 AI 帮不了、必须你自己思考的地方
CHANGELOG.md 版本记录(3 分)
| 分数 | 标准 |
|---|---|
| 3 分 | 3+ 个版本,每版有实质变化,日期真实(如 2024-12-06),详细描述改动原因 |
| 2 分 | 2 个版本,能看出迭代过程 |
| 1 分 | 1 个版本或记录过于简略 |
| 0 分 | 无记录,或日期是 YYYY-MM-DD、内容是 XXX功能 等占位符 |
⚡ 功能表现评分(12 分)
评测系统会运行你在 manifest.yaml 中声明的命令,根据输出评分。
核心功能(4 分)
| 分数 | 标准 |
|---|---|
| 4 分 | demo 命令展示 5+ 个功能,功能间有数据流转(添加→查询→分析→导出),LLM 是核心流程,输出有格式化 |
| 3 分 | 功能完整,包含有效的 LLM 集成,输出正确清晰 |
| 2 分 | 主要功能可用,但 LLM 功能缺失或无效(这是缺少 LLM 时的最高分!) |
| 1 分 | 部分功能可用,有明显 bug |
| 0 分 | 输出模板提示"🚧 项目待实现",或只有 --help |
LLM 集成(3 分)
⚠️ 这是必选功能! 此项为 0 分意味着项目不符合基本要求。
| 分数 | 标准 |
|---|---|
| 3 分 | LLM 基于用户数据做个性化分析,输出 50 字以上有实质内容,去掉 LLM 产品价值显著降低 |
| 2 分 | LLM 调用成功,返回有意义的内容,与用户数据相关 |
| 1 分 | LLM 返回通用模板内容,或输出过短(<20字),与用户数据无关 |
| 0 分 | 无 LLM 调用,或完全失败 ❌ |
错误处理(3 分)
| 分数 | 标准 |
|---|---|
| 3 分 | 全部无 Traceback,有自定义友好提示(如"错误:日期格式无效,请使用 YYYY-MM-DD") |
| 2 分 | 无 Traceback 崩溃,有错误提示(可能是 argparse 默认或简单 Error) |
| 1 分 | 有 1-2 个命令仍导致 Traceback,或只打印默认错误 |
| 0 分 | 无效输入导致 Python Traceback 崩溃 |
用户体验(2 分)
| 分数 | 标准 |
|---|---|
| 2 分 | --help 有使用示例,输出有格式化(表格/分隔线/emoji),有成功/失败状态提示 |
| 1 分 | 基本可用,有 --help 帮助信息 |
| 0 分 | 难以使用,无帮助信息,输出混乱 |
🔧 代码质量评分(5 分)
代码结构(2 分)
| 分数 | 标准 |
|---|---|
| 2 分 | 结构清晰,有多个模块(如 storage.py, llm.py, main.py),包含 LLM 调用代码 |
| 1 分 | 有业务代码但都在一个文件,或缺少 LLM 调用代码 |
| 0 分 | 模板代码未修改,只有 print("🚧 项目待实现") |
代码可读性(2 分)
| 分数 | 标准 |
|---|---|
| 2 分 | 变量命名规范(如 diary_content),关键位置有注释 |
| 1 分 | 变量名基本可理解,有部分注释 |
| 0 分 | 变量名无意义(如 a, b, x),无注释 |
安全性(1 分)
| 分数 | 标准 |
|---|---|
| 1 分 | 使用 os.getenv() 获取 API Key,有 .env.example 文件 |
| 0 分 | API Key 硬编码在代码中(如 api_key = "sk-xxx") |
🎯 得分指南
满分项目特征(25 分)
- ✅ REPORT.md 有真实的项目思考,技术决策有对比,与 AI 协作有具体例子
- ✅ CHANGELOG.md 有 3+ 版本,清晰记录迭代过程
- ✅ manifest.yaml 命令都能成功运行,输出有意义
- ✅ LLM 功能明显提升产品价值
- ✅ 错误处理完善,用户体验好
- ✅ 代码结构清晰,多模块分工,安全处理 API Key
及格项目特征(15 分左右)
- ✅ 文档基本填写,有一定内容
- ✅ 核心功能可以运行
- ✅ 有 LLM 功能但可能不够完善
- ⚠️ 错误处理一般
- ⚠️ 代码组织一般
不及格项目特征(<12 分)
- ❌ 文档是模板占位符
- ❌ 没有 LLM 功能(直接不满足必选要求)
- ❌ 功能无法运行或输出模板提示
- ❌ 代码是模板原样
常见扣分点
| 问题 | 影响 |
|---|---|
文档是占位符([在此填写]、YYYY-MM-DD、XXX功能) |
对应评分项 0 分 |
| 没有 LLM 功能 | 功能分最高 5/12,代码结构最高 1/2 |
| 命令输出"🚧 项目待实现" | 核心功能 0 分 |
| manifest.yaml 未修改(项目名是"你的项目名称") | 所有功能分 0 分 |
| API Key 硬编码 | 安全性 0 分 |
| 无效输入导致 Traceback | 错误处理减分 |
自检清单
提交前请确认:
manifest.yaml已修改,项目名称和描述是真实的- 所有 demo 命令都能成功运行
- 至少有一个命令展示 LLM 功能
- 错误处理命令不会导致程序崩溃
REPORT.md所有部分都已填写,无占位符CHANGELOG.md有真实日期和具体内容- API Key 使用环境变量,有
.env.example文件 - 代码有合理的模块划分
💡 提示:评分系统使用 LLM 评估,它会仔细阅读你的文档和代码。真实、具体的内容会得到认可,模板和套话会被识别为未完成。