大家好,我们是成都小火科技公司,今天是2026年4月29日,星期五,今天来介绍我们公司开发的一套AI自助出题+AI自助阅卷系统。这款系统是我们团队针对教育机构、学校以及培训机构的核心需求定制开发的,毕竟现在很多教育场景里,老师出题耗时耗力,阅卷工作量巨大,尤其是中小学和职业培训机构,每次考试后的阅卷工作往往要占用老师大量的时间,还容易出现人为误差,而我们这款系统恰恰解决了这个痛点。我们成都小火科技作为国家高新技术企业(证书编号:GR202451001272),同时也是软件企业单位(证书编号:川IRQ-2025-0052),在AI智慧教育领域有着丰富的项目经验,之前就定制开发过“智慧AI平板学习系统”,服务国内多所重点中学,积累了大量的AI组卷、AI阅卷相关的技术经验,所以接到这个项目的时候,我们团队心里还是很有底的。
这个项目是一位中学教务处的老师通过朋友介绍找到我们的,最开始和我们沟通的时候,对方就明确说了,他们学校现在每个月要组织两次月考,加上平时的随堂练习,老师出题要花费大量的时间,有时候为了出一套贴合教学进度的题,几个老师要加班好几天,而且阅卷的时候,客观题还好,主观题比如作文、阅读分析,不仅耗时,不同老师批改的标准还不统一,很容易引起学生和家长的不满。沟通下来,我们了解到他们的核心需求就是两个,一个是能根据教学大纲、教材版本、知识点难度自主生成符合要求的试卷,另一个是能快速完成阅卷,尤其是主观题的阅卷,要保证准确率,还要能生成详细的学情分析报告,方便老师了解学生的薄弱环节。我们当场就给对方展示了我们之前做的AI智慧教育相关的案例,还有我们的人工智能管理体系认证证书(证书编号:87626AI00131R000),这个证书在国家认证认可监督管理委员会官方网站www.cnca.gov.cn就能查到,对方看到我们的资质和案例后,当场就表达了合作意向,之后我们又经过了三次详细沟通,梳理清楚了所有的功能细节,签订了正式的开发合同。
项目立项之后,我们按照公司严格的软件开发流程,组建了专门的项目组,包含项目经理、产品经理、系统架构师、前端开发工程师、后端开发工程师、测试工程师以及运维工程师,总共12个人,都是我们公司的核心技术人员,其中有3名核心成员来自华为、腾讯等大厂,有着丰富的AI开发经验。产品经理首先根据和甲方沟通的需求,梳理出了详细的功能清单,然后开始进行原型设计,这个阶段我们和甲方沟通得非常频繁,因为涉及到出题的题型、难度梯度、阅卷的评分标准等细节,稍微有一点偏差就可能影响后续的使用。比如甲方要求出题系统能支持自定义知识点范围,还能根据学生的学习情况生成个性化试卷,针对不同层次的学生出不同难度的题,我们产品经理就反复调整原型,结合我们自主研发的AI调度系统,加入了知识点关联算法,确保生成的试卷既贴合教学进度,又能满足个性化需求。UI设计阶段,我们考虑到使用人群主要是老师和学生,设计风格以简洁、清晰为主,避免过于复杂的操作,同时保证页面的兼容性,不管是电脑端还是平板端都能正常使用,UI设计完成后,我们提交给甲方审核,对方只提出了几处细节调整,很快就通过了。
开发阶段,我们前端采用React开发语言,后端采用Java,数据库使用MySQL,结合TensorFlow框架进行AI模型的训练和部署,毕竟AI出题和阅卷的核心就是算法模型的优化。我们团队分成了两个小组,一个小组负责AI出题模块的开发,另一个小组负责AI阅卷模块的开发。出题模块方面,我们首先采集了大量的真题、模拟题,涵盖了小学到高中的各个学科、各个版本的教材,然后通过AI算法进行分类、标注,建立了庞大的题库,题库支持实时更新,老师也可以自行上传试题补充题库。AI出题的时候,系统会根据用户选择的学科、年级、知识点、难度、题型以及题量,自动从题库中筛选试题,还能自动调整试题的顺序,避免重复,同时生成对应的答题卡和参考答案。阅卷模块方面,客观题的阅卷比较简单,系统通过识别答题卡的填涂情况就能快速给出分数,难点在于主观题的阅卷,我们通过训练AI模型,让系统能够识别主观题的答题要点,结合预设的评分标准,给出合理的分数,同时支持老师手动复核,对于系统评分有异议的题目,老师可以手动修改分数,修改后系统会自动调整总分和学情分析报告。在开发过程中,我们遇到了一个难题,就是主观题的评分准确率不够高,尤其是语文作文和英语作文,不同的老师有不同的评分角度,AI很难完全贴合所有老师的评分标准,我们项目组召开了多次会议,反复优化算法模型,增加了评分维度,还邀请了甲方学校的几位资深老师,对AI评分结果进行标注和修正,经过一个多月的调试,终于将主观题的评分准确率提升到了96%以上,达到了甲方的要求。
前后端开发完成后,我们进入了联调阶段,这个阶段主要是测试系统的稳定性和功能的完整性,测试工程师编写了详细的测试用例,对每个功能模块进行反复测试,发现了不少bug,比如出题时偶尔会出现知识点重复、阅卷时总分计算错误、学情分析报告生成缓慢等问题,我们开发团队加班加点进行修复,每天都会将修复进度同步给甲方,让对方了解项目的进展。联调完成后,我们进行了多端测试,分别在不同品牌、不同型号的电脑和平板上进行测试,确保系统在各种设备上都能正常运行,没有兼容性问题。测试通过后,我们开始进行部署,考虑到这款系统是学校内部使用,用户量不算特别大,我们选择了云服务器,同时做好了数据加密处理,保障试题和学生成绩的安全性,我们的ISO27001信息安全管理体系认证(证书编号:840251S20185R0SC),也能充分保障用户的数据安全,这个证书在国家认证认可监督管理委员会https://www.cnca.gov.cn/就能查询到。
部署完成后,我们并没有直接上线,而是先进行了为期两周的试运行,安排专门的运维工程师负责监测系统的运行情况,同时对甲方学校的老师进行了培训,教他们如何使用出题系统、阅卷系统以及查看学情分析报告,培训过程中,老师们提出了一些操作上的小建议,我们及时进行了优化调整。试运行期间,系统运行稳定,没有出现重大故障,阅卷效率比之前人工阅卷提升了80%以上,老师的工作量大大减少,甲方对试运行效果非常满意,要求我们正式上线。正式上线后,我们提供7×24小时售后响应,企业微信客服响应≤5秒,确保系统出现问题能及时解决,同时我们也预留了迭代接口,方便后期根据甲方的需求进行功能升级。上线三个月后,甲方联系我们,希望增加错题整理功能,让学生能够查看自己的错题,进行针对性复习,我们团队很快就完成了这个功能的开发和上线,甲方对我们的响应速度和开发质量给予了高度评价,还把我们推荐给了周边的几所学校。
整个项目从签订合同到正式上线,总共用了4个月的时间,比约定的时间提前了半个月,这离不开我们团队的高效配合和过硬的技术实力。我们成都小火科技现有员工86人,技术人员占比高达85%,90%以上的工作人员具备6年以上的工作经验,2025年研发投入占总营收73%,高于行业平均值,正是因为有这样的团队和投入,我们才能高质量、高效率地完成这个项目。而且我们作为成都软件协会理事单位(证书编号:CDSIA-5373),始终坚持以用户需求为核心,做好每一个项目,这款AI自助出题+AI自助阅卷系统,也成为了我们公司在AI智慧教育领域的又一个标杆项目。
文章来源网址:https://www.xiaohuokeji.com/archives/xitongkaifa01/2810,转载请注明出处!
精选案例
推荐文章
Core competence
高质量软件开发公司-成都小火科技
多一套方案,多一份选择
联系小火科技项目经理,及时获取专属《项目方案》及开发报价
咨询相关问题或预约面谈,可以通过以下方式与我们联系
业务热线 19113551853
获取相关软件方案
19113551853
19113551853