
一、理论教学
理论教学部分依托人工智能虚拟仿真教学子系统,将机器视觉、机器学习、深度学习基础、CV - 卷积神经网络、经典神经网络、NLP - 循环神经网络、CV-NLP-Transformer 及智能分拣综合项目场景等抽象 AI 与工业互联网知识,通过具象化解析、可视化教学、交互式参数设置等方式具象呈现,让学生直观掌握各模块理论内涵与算法逻辑,实现从抽象概念到具象认知的高效学习。
二、实验教学
支持工业互联网(智能分拣)专属实验,学生可自主操作、实时排错,无需依赖实体分拣设备:
· 机器视觉识别实验:开展颜色识别、形状检测、图像轮廓提取等实验,上传分拣货物图像(如颜色块、形状块),调用算法完成特征提取与识别,理解智能分拣的视觉基础;
· 数据采集与处理实验:模拟智能分拣 “采集模式”,动态展示货物图像采集过程,自由切换采集的货物类型(如不同颜色 / 形状货物),保存采集图像;开展数据标注、数据增强实验,若数据量不足则通过增强生成更多训练数据,为模型训练做准备;
· 模型训练与预测实验:基于采集的货物数据,使用机器学习、深度学习算法开展模型训练实验,训练完成后调用模型进行货物类别预测,验证模型识别准确率;
· 逻辑与通信实验:开展 MQTT 数据发送、MQTT 数据接收实验,学习 JSON 数据格式与 MQTT 协议,实现分拣系统中设备间的数据传输;开展 “通信实现设备控制”“设备数据回传” 实验,通过通信接口控制虚拟分拣设备(如推杆),并回传设备运行数据(如图像、激光对管检测数据)。
三、实训教学
覆盖 3 类工业互联网(智能分拣)典型场景,实现 “虚拟设计 - 虚实验证 - 综合开发” 的进阶培养:
· 基础场景实训:2D 模式下完成智能分拣系统搭建 —— 了解系统设备组成;配置视觉相机与分拣设备参数,设定 “图像采集→货物识别→推杆分拣” 逻辑;切换至 3D 场景,查看传送带运行、推杆动作、激光检测等效果,抓取数据帧解析设备间协议交互逻辑;
· 虚实融合实训:可搭配 “AI 工业互联网教学实验平台”实体硬件,该平台含上料台、传送带、摄像头、分类推杆、货物缓存区等实体设备;将虚拟分拣系统的控制指令(如 “识别到红色货物触发 1 号推杆”)下发至真实设备,或读取真实摄像头采集的货物图像、激光对管检测数据,用于虚拟场景验证,兼顾安全训练与真实操作体验;
· 行业综合项目:开展 “智能分拣系统全流程” 实训,含测评系统,具备完整评测标准(可用于课程设计或成绩评估):
1.需求分析:根据工业分拣场景(如电子元件、快递包裹分拣)设定货物识别精度、分拣效率等指标;
2.系统设计:选型图像识别模块、步进电机、推杆等设备,设计 “视觉采集→数据传输→设备控制” 技术架构;
3.开发调试:完成识别服务端 / 客户端代码部署,编写程序集成图像识别算法与设备联动逻辑;
4.成果验证:在 3D 虚拟分拣场景中切换 “分拣模式”,动态查看货物分拣过程,生成分拣准确率、设备运行状态等数据报表,符合工业项目交付标准。
1、支持实验项目管理
在实验项目管理界面,可以查看基础实验、综合项目实验,按顺序路线图由浅到深再到项目学习人工智能,让教学更简单。

2.软件自带人工智能教学环境,无需额外配置环境
软件自带的人工智能环境属于单独存在,不会影响和占用计算机已有的环境,同时也不会修改计算机的环境变量。

3.丰富的人工智能实验组件
实验中通过操作界面左侧的组件列表,将抽象化的虚拟仿真组件模块拖拽到画布上并进行连线。

4.组件高度自定义算法参数修改
组件的参数可自定义,调节不同的算法参数,体会不同的参数带来的区别。

5.智能验证及错误提示
组件连接后,系统会校验逻辑错误,提示出错原因,帮助用户快速定位并修改。

6.内置配套实验文档
软件内置实验文档,可实时查看,用户可随时点击打开当前实验文档,对照操作步骤进行实验。
7.动态代码生成
点击画布上的生成Python代码,查看实验代码与算法,解决教学中理论与代码割裂问题。

8.动态结果展示
优化迭代过程实时显示,让用户直观了解学习过程。

9.支持人工智能3D视觉场景项目实施
支持3D视觉场景的项目,具有多功能视觉采集台,实现颜色块、形状块、二维码、车牌、手势、数字块等内容的自由放置,用户可以通过算法以及逻辑对3D场景控制和功能实现。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。

10.支持人工智能3D语音场景项目实施
支持3D语音场景的项目,具有多功能语音播放台,实现鸟叫声、人声等内容的,用户可以通过算法以及逻辑对3D场景控制和功能实现。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。

11.支持人工智能3D项目场景项目实施
支持3D项目场景的项目,拥有分拣系统场景、垃圾分类场景等,提供类硬件支撑,用户可以通过算法以及逻辑对3D场景控制和功能实现,3D场景还支持数据集的采集和存储,方便用户通过场景采集原始数据。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。



12.Scratch逻辑学习通过拖拽积木的形式学习分拣系统场景的逻辑搭建以及代码生成。

13.大模型工作流编排
零代码工作流,可接入对话大模型、多模态大模型、embbeding模型、rerank模型等几十种,可自定义工作流,组件随意组合,完成大模型应用开发。
14.大模型知识库建设
支持多格式文档处理、高效检索、多场景应用。
15.支持数据标注/模型查看等工具
软件集成模型查看工具、数据标注工具等,可以直接使用软件进行AI开发的相关内容。支持支持多种深度学习模型文件格式。



一、基础实验
1.机器学习
2.深度学习
3.NLP-循环神经网络
4.CV-NLP-Transformer
5.机器视觉
6.CV-卷积神经网络
7.经典神经网络
二、高级应用
1.大模型工作流编排
2.基础视觉应用
3.基础语音应用
三、进阶实验
1.逻辑实验
2.算法实验
3.Python开发与应用
4.深度学习与神经网络-PyTorch2
5.深度学习与神经网络-TensorFlow
四、综合项目案例介绍
智能分拣系统综合项目
具身智能-机械臂项目
智能垃圾分类系统综合项目
智慧城市系统项目
智能对话系统项目
工业互联网虚拟仿真聚焦高校专业教学需求,构建 “理论具象化 - 实验场景化 - 实训产业化” 三位一体方案。依托2D与3D结合、AI 视觉感知等技术,将工业智能分拣真实场景转化为交互教学内容,助力高校培养兼具理论与实战能力的工业互联网技术人才。

一、理论教学
理论教学部分依托人工智能虚拟仿真教学子系统,将机器视觉、机器学习、深度学习基础、CV - 卷积神经网络、经典神经网络、NLP - 循环神经网络、CV-NLP-Transformer 及智能分拣综合项目场景等抽象 AI 与工业互联网知识,通过具象化解析、可视化教学、交互式参数设置等方式具象呈现,让学生直观掌握各模块理论内涵与算法逻辑,实现从抽象概念到具象认知的高效学习。
二、实验教学
支持工业互联网(智能分拣)专属实验,学生可自主操作、实时排错,无需依赖实体分拣设备:
· 机器视觉识别实验:开展颜色识别、形状检测、图像轮廓提取等实验,上传分拣货物图像(如颜色块、形状块),调用算法完成特征提取与识别,理解智能分拣的视觉基础;
· 数据采集与处理实验:模拟智能分拣 “采集模式”,动态展示货物图像采集过程,自由切换采集的货物类型(如不同颜色 / 形状货物),保存采集图像;开展数据标注、数据增强实验,若数据量不足则通过增强生成更多训练数据,为模型训练做准备;
· 模型训练与预测实验:基于采集的货物数据,使用机器学习、深度学习算法开展模型训练实验,训练完成后调用模型进行货物类别预测,验证模型识别准确率;
· 逻辑与通信实验:开展 MQTT 数据发送、MQTT 数据接收实验,学习 JSON 数据格式与 MQTT 协议,实现分拣系统中设备间的数据传输;开展 “通信实现设备控制”“设备数据回传” 实验,通过通信接口控制虚拟分拣设备(如推杆),并回传设备运行数据(如图像、激光对管检测数据)。
三、实训教学
覆盖 3 类工业互联网(智能分拣)典型场景,实现 “虚拟设计 - 虚实验证 - 综合开发” 的进阶培养:
· 基础场景实训:2D 模式下完成智能分拣系统搭建 —— 了解系统设备组成;配置视觉相机与分拣设备参数,设定 “图像采集→货物识别→推杆分拣” 逻辑;切换至 3D 场景,查看传送带运行、推杆动作、激光检测等效果,抓取数据帧解析设备间协议交互逻辑;
· 虚实融合实训:可搭配 “AI 工业互联网教学实验平台”实体硬件,该平台含上料台、传送带、摄像头、分类推杆、货物缓存区等实体设备;将虚拟分拣系统的控制指令(如 “识别到红色货物触发 1 号推杆”)下发至真实设备,或读取真实摄像头采集的货物图像、激光对管检测数据,用于虚拟场景验证,兼顾安全训练与真实操作体验;
· 行业综合项目:开展 “智能分拣系统全流程” 实训,含测评系统,具备完整评测标准(可用于课程设计或成绩评估):
1.需求分析:根据工业分拣场景(如电子元件、快递包裹分拣)设定货物识别精度、分拣效率等指标;
2.系统设计:选型图像识别模块、步进电机、推杆等设备,设计 “视觉采集→数据传输→设备控制” 技术架构;
3.开发调试:完成识别服务端 / 客户端代码部署,编写程序集成图像识别算法与设备联动逻辑;
4.成果验证:在 3D 虚拟分拣场景中切换 “分拣模式”,动态查看货物分拣过程,生成分拣准确率、设备运行状态等数据报表,符合工业项目交付标准。
1、支持实验项目管理
在实验项目管理界面,可以查看基础实验、综合项目实验,按顺序路线图由浅到深再到项目学习人工智能,让教学更简单。

2.软件自带人工智能教学环境,无需额外配置环境
软件自带的人工智能环境属于单独存在,不会影响和占用计算机已有的环境,同时也不会修改计算机的环境变量。

3.丰富的人工智能实验组件
实验中通过操作界面左侧的组件列表,将抽象化的虚拟仿真组件模块拖拽到画布上并进行连线。

4.组件高度自定义算法参数修改
组件的参数可自定义,调节不同的算法参数,体会不同的参数带来的区别。

5.智能验证及错误提示
组件连接后,系统会校验逻辑错误,提示出错原因,帮助用户快速定位并修改。

6.内置配套实验文档
软件内置实验文档,可实时查看,用户可随时点击打开当前实验文档,对照操作步骤进行实验。
7.动态代码生成
点击画布上的生成Python代码,查看实验代码与算法,解决教学中理论与代码割裂问题。

8.动态结果展示
优化迭代过程实时显示,让用户直观了解学习过程。

9.支持人工智能3D视觉场景项目实施
支持3D视觉场景的项目,具有多功能视觉采集台,实现颜色块、形状块、二维码、车牌、手势、数字块等内容的自由放置,用户可以通过算法以及逻辑对3D场景控制和功能实现。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。

10.支持人工智能3D语音场景项目实施
支持3D语音场景的项目,具有多功能语音播放台,实现鸟叫声、人声等内容的,用户可以通过算法以及逻辑对3D场景控制和功能实现。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。

11.支持人工智能3D项目场景项目实施
支持3D项目场景的项目,拥有分拣系统场景、垃圾分类场景等,提供类硬件支撑,用户可以通过算法以及逻辑对3D场景控制和功能实现,3D场景还支持数据集的采集和存储,方便用户通过场景采集原始数据。
3D场景留有相应的开放性接口,支持用户编写逻辑代码以及算法代码接入到3D场景中,以实现相应的开发。



12.Scratch逻辑学习通过拖拽积木的形式学习分拣系统场景的逻辑搭建以及代码生成。

13.大模型工作流编排
零代码工作流,可接入对话大模型、多模态大模型、embbeding模型、rerank模型等几十种,可自定义工作流,组件随意组合,完成大模型应用开发。
14.大模型知识库建设
支持多格式文档处理、高效检索、多场景应用。
15.支持数据标注/模型查看等工具
软件集成模型查看工具、数据标注工具等,可以直接使用软件进行AI开发的相关内容。支持支持多种深度学习模型文件格式。
Copyright©2004-2025,北京华清远见科技发展有限公司版权所有,京ICP备16055225号-4,京公海网安备11010802025287