文卓你好。
很高兴你对这个项目已经有这样的认识,非常好。
不过,还可以再深入一些,比如打包确实可能难度很大,具体到打包的过程,哪里有可能成为项目的关键点,这个问题不用着急回答,可以随着了解打包过程、mlpack的编译思考。 另外,还有一些点需要考虑: 1.用mlpack实现神经网络算法的难度,提出使用不同的算法来训练模型是很好的,需要评估下每个算法的可行性与难度。 2.是否有aarch64的开发环境; 3.mlpack是否支持aarch64; 4.你在编译、使用aarch64的过程中如果遇到问题怎么办; 我看你的计划基本以周为单位,如果不同任务难度和工作量不同,应该相应的调节时间。
这次活动项目很多,有不同的开源项目,也有openeuler也提供了不同的项目,sig-ai-bigdata也一并发布了几个ai和bigdata的项目,欢迎推荐给身边的同学、朋友参与。
有时间我们可以电话聊一下,我的手机是15895997380.
祝好。
在 2020-06-08 09:28:31,"刘文卓" lwzbill@foxmail.com 写道:
sinever 老师您好,
非常感谢您的指导!
我正在准备报名材料,已经订阅了 tc, dev 和 sig-ai-bigdata 三个邮件列表。 你认为这个项目可能的困难点是哪里。 关于项目的困难点,我认为难度最大的部分可能是软件包的打包过程,我目前正在阅读 openEuler 社区的 打包指南,我会尽量让项目产出的软件包符合这个标准。 Mlpack当前支持哪些AI算法。 我查阅了 mlpack 的文档,发现它支持的AI算法真不少,其中我比较眼熟的有 KNN,KMeans,SVM,朴素贝叶斯,决策树,神经网络等算法。我选择 SVM,NN,CNN 这三种算法的原因是,我在 MNIST 数据集的 官网 上看到作者列出了几大类算法在 MNIST 上的表现。SVM,NN,CNN 占据了其中的大部分位置,它们的表现也非常优秀。我想选择这几种算法,应该会让模型的效果更有保证。 对三种模型进行哪些指标的对比。 我目前的想法是,对于模型的效果,我会比较准确率,F1-score;对于模型的性能,我会比较推理速度,内存占用。对于模型的训练,我会比较训练时间和收敛速度。
感谢您提出的问题,让我对项目有了更深的理解。我根据问题对计划书进行了补充,附在附件中。
祝工作顺利。 刘文卓 ------------------ Original ------------------ From: "sinever"sinever@126.com; Date: Thu, Jun 4, 2020 01:58 PM To: "刘文卓"lwzbill@foxmail.com; Subject: 回复:暑期2020项目提案-ID:2021218-华中科技大学-刘文卓
刘文卓同学你好.
现在活动已经正式开始接受报名,欢迎通过官方网站https://isrc.iscas.ac.cn/summer2020/%E6%8A%A5%E5%90%8D%E3%80%82
你对这个活动以及这个题目的目标理解的很到位,实际还有一个目的是让大家熟悉开源社区的玩法并参与到openeuler的实际开发中,所以欢迎你订阅 openeuler的邮件列表 dev@openeuler.org/tc@openeuler.org以及AI和BIGDATA这个sig的邮件列表sig-ai-bigdata@openeuler.org,https://openeuler.org/zh/community/mails.html%EF%BC%8C%E5%B9%B6%E9%80%9A%E8%...
看到你已经有一些linux、c、git、ai的经验,这对该项目很有帮助。
你可以先报名,同时先把环境搭建起来,资料看起来,前期的一些学习总结、经验、问题、操作步骤都可以记录下来,为后面的总结做准备。
有几个问题: 1. 你认为这个项目可能的困难点是哪里。 2. Mlpack当前支持哪些AI算法。 3. 对三种模型进行哪些指标的对比。
有问题我们随时再沟通。
| | 正心 | | 邮箱:sinever@126.com |
签名由 网易邮箱大师 定制
在2020年06月02日 16:15,351652632 写道: hi, sinever 老师好:
我是来自华中科技大学计算机专业的刘文卓。感谢您之前的指导!在过去的一周里,我阅读了一些 mlpack 的文档,在我的电脑(Arch Linux)上编译并安装了 mlpack,并尝试运行了 mlpack 的例程,学到了许多。
我编写了项目提案的初稿,附在附件中,请老师批评指正。
祝工作顺利。 刘文卓