当前位置:豌豆文学>科幻灵异>科研系学霸> 第6章 今天的面试就先到这里,几位回去等通知吧
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第6章 今天的面试就先到这里,几位回去等通知吧(1 / 4)

邓永华听完微微点头:“一些行业里确实会存在这种问题,我是搞网安方向的,

一般这种情况我们关注的都是如何保护已上传的数据或者是在数据传输过程中进行更加复杂的加密算法,

但是数据在传输过程中,无论加密多强,理论上都存在被截获和破解的风险,而且数据包越多,传输时间越长,风险暴露窗口越大,

现在大模型的数据量都是巨大的,风险也会更大,所以一些保密性强的数据,现在还是会采用光盘,硬盘这种物理的方式。

不过你这种方法也算是一种新的思路,继续吧。”

“老师说的没错,ai模型的边缘部署如果能够实现,可以很大程度上规避这类数据安全的问题,让数据可以直接在本地进行使用,不用转移。”

周昀将ppt翻到下一页:“其实现在已经有了不少相关的研究,但是想要真正实现让大模型在手机这种终端运行还有很长一段路要走。”

哪怕是明年年初deepseek公开论文中的蒸馏方法,也达不到周昀想要的结果。

其实凭借他现在变态的记忆力完全可以复现出大量还未出现的顶刊论文,包括很多开源的代码。

但是他不会这么做,计算机能够如此快速的发展,离不开两个字——“开源”!

如果他真的做了“文抄公”,就相当于是剽窃了别人的研究成果,哪怕是前世的周昀都没有干过这种事情,更别说现在了。

而且,凭他现在的智商,想发几篇顶刊,很难吗?

收回有些发散的思维,周昀继续道:“现有的边缘 ai部署我总结为以下三类:

1.模型压缩,这是最直接也最常用的方法之一,可以理解为将一块充满水分的海绵强行挤压变小,主要的方法一般有量化、剪枝、知识蒸馏,不过这种方法也有一个缺陷,那就是模型的性能会

上一章 目录 +书签 下一页