梧桐文学

第5章 不好意思我打断一下(第2页)

天才一秒记住【梧桐文学】地址:https://www.wtwx.net

不过当他们看向周昀时,却发现他脸上没有一丝的紧张。

事实也确实如此,三年下来,周昀都不知道经历过多少组会了,紧张?那是不存在的。

等邓老师话音落下,周昀一脸从容的回答:“这是我想要研究的课题,根据我的调研,暂时还没有以这篇文章命名的论文。”

“哦?这个题目是你自己想的?”

周昀的回答让他有些意外,就算是他手下那几个要读博的研三的学生,也没有谁的研究课题是完全独立想出来的。

这对于一个研零的学生来说已经是非常不错了。

“你继续。”

周昀翻到下一页PPT,没有文字,PPT上是一些著名的AI公司的LOGO:“这些都是现在比较著名的AI公司,

GPT,claude,gemini这都是现在世界上顶尖的大模型,不可否认的是,这些大模型的性能都非常强,但相对应的,训练他们所耗费的资源也是海量。

一个先进的图像识别模型可能需要几十甚至上百兆的内存,数以亿计的计算量。

它们就像高性能的跑车,必须在云端数据中心这样的大跑道上才能发挥实力,但是现实生活中,大家的设备都是电脑,手机,摄像头等等。”

说到这里周昀停了一下,将PPT翻到下一页。

老师没有提问,那他就继续讲。

“这种情况下,我们面临一个巨大的挑战:如何让庞大、复杂的AI模型,在这些资源有限的“小设备”

上,也能跑得又快又好,还能实时响应?

以下四点是我认为的需要解决的几个痛点:

1.尺寸不符:大模型在小设备上跑不动,或直接装不下。

2.速度滞后:即使勉强能跑,响应速度也慢,用户体验差。

3.能耗巨大:小设备电池续航有限,大模型会迅速耗尽电量。

4.网络依赖:依赖云端意味着有延迟,且断网就失效,隐私也难以保障。”

“不好意思,我打断一下。”

“老师您说。”

“你刚才提到了这些大模型性能虽强,但资源消耗巨大,而现在你想把这些大模型塞进小设备里,其中的难点我理解,

但是,既然这些顶尖大模型在云端表现如此出色,为什么我们非要执着于把它们硬塞进边缘设备?

云端计算的便捷性和可扩展性难道不更符合AI发展的趋势吗?边缘部署的必要性到底有多强?”

这个问题问的非常刁钻,如果周昀不能回答,那就算是从根本上否定了研究的必要性。

“老师的问题确实非常关键,如您所言,云端大模型在性能和可扩展性上确实有无可比拟的优势,

但是大模型的基石是数据!

在金融、医疗、国家安全等高度敏感的行业,数据“不出境”

或“不出厂区”

是严格的法律法规要求。

这种情况下,任何云端的数据传输都是具有一定风险的,虽然其有强大的安全措施,但其本身就是一个巨大的‘靶心’,

一旦云服务遭受网络攻击,影响范围可能是灾难性的,这一点相信老师肯定是有所了解的。”

本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!

如遇章节错误,请点击报错(无需登陆)

新书推荐

从至尊系统开始无敌木叶:从日向开始谨慎异能悍妃的神秘相公护肤网红在古代玄幻:原来我是万器之祖东汉末年枭雄志斗罗:蛛皇传说重生之原配娇妻貔貅幼崽三岁半[穿书]这次我要做执刀人封神之灶王爷奋斗史穿成前任叔叔的掌心娇拜师四目道长神魔供应商我哥居然成神了千秋我为凰狂妃傲苍穹:帝尊宠上天!网游之末日剑仙帝王独宠:皇后娘娘沦陷了当快穿大佬拿了祸水剧本把惊悚游戏玩成修罗场[无限]要修仙就上一百层重生小地主李白之前世今生