扩宽AI应用边界!边缘计算加速大模型落地在线研讨会周四直播

创建时间:2023-07-25 11:05
7月27日,直播间不见不散!


AIGC 时代,大模型似乎已经渐渐成为了一种基础设施。通过"预训练 + 微调训练 + 提示词工程"的使用范式,可以显著降低大模型的训练成本,使大模型在各行业和企业中得以广泛应用。同时,随着小型化和轻量化技术的发展,大模型推理对算力的要求也得到了降低,这进一步推动了大模型在实际场景中的应用和落地。


在实际场景中,边缘计算为大模型的落地提供了更多的优势,包括降低带宽成本、加快响应速度以及增强数据隐私和安全性。通过在边缘设备上执行一部分计算任务,可以减少与云端的通信延迟,并降低数据传输量,提高系统的效率和可靠性。


7月27日下午2点,智东西公开课联合坤前计算机策划推出的「边缘计算加速大模型落地在线研讨会」将开启,主讲领域自适应知识迁移框架 ProML 和面向大模型的多款GPU 边缘硬件。


研讨会由北京邮电大学智能感知与计算实验室硕士研究生黄心阳和坤前计算机产品经理胡箴参与,他们将分别围绕主题《半监督领域自适应的知识迁移框架ProML》、《大模型时代下,GPU 加速的 AI + 边缘计算》进行直播讲解。


主题介绍


北京邮电大学智能感知与计算实验室硕士研究生黄心阳:半监督领域自适应的知识迁移框架ProML


在现实世界中,人们经常面临不同领域之间数据分布差异的情况。这种差异导致在训练模型时,人们只能使用特定领域的数据,而不能很好地将模型泛化到其他领域。领域自适应便是在研究解决这个问题。


研究领域自适应的方法很多,其中在半监督域自适应中,标记目标领域样本是有限的,因此如何充分利用这些标记样本的信息是关键。现有的方法大多只考虑了目标样本的特征表示,忽略了利用标记样本生成原型的潜力。


为了填补这一空白,我们提出了一种新的基于原型的多级学习框架——ProML,以更好地挖掘目标原型的潜力,从多个角度帮助模型更好的进行半监督领域自适应的知识迁移。


坤前计算机产品经理胡箴:大模型时代下,GPU 加速的 AI + 边缘计算


随着 GPT-4 的发布,标志大语言模型正式迈入了多模态时代,参数量近一步膨胀。OpenAI 创始人 SAM Altman 表示:“未来的 AI 进展不会来自于让模型变得更大”,这代表 OpenAI 之后更多的发展方向将是如何让现有的大模型更好用,渗透进更多的场景。


如今 AI 大模型已经在从“能用”向“好用”快速演进的关键迭代期。如何让大模型渗透进入各类垂直场景,如何更低成本的使用大模型,如何让更多场景与用户接触 AI,成为了发展的下一个重点。


在 AI 向实际场景落地时,边缘算力的重要性加速凸显,边缘算力在成本、时延、隐私上具有天然优势,也可以作为预处理海量复杂需求的桥梁,并将其导向大模型。坤前在 AI 定制领域发力,多款 GPU 边缘硬件,深入万千应用场景,为 AI 应用加速。


 加入专属交流群


对研讨会感兴趣的朋友,可以扫描下方二维码,添加小助手木瑾进行报名。已添加过木瑾的老朋友,可以给木瑾私信,发送“坤前2301”即可报名。


同时,为了方便大家交流和咨询,针对「边缘计算加速大模型落地在线研讨会」还设置了专属技术交流群,将会邀请两位主讲人加入。希望加入交流群与主讲人直接认识和交流的朋友,也可以向木瑾进行申请。



浏览量:0

推荐文章