随着AI技术的飞速发展,AI的应用场景从目前的PC和云端逐步延伸到手机、智能音箱、车载助手等终端设备领域。当地时间周四(5月18日),OpenAI宣布,其在美国推出了聊天机器人ChatGPT的iPhone应用,并承诺未来也将为安卓手机提供相同的服务。
从网友的反馈来看,该应用支持语音输入(包括中文语音输入)以及TapEngine震动反馈、不需要用信用卡支付、响应速度更快,这都使得用户体验大大提高。
美中不足的是,有不少用户反应,使用手机版ChatGPT存在手机发烫,过热的问题。据悉ChatGPT-APP端集成了OpenAI开源语音识别系统Whisper,这无疑增加了手机的运行功耗,叠加软件优化等问题使得手机端运行ChatGPT出现耗电量增加、发热量严重的负面体验。
未来,在软件端,大模型将拥有更多功能性插件,更多人机交互的方式,在手机上运行大模型的功耗将堪比运行一款大型3D游戏;在硬件端,为大模型提供本地化算力的AI芯片将成为标配,同样也会带来系统功耗与发热量的提升,同时,用于运算的AI芯片功耗往往远高于逻辑芯片。
以服务器芯片为例,英特尔第四代服务器处理器CPU功耗为350W,而英伟达H100 SXM功耗高达700W,是CPU的两倍,同时GPU的发热量也是CPU的两倍。可见,若手机中集成一块实现能够实现边缘计算的AI芯片将大幅提升系统整体的发热量,同时单AI芯片发热量将达传统SOC芯片的两倍左右。
目前,现有的手机散热方案将迎来巨大挑战,散热问题将成为影响大模型落地移动终端的挑战,一套用于AI智能终端的热管理解决方案成为所有厂商需解决的问题之一。