在刚刚过去的2023年,微软、谷歌、英伟达等等大厂纷纷发力卷大模型;以百度、阿里、小米、OPPO为代表的国内势力也纷纷出手让AI应用落地。
唯有传统豪强里边的苹果,似乎动静不大,当地时间1月2日(昨夜)的AAPL股价还一口气跌掉7600亿。原来,意识到AI时代来临的果子正在“憋大招”~
近日,苹果的人工智能研究人员发表了一份研究论文,介绍他们已取得的一项重大技术突破:
通过一种创新的手机闪存利用技术,利用相对富余的手机ROM存储空间,成功地在DRAM内存有限的苹果老设备上部署了大型语言模型(LLM)。
这一成果有望让更强大的Siri人工智能助理、实时的AI语言翻译以及融入摄影摄像和AR增强现实的AIGC技术登陆未来的iPhone手机以及其他的iOS设备。
最近一年来,随之AI大模型的兴起,也伴随了一个当下智能手机的「致命弱点」:此前能够轻松应付大型手游的当代智能手机在面对极其占用内存的大模型,显得抓襟见肘,普通的手机根本无法满足其运行的硬件需求。
从而导致了两大困境:
老设备很可能无法运行大模型,普惠化进程变慢模型过分小型化,造成AI功能体验感差为了突破这一瓶颈,苹果研究人员另辟蹊径,将目光投向了手机中容量普遍较大的闪存空间。
在该公司最新发表的一篇论文《闪存中的LLM:利用有限内存实现高效的大型语言模型推理》中,研究人员详细赘述了如何巧妙利用闪存容量,让大模型的数据存储在闪存中。
论文原文:
https://arxiv.org/pdf/2312.11514.pdf