AI系统高能耗问题迎来新突破
以ChatGPT或Claude为代表的AI系统因能耗巨大而备受关注。传统架构需要将数据存储于一处,在另一处进行处理,并持续进行数据往返传输。最新研究有望解决这一根本性问题。
硬件内实时处理技术
拉夫堡大学的物理学家团队设计出能够在硬件内部直接处理时序数据的装置。过去这类任务主要依赖基于软件的解决方案实现。
研究人员表示,这款新型芯片的能效可能达到现有方法的2000倍。研究负责人帕维尔·鲍里索夫博士指出:“这项突破令人振奋,它促使我们重新思考AI系统的构建方式。通过利用物理过程而非完全依赖软件,可以大幅降低此类任务所需的能耗。”
类脑神经网络设计
传统AI系统如同两个办公室(内存与处理器)间反复传递文件,而新芯片则像构建了一个更智能的办公室,所有工作都在同一空间完成。
该芯片的核心是忆阻器——这种记忆芯片能够记录历史信号。其记忆特性会改变对新信号的响应方式,实现从“被动执行指令”到“从历史中学习”的跨越。这一设计灵感来源于人类大脑的运作机制。
鲍里索夫博士解释道:“我们受大脑神经元间大量随机连接的启发,在氧化铌纳米薄膜上设计孔隙结构,构建出具有复杂随机物理连接的人工神经网络。实验证明,这种新型电子设备预测复杂时间序列演化的能耗,可比标准软件方案降低两千倍。”
动态数据处理优势
AI常被用于处理天气报告、股市波动或波形分析等时序数据。这类数据虽非完全随机,但对微小变化极为敏感。面对此类混沌系统,传统AI需要消耗巨大能量来追踪细微变化并反复传输信息,而新芯片正是为此类场景量身打造。
通过分析历史测量数据与经验,芯片能更有效地追踪和理解混沌测量数据,显著降低能耗需求。目前大多数AI应用仍聚焦静态信息处理(如聊天机器人),而这项技术专门针对随时间变化的信息流设计。
广阔应用前景
鲍里索夫博士指出:“心率波动、脑电活动、外部温度等日常变化数据,现有监测方案往往能耗高且依赖稳定的服务器连接。”这正是该芯片可大显身手的领域——为持续变化的不稳定数据构建更智能的系统。
他补充道:“这项技术的最终目标是应用于各类时序信号场景,无论是汽车、机器人、核电站还是智能手表。例如监测中风征兆、汽车发动机健康状况或核反应堆运行状态等关键领域。”

资金费率
资金费率热力图
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
账号安全
资讯收藏
自选币种