微信扫一扫
美国人工智能(AI)芯片龙头辉达(NVIDIA,又译英伟达)执行长黄仁勋近期首度公开谈论中国DeepSeek引发辉达股价卖压,表示投资人弄错了DeepSeek进步的讯息,正确的讯息应该是AI的后训练(post-training)阶段才是关键,对辉达芯片的需求不减反增。
DeepSeek在1月发表“R1”大型语言模型(LLM),以较低的成本获得高效能,引发美国科技巨擘的AI投资前景忧虑,拖累辉达股价在1月挫跌,但近期辉达股价几乎已收复失土。黄仁勋20日在合作伙伴DDN预录的访谈影片表示,辉达股价对DeepSeek的剧烈反应,源于投资人对DeepSeek进步的解读错误。AI产业仍需要运算能力进行AI模型的后训练,后期训练的方法多元,对辉达芯片所供应运算能力的需求也将成长。
后期训练让AI模型能在完成训练后,做出结论或进行预测。黄仁勋说,“从投资人的角度来看,过去都有一种心智模型,认为世界是先预训练(pre-training),接着再(进入)推论(阶段),(投资人认知的)推论是:你问了AI一个问题,就能立刻获得答案”,他认为,这个心智图是不对的。他说,预训练仍然很重要,但后期训练反而是最重要的智能环节,“是(AI)学会解决问题的环节”,后期训练方法“如火如荼”进展,AI模型持续以新的推理方法进步。他称赞DeepSeek的创新提振AI产业的活力,“实在令人无比兴奋。
R1开源在全球激起的活力令人惊叹”。辉达26日将举行财报说明会,黄仁勋势必面对DeepSeek的问题,这番谈话可能也是他的回应。近期的美股财报季,DeepSeek已成为热议话题,超微(AMD)执行长苏姿丰也被问到类似问题,她表示DeepSeek正在带动“有利AI采用”的创新。
黄仁勋最近几个月不断驳斥模型扩展陷入麻烦的忧虑,在DeepSeek声名大噪之前,1月就有报导指出OpenAI的模型进步正在放慢,辉达成长可能放缓。黄仁勋去年11月强调,模型扩展“活得很好”,只是从训练转向推论。