GPU、GPU还是GPU,AI掀起的“算力革命”不仅让几乎垄断GPU市场的英伟达成了聚光灯下的焦点,也让OpenAI CEO在一次又一次的访谈中大谈GPU短缺问题。
5月29日,Humanloop,一家从事机器学习和人工智能的初创公司,其CEO Raza Habib邀请了包括OpenAI CEO Sam Altman在内的20位开发人员共通探讨人工智能的未来,而整个讨论中最重要的主题便是——GPU短缺是最大瓶颈。
Altman表示,目前OpenAI的客户最不满的便是API的可靠性和速度,而这个问题主要就是GPU短缺造成的。
(资料图片仅供参考)
这场算力革命,让英伟达今年以来一度暴涨170%,跻身万亿市值公司行列,在GPU持续短缺的当下,围绕着英伟达的狂欢还将继续吗?
Altman表示,他们的下一步计划就是不断更新GPT-4,让其更便宜,更快,而在发展过程中遇到的最大瓶颈便是GPU短缺,访谈中指出:
长度为32k的上下文窗口还未到推广时机,OpenAI还未能克服技术上的障碍,主要是因为算法的高复杂性。虽然很快就会有10万—100万新的32K上下文窗口token,但提供更多的访问token则需要技术和研究上突破。
微调(Fine-Tuning)API目前也受到GPU可用性的限制。他们还没有使用像Adapters或LoRa这样的高效微调方法,所以微调运行和管理需要高精度的计算。将来会有更好的微调支持。他们甚至可能主持一个社区贡献模型的市场。
OpenAI提供的专用容量服务受到GPU的限制。当用户请求使用专用容量时,OpenAI需要确保有足够的GPU可供分配给用户。然而,由于GPU资源有限,供应有限。要使用这项服务,客户必须愿意预付10万美元的费用。
对于OpenAI未来的发展,Altman表示,在2023年OpenAI的目标是尽可能降低“智能的成本”,继续降低API的成本:
更便宜、更快的GPT-4 —— 首要任务。
更长的上下文窗口 —— 在不久的将来,高达一百万的上下文窗口token。
微调(Fine-Tuning)API —— 微调API将扩展到最新的模型,但这的确切形式将由开发者表明他们真正想要的东西来塑造。
支持会话状态的API —— 现在当你调用聊天API时,你必须反复重复历史对话,并反复支付同样的tokens。在未来,API将有一个记住对话历史的版本。
在5月16日举行的AI国会听证会上,Altman就已经表达了对算力瓶颈的担忧:由于计算能力瓶颈,如果使用ChatGPT的人少一些会更好。
在这场AI大战中,华尔街高呼,英伟达是唯一“军火商”,其超预期业绩指引让市场开启了一场围绕着英伟达的狂欢,股价再次节节攀升,市值一度突破万亿美元大关。
目前,包括谷歌和微软在内,许多科技巨头都使用英伟达芯片来为AI业务提供算力。谷歌计划将生成式AI技术嵌入六个产品,每一个都手握超过20亿用户。
英伟达周一在COMPUTEX大会上推出了新产品,覆盖了从机器人到游戏的多个领域。它还宣布了一个新的超级计算机平台——DGX GH200助力新一代大AI模型。谷歌、微软和Meta预计是获得访问权的首选客户。会上,英伟达CEO黄仁勋表示,全球4万家大公司和1.5万家初创公司正在使用英伟达的技术。
英伟达最近表示,该公司正在扩大供应,以满足不断增长的需求。英伟达CEO黄仁勋周日表示,该公司已经提高了用于生成式人工智能的新款旗舰芯片H100的产量。
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。