LaminiAI是首批获得AMDInstinctMI300X的公司之一,并因全AMDAI商店而闻名,这在Nvidia主导的世界中实属罕见。首席执行官甚至批评Nvidia的GPU短缺,强调该公司已经有AMDGPU库存。然而,当市场领导者控制着AI硬件市场的最大份额时,似乎真的无法忽视它,因此本月,LaminiAI宣布它也将针对Nvidia硬件优化其软件堆栈。
LaminiAI创始人兼首席执行官SharonZhou在X帖子中写道:“非常期待与Nvidia合作并共同努力,进一步优化我们在Nvidia硬件上的堆栈。”
当被要求澄清公司对AMD硬件的立场时,周表示,虽然LaminiAI与AMD合作,但这种合作关系并不是独家的。此外,该公司也愿意与其他硬件供应商合作。事实上,周甚至表示,与其他硬件开发商的合作可能对AMD有利,因为它最终可能会让某些使用NvidiaGPU的最终用户迁移到AMDInstinct。
“我们与AMD合作,他们太棒了,我完全相信Lisa,”LaminiAI负责人回应道。“这种合作关系很深入,但并不排他。从外部很难看出这一点,但从战略上讲,这有助于我们向更多已经拥有NvidiaGPU的客户部署,并帮助他们在无需更改代码的情况下使用AMDGPU。希望我们将来能与更多的计算提供商合作。”
LaminiAI是一个企业平台,旨在帮助组织高效地开发、微调和部署大型语言模型(LLM)。该平台提供了全面的解决方案,用于管理LLM的整个生命周期,从模型选择和调整到部署和推理。
例如,凭借先进的内存调优技术,Lamini可确保超过95%的事实准确率,从而显著减少幻觉并提高模型的可靠性。此外,与其他解决方案相比,LaminiAI的高性能功能使其每秒可处理高达52倍的查询,从而减少延迟并改善用户体验。
鉴于LaminiAI的专业性,该公司很难忽视Nvidia的硬件,因为其大多数潜在客户可能认为Nvidia的H100和H200GPU最适合他们的工作负载。为此,该平台支持在各种环境中部署,包括本地、私有数据中心和公共云,并且与AMD和NvidiaGPU兼容(尽管该公司过去曾拿Nvidia的GPU开玩笑)。值得注意的是,该公司的首席技术官GregDiamos曾是NvidiaCUDA软件架构师,因此该公司在CUDA方面拥有一些经验。