0:00 亚马逊暂停订购英伟达芯片,引发投资人担忧
1:44 AI大模型价格战爆发,有的宣布免费
3:19 智谱AI震撼AI界,19B参数量碾压GPT-4v
4:45 百川智能发布Baichuan 4,称国内第一
文字版
#亚马逊的云计算部门AWS已决定暂停购买英伟达的Grace Hopper超级芯片,转而期待即将推出的更高性能的Grace Blackwell(GH200)。这一决定是在英伟达发布Blackwell处理器后不久做出的,后者在训练大型语言模型方面的能力预计提升一倍。尽管Grace Hopper原定于8月推出,但AWS认为等待新产品更为合理。
投资者对此表示担忧,担心英伟达在新产品推出前可能会遇到需求下降。尽管大型科技公司承诺继续投资AI技术,但华尔街对于英伟达在Blackwell芯片推出前的业务停顿感到不安。分析人士预计,Blackwell芯片将在第四季度交付,但在此期间,英伟达AI芯片的需求可能会受到影响。
尽管AWS将继续提供包括H100在内的其他英伟达芯片,但作为英伟达的大客户,AWS的暂停订购可能会加剧市场对英伟达短期需求的担忧。去年,OpenAI的ChatGPT推出后,对AI基础设施的需求激增,导致英伟达的H100 AI芯片供不应求。然而,自2024年初以来,对H100芯片的需求已有所缓解。尽管英伟达股价自年初以来几乎翻倍,但自3月发布Blackwell以来,股价增长乏力。
#近期,大模型市场的竞争愈发激烈,各大厂商开始通过价格战来争夺市场份额。阿里云的通义千问系列大模型宣布降价97%,其中性能对标GPT4的Qwen-Long模型,API输入价格从0.02元/千tokens降至0.0005元/千tokens,1块钱能买200万tokens,成为全球大模型性价比之王。此外,Qwen-max和Qwen1.5系列开源模型也分别降价67%和75%以上。阿里云此次降价覆盖了商业化模型和开源模型,旨在降低大模型的使用门槛,加速AI应用的普及。
与此同时,百度文心大模型也不甘示弱,宣布其两款主力模型ENIRE Speed和ENIRE Lite全面免费,即刻生效。这两款模型分别支持8K和128K上下文长度,具备优异的通用能力和推理性能,适合不同场景下的应用。
科大讯飞也加入了这场较量,宣布旗下讯飞星火Lite API永久免费开放,支持在线联网搜索、适用于低算力推理与模型精调等定制化场景。讯飞星火大模型V3.5在长文本处理、知识问答响应速度以及文本生成等方面都有所提升,为用户提供了更加精准的回答。
#开源多模态SOTA模型领域迎来了新霸主——智谱AI公司的CogVLM2。这款19B参数量的模型在性能上与GPT4v并驾齐驱,甚至在三项基准测试上大幅领先。CogVLM2支持8K文本长度和高达1344x1344分辨率图像,且具备中英文双语能力,开源且可商用。
CogVLM2的创新之处在于其高效的多专家模块结构,使得全量推理显存需求仅为42GB,Int4量化版本更是降至16GB,让普通显卡如RTX4080或RTX4070 Ti SUPER也能轻松驾驭。此外,CogVLM2在OCR和文档图像理解等关键指标上显著提升,展现了强大的视觉语言理解能力。
智谱AI团队针对中文语境进行了优化,通过大量中文图文数据的预训练和指令微调,显著提升了CogVLM2的中文处理能力。模型的开源代码、下载链接和在线Demo已向公众开放,GLM新版本也将集成CogVLM2的能力,进一步推动AI技术的普及和应用。
#百川智能近日发布了其最新一代基座大模型Baichuan 4,并推出了公司首款AI助手“百小应”。据官方介绍,Baichuan 4在各项能力上相比前代Baichuan 3有显著提升,其中通用能力提升超过10%,数学和代码能力分别提升了14%和9%。在国内大模型评测机构SuperCLUE的评测中,Baichuan 4以总分第一的成绩,被评为国内模型能力第一名。
Baichuan 4还展现了其多模态能力,在多个评测基准上表现优异,领先于其他多模态模型如Gemini Pro和Claude3-sonnet。基于Baichuan 4的强大能力,百川智能推出了AI助手“百小应”,它不仅能快速回答各种问题,还能速读文件、整理资料、辅助创作,并具备多轮搜索、定向搜索等高级搜索能力。百小应能够精准理解用户的搜索需求,并提供专业、丰富的知识和资源。
此外,百川智能还宣布开放Baichuan 4及相关模型的API,供所有开发者和企业用户登录其开发者中心选择并接入。
