百货
-
NL2SQL 基于LLM的解决方案是最好的吗
1.NL2SQL现状自然语言转SQL,nl2sql,技术是指自然语言查询转化为SQL查询,降低普通用户和专家用户在访问海量数据集和获取数据分析结果时的门槛,1.1我们目前处于何方,上图展示了过去二十年nl2sql方法的演进历程,从基于规则的方法,到基于深度神经网络的方法,再到可调的预训练语言模型,P...
-
大模型部署解决方案之TorchServe vLLM
TorchServe是PyTorch中将模型部署到生产环境的一个解决方案,它用HTTP或HTTPSAPI封装模型,可以处理多种任务,包括为部署模型分配workers、负责客户端和服务器之间通信等,10月份发布的TorchServe0.12增加了对GenAI的支持,简化了大语言模型的部署,增加了对主流...
-
探索Text 大模型与数据分析
当今大模型如此火热,作为一名数据同学,持续在关注LLM是如何应用在数据分析中的,也关注到很多公司推出了AI数智助手的产品,比如火山引擎数智平台VeDI—AI助手、KyligenceCopilotAI数智助理、ThoughtSpot等,通过接入人工智能大模型,提升数据处理和查询分析的效率,智能数据分析...
-
具身智能体三维感知新链条 Lab提出多视角融合具身模型 上海AI SAM & TeleAI
当我们拿起一个机械手表时,从正面会看到表盘和指针,从侧面会看到表冠和表链,打开手表背面会看到复杂的齿轮和机芯,每个视角都提供了不同的信息,将这些信息综合起来才能理解操作对象的整体三维,想让机器人在现实生活中学会执行复杂任务,首先需要使机器人理解操作对象和被操作对象的属性,以及相应的三维操作空间,包括...
-
谷歌& 旷视等开源Chat 编辑能力无上限!北航&
文章链接,https,arxiv.org,abs,2407.06842项目地址,https,sk,fun.fun,CE3D,代码,https,github.com,Fangkang515,CE3D,tree,main引言过去的3D场景编辑方法往往局限于固定的文本输入模式和有限的编辑能力,用户需要学习...
-
具身智能成败之关键!干货长文首次全面回顾具身智能领域中的视觉
文章链接,https,arxiv.org,pdf,2405.14093亮点直击本综述是关于具身智能领域中新兴的视觉,语言,动作模型的首次全面回顾,深度学习在许多领域中展现出了显著的成功,包括计算机视觉、自然语言处理和强化学习,这些领域的代表性人工神经网络涵盖了卷积神经网络、Transformer模型...
-
ECCV`24
论文链接,https,arxiv.org,abs,2407.16260亮点直击最近,文本到3D生成领域取得了显著进展,为了增强其在实际应用中的实用性,关键是生成具有交互作用的多个独立对象,类似于2D图像编辑中的图层合成,然而,现有的文本到3D方法在这一任务上存在困难,因为它们设计用于生成非独立对象或...
-
合成 大规模高质量的Amortized文本到增强3D 只需ms!英伟达提出LATTE3D
文章链接,https,arxiv.org,pdf,2403.15385工程地址,https,research.nvidia.com,labs,toronto,ai,LATTE3D,最近的文本到3D生成方法产生了令人印象深刻的3D结果,但需要对耗时进行优化,每个提示可能需要长达一小时,像ATT3D的A...
-
13B和65B等背后的原因是什么 大模型参数量都是7B
不知道大家有没有注意到现在大模型百花齐放,但是模型参数大小却非常一致,基本都是7B,13B,65B等,那么,为什么被设计成这么大呢,网络上有很多解释,笔者结合自己的理解,分享其中可能的原因,最直接的就是历史传承,因为最初OpenAI在就是这么干的,然后,Meta借鉴了OpenAI的做法,推出了lla...
-
微信等提出多模态大语言模型EE 数据高效和计算高效全都要!中科大&
论文链接,https,arxiv.org,pdf,2408.11795亮点直击在多模态研究领域,许多研究利用大量图文对进行模态对齐学习,将大型语言模型,LLMs,转变为多模态LLMs,并在各种视觉语言任务中表现出色,现有的方法主要分为两类,基于自注意力的方法和基于交叉注意力的方法,虽然基于自注意力的...
-
推理的 Cache 优化 等 PagedAttention 计算和 Attention vAttention LLM KV
最近,SGLang引起了广泛关注,出现了许多,SGLang吊打vLLM和TRT,LLM,的言论,不得不说,SGLang确实是一项非常出色的工作,与此同时,vLLM的性能问题和TRT,LLM的易用性问题也广受诟病,但是在实际应用中,我们仍然需要保持理性,比如,已经使用了LMDeploy或TRT,LLM...
-
的最新工作 PyramidInfer KV Cache 种优化 LLM 和 MiniCache 6 等
一、背景在LLM推理中,常常会采用KVCache来缓存之前Token的中间结果,以显著减少重复计算,从而降低自回归生成中的延迟,然而,KVCache的大小与序列长度成正比,在处理长序列时会面临极大的挑战,尤其当前许多模型开始支持几百K甚至几M的序列长度,进一步凸显了KVCache的问题,因此很多研究...
-
HybridLLM LLM 混合模型 推理成本的新思路 RouterLLM 等优化
一、背景本文中我们继续介绍一种LLM推理优化相关的工作,通过路由的方式组合多个模型;其与投机采样类似,通过多个不同规模和性能的模型组合来降本增效,然而又有本质的区别,投机采样在一个Query内会反复调用大小模型,而路由方式在调用之前已经确定好需要调用哪个模型,直到调用结束,目前常见有两种路由的范式,...
-
学习感悟 AIGC
生成式AI的学习之旅充满了挑战与惊喜,从技术原理的掌握到实际应用的探索,每一步都让我对这项技术的潜力有了更深的理解,展望未来,我相信生成式AI将在更多领域实现突破,推动人类社会迈向更智能、创新的未来,作为一名AIGC的学习者,我将在不断深入学习和实践的过程中,继续探索这项技术的无限可能,并为其在现实...
-
从AIGC看大模型供应商
产业链的发展,并不是独立的,而是上下游合作发展,在之前的文章中有说过,对大部分人和企业来说,使用第三方模型是最好的选择,一是因为技术难度低,二是因为资金成本低,同样也就意味着风险比较低,在前几天的文章中大模型与社会分工,产业链与模块化中说过,大模型技术是一个产业链,它并不是一个人或一个公司的...