包含"模型"标签的文章

  • 超GPT 阿里史上最大规模开源发布

      今天凌晨,阿里巴巴官宣了史上最大规模的开源发布,推出了基础模型Qwen2.5、专用于编码Qwen2.5,Coder和数学的Qwen2.5,Math,这三大类模型一共有10多个版本,包括0.5B、1.5B、3B、7B、14B、32B和72B,适用于个人、企业以及移动端、PC等不同人群不同业务场景的模型...

    2024-11-15 198
  • Anything模型变体 首篇!全面解读高效Segment 各种图像分割加速策略和核心技术展示

      文章链接,https,arxiv.org,pdf,2410.04960亮点直击SegmentAnythingModel,SAM,是一款基础模型,专用于图像分割任务,以其在多样应用中的强大泛化能力而闻名,然而,它的出色性能伴随着显著的计算和资源需求,这使得在资源有限的环境,如移动设备,中进行部署变得具...

    2024-11-15 429
  • 幻觉检测 数据集和评估指标 缓解 详解大规模基础模型中的幻觉问题 任务

      论文链接,https,arxiv.org,pdf,2405.09589总结速览解决的问题在大规模基础模型中,幻觉输出的生成是一个关键挑战,特别是在高风险应用中,这种倾向可能影响模型的可靠性和准确性,提出的方案建立了幻觉的精确定义和结构化分类,识别出导致不同模态中幻觉出现的关键因素和机制,提出了多模态...

    2024-11-15 839
  • 多尺寸编辑质量更优 首个基于DiT的图像编辑框架!DiT4Edit 抛弃UNet

      文章链接,https,arxiv.org,pdf,2411.03286工程链接,https,github.com,fkyyyy,DiT4Edit,待开源,亮点直击总结速览解决的问题,现有的基于UNet的高分辨率图像编辑方法在实现形状感知的对象编辑方面仍存在不足,相比之下,DiffusionTrans...

    2024-11-15 212
  • SAM2加持泛化任意3D场景 可提示 分割研究里程碑!SAM2Point 任意提示! 3D

      文章链接,https,arxiv.org,pdf,2408.16768在线demo,https,huggingface.co,spaces,ZiyuG,SAM2Pointcode链接,https,github.com,ZiyuGuo99,SAM2Point亮点直击今天和小伙伴们一起学习的是,这是一种...

    2024-11-15 643
  • ECCV`24

      论文链接,https,arxiv.org,abs,2407.16260亮点直击最近,文本到3D生成领域取得了显著进展,为了增强其在实际应用中的实用性,关键是生成具有交互作用的多个独立对象,类似于2D图像编辑中的图层合成,然而,现有的文本到3D方法在这一任务上存在困难,因为它们设计用于生成非独立对象或...

    2024-11-15 540
  • 合成 大规模高质量的Amortized文本到增强3D 只需ms!英伟达提出LATTE3D

      文章链接,https,arxiv.org,pdf,2403.15385工程地址,https,research.nvidia.com,labs,toronto,ai,LATTE3D,最近的文本到3D生成方法产生了令人印象深刻的3D结果,但需要对耗时进行优化,每个提示可能需要长达一小时,像ATT3D的A...

    2024-11-15 365
  • laws在视觉自回归模型上失效了 谷歌联合MIT发布Fluid 文生图质量刷新纪录! Scaling

      文章链接,https,arxiv.org,pdf,2410.13863缩放法则,Scalinglaws,是大语言模型,LLMs,前所未有成功的基础,实证研究表明,在自回归模型中增加参数数量通常会显著提升性能,并在自然语言处理,NLP,任务中产生新的能力,这一实证关系激励了众多扩展语言模型的努力,导致...

    2024-11-15 420
  • 13B和65B等背后的原因是什么 大模型参数量都是7B

      不知道大家有没有注意到现在大模型百花齐放,但是模型参数大小却非常一致,基本都是7B,13B,65B等,那么,为什么被设计成这么大呢,网络上有很多解释,笔者结合自己的理解,分享其中可能的原因,最直接的就是历史传承,因为最初OpenAI在就是这么干的,然后,Meta借鉴了OpenAI的做法,推出了lla...

    2024-11-15 568
  • 普林斯顿大学提出首个基于MoE的稀疏时序预测大模型 参数量扩展到2.4billion

      今天给大家介绍一篇普林斯顿大学提出的时间序列大模型工作,是首个基于MoE的百万级别参数时间序列大模型,将时序大模型参数量扩展到2.4billion的水平,在多个数据集上取得了显著优于其他时间序列大模型的效果,论文标题,TIME,MOE,BILLION,SCALETIMESERIESFOUNDATIO...

    2024-11-15 375
  • 一个意想不到的罪魁祸首 LLM的数数能力有多弱

      大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读,下面是本期觉得比较有意思的论文,1、LLM的数数能力有多弱,一个意想不到的罪魁祸首2、专家模型的潜在隐患,用户提示被窃取的背后1、LLM的数数能力有多弱,一个意想不到的罪魁祸首你相信大型语言模型,LLM,连简单的数数都可能做不好吗,近期一...

    2024-11-15 398
  • 添加2.8%参数完成多项任务 基于MoE的通用图像融合模型

      图1不同融合任务的源图像对融合结果的主导强度变化研究背景与动机图像融合的目的是将同一场景中不同传感器捕获的多源图像的互补信息整合到单个图像上,这种方式通常被用于提取图片重要信息和提高视觉质量,目前,一般的图像融合主要包括多模态、多曝光、多焦图像融合等,融合任务表现出不同的融合机制,多曝光图像融合,M...

    2024-11-15 565
  • 是如何估计与分析模型计算量的 OpenAI

      今天看到OpenAI前些年发布的一个模型计算量的分析,感觉很有价值,有需求的人童鞋可以看一下,内容如下,自2012年以来,最大规模AI训练运行中使用的计算量呈指数级增长,翻倍时间为3.4个月,相比之下,摩尔定律的翻倍期为2年,自2012年以来,这一指标增长了300,000多倍,2年的翻倍期只能产生7...

    2024-11-15 989
  • 大型语言模型适配方法详解 定制你的AI助手

      这是一个由三部分组成的系列博客文章中的第一篇,主题是关于如何适配开源大型语言模型,LLMs,在这篇文章中,我们将探讨适配LLMs到特定领域数据的各种方法,引言大型语言模型,LLMs,在大量语言任务和自然语言处理,NLP,基准测试中展现出了卓越的能力,基于这些通用模型的产品应用正在兴起,在这篇博客文章...

    2024-11-15 697
  • 如何评估大语言模型生成结果的多样性

      ​1、论文的背景关于大型语言模型,LLM,的一个开放性问题是,这些模型从预训练数据中学习了哪些模式,以及这些模式是否能够在下游任务和数据集中普遍适用,虽然先前的研究主要集中在生成质量上,最近也开始关注文本生成的新颖性,但对LLM学习到的模式类型的特征描述还很有限,关于评估大型语言模型,LLM,生成文...

    2024-11-15 962

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息