-
一文读懂「AIGC,AI Generated Content」AI生成内容
首先,让我们理解一下这两个概念。 AIGC,或者称之为人工智能生成内容,是指使用AI算法和模型来自动生成全新的、原创的内容。这种内容可以包括文本、图像、音频、视频等各种形式,甚至可以包括一些独特的形式,比如新颖的创意和设计。AIGC的应用领域非常广...
-
不分割成token,直接从字节中高效学习,Mamba原来还能这样用
在定义语言模型时,通常会使用一种基本分词方法,把句子分为词(word)、子词(subword)或字符(character)。其中,子词分词法一直是最受欢迎的选择,因为它在训练效率和处理词汇表外单词的能力之间实现了自然的折中。然而,一些研究指出了子词分词法...
-
匿名论文提出奇招,增强大模型长文本能力居然还能这么做
一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时Lora模块,让它仅在长文本生成过程中“流...
-
登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来
模拟当今量子计算设备的一个关键挑战,是学习和编码量子比特之间发生的复杂关联的能力。基于机器学习语言模型的新兴技术已经显示出学习量子态的独特能力。 近日,加拿大滑铁卢大学的研究人员在《Nature Computational Science》发表题为《La...
-
匿名论文提出奇招!增强大模型长文本能力居然还能这么做
一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时Lora模块,让它仅在长文本生成过程中“...
-
BiTA:创新AI方法加速大型语言模型生成
近年来,基于transformer架构的大型语言模型(LLMs)已经崭露头角。Chat-GPT和LLaMA-2等模型展示了LLMs参数的迅速增加,从几十亿到数万亿。尽管LLMs是非常强大的生成器,但由于所有参数的计算负载,它们在推理延迟方面存在问题。因此,...
-
揭秘NVIDIA大模型推理框架:TensorRT-LLM
一、TensorRT-LLM 的产品定位 TensorRT-LLM 是 NVIDIA 用于做 LLM(Large Language Model)的可扩展推理方案。该方案是基于 TensorRT 深度学习编译框架来构建、编译并执行计算图,并借鉴了许多 Fa...
-
极新AIGC行业峰会 | 圆桌对话:探索中国AGI迭代之路
“AGI正处在一个巨大的研发范式革命的起点。” 整理 | 周梦婕 编辑 | 小白 出品|极新 2023年11月28日,极新AIGC行业峰会在北京东升国际科学院拉开帷幕,峰会上午的圆桌环节由凡卓资本合伙人王梦菲主持,深势科技战略副总裁何雯、Zil...
-
比亚迪发布璇玑AI大模型;微软推出Copilot Pro;国内首个MoE模型上线
比亚迪发布璇玑 AI 大模型 1 月 16 日,在 2024 比亚迪梦想日活动上,比亚迪正式发布了整车智能化架构「璇玑」及「璇玑 AI 大模型」。 比亚迪产品规划及汽车新技术研究院院长杨冬生称,「璇玑」是行业首个智电融合的智能化架构,让汽车拥有...
-
Camera or Lidar?如何实现鲁棒的3D目标检测?最新综述!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 0. 写在前面&&个人理解 自动驾驶系统依赖于先进的感知、决策和控制技术,通过使用各种传感器(如相机、激光雷达、雷达等)来感知周围环境,并利用算法和模型进行实时分析和决策。这使得车辆...
-
ChatGPT VS 文心一言:技术与应用的前瞻性比较
总述 在当今的AI领域,自然语言处理技术日新月异,其中ChatGPT和文心一言是备受瞩目的两大模型。它们分别代表了不同的技术路线,并在实际应用中展现了各自的优势。本文将对ChatGPT和文心一言进行深入的比较分析,探讨它们的优缺点、适用...
-
人工智能数学基础 - 线性代数之矩阵篇
本文将从矩阵的本质、矩阵的原理、矩阵的应用三个方面,带您一文搞懂人工智能数学基础-线性代数之矩阵。 一、矩阵的本质 点积(Dot Product):点积作为向量间的一种基本运算,通过对应元素相乘后求和来刻画两向量的相似度和方向关系。 点积(Dot Pr...
-
业内:过去数月老款AI芯片降价,大模型培训成本降60%
1月24日消息,众所周知,开发大语言模型(LLM)成本高昂。这不仅包括模型本身的研发,还有在云端运行这些模型的费用。以人工智能初创公司Anthropic为例,云端运行模型的成本几乎占了该公司上个月收入的一半以上,这还未算上训练模型的成本。 然而,最近的...
-
DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2
自从 LLaMA 被提出以来,开源大型语言模型(LLM)的快速发展就引起了广泛研究关注,随后的一些研究就主要集中于训练固定大小和高质量的模型,但这往往忽略了对 LLM 缩放规律的深入探索。 开源 LLM 的缩放研究可以促使 LLM 提高性能和拓展应用领域...
-
AIGC神器CLIP:技术详解及应用示例
编者按:上一期,我们介绍了Diffusion模型的发展历程、核心原理及其对AIGC发展的推动作用。本期,我们将共同走进另一项AI重要突破——CLIP,著名的DALLE和Stable Diffusion均采用了CLIP哦。 Nikos Kafrit...
-
大模型 Dalle2 学习三部曲(一)Latent Diffusion Models学习
引言 Diffusion model大获成功,但是它的短板也很明显,需要大量的计算资源,并且推理速度比较慢。如何才能提升Diffusion model的计算效率。业界有各种各样的改进,无疑Latent Diffusion Models(潜在扩散模...
-
爆肝整理全网最全最新AI生成算法【Stable Diffusion|Diffusion Model|DallE2|CLIP|VAE|VQGAN】原理解析
1、生成模型 首先回顾一下生成模型要解决的问题: 如上图所示,给定两组数据z和x,其中z服从已知的简单先验分布π(z (通常是高斯分布),x服从复杂的分布p(x (即训练数据代表的分布),现在我们想要找到一个变换函数f,它能建立一种z到x的映射f:z...
-
AIGC的初识
?欢迎来到自然语言处理的世界 ?博客主页:卿云阁 ?欢迎关注?点赞?收藏⭐️留言? ?本文由卿云阁原创! ?首发时间:?2023年12月26日? ✉️希望可以和大家一起完成进阶之路! ?作者水平很有限,如果发现错误,请留言轰炸哦!万分...
-
针对特定领域较小的语言模型是否与较大的模型同样有效?
经过2023年的发展,大语言模型展示出了非常大的潜力,训练越来越大的模型成为有效性评估的一个关键指标,论文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs f...
-
stable diffusion为什么能用于文本到图像的生成
推荐基于稳定扩散(stable diffusion AI 模型开发的自动纹理工具: DreamTexture.js自动纹理化开发包 - NSDT 稳定扩散获得如此多关注的原因 如果你还没有看过它:稳定扩散是一个文本到图像的生成模型,你可以输入...
-
全网最全AI绘画Stable Diffusion关键技术解析
背景 很多人觉得AI绘画不稳定,对于以后是否替代插画师,摄影工作者,设计师,表示存疑,作为AI从业者本文从AI绘画关键技术分析,明白以前生产者肯定会被淘汰,现在没有到达黄金期。 技术一定会让更多人失业,而我们拥抱变化,增强自身。 AI绘画中Stab...
-
数据计算任务工具Fluid在AIGC模型推理场景中的优化方案
Fluid的介绍 Fluid是一个在Kubernetes环境中编排数据和使用数据的计算任务的工具。它的编排不仅涉及空间上的优化,还包括时间上的调度。从空间角度看,计算任务会优先被分配到存有缓存数据或靠近缓存的节点上,从而提升数据密集型应用的性能。从时间角...
-
五种资源类别,如何提高大语言模型的资源效率,超详细综述来了
近年来,大型语言模型(LLM)如 OpenAI 的 GPT-3 在人工智能领域取得了显著进展。这些模型,具有庞大的参数量(例如 1750 亿个参数),在复杂度和能力上实现了飞跃。随着 LLM 的发展趋势朝着不断增大的模型规模前进,这些模型在从智能聊天机器...
-
AIGC技术研究与应用 ---- 下一代人工智能:新范式!新生产力!(2.4 -大模型发展历程 之 多模态)
文章大纲 什么是多模态 为什么 Transformer 也是多模态模型的基础架构 视觉 Transformer 和 Text Transformer 如何结合 - contrastive learning 对比学习 stable diffu...
-
Llama~transformers搭建
本例从零开始基于transformers库逐模块搭建和解读Llama模型源码(中文可以翻译成羊驼 。 并且训练它来实现一个有趣的实例:两数之和。 输入输出类似如下: 输入:"12345+54321=" 输出:"66666" 我们把这个任务当做一个...
-
人工智能利用深度学习技术增强高级驾驶辅助系统(ADAS)
译者 | 李睿 审校 | 重楼 人工智能和机器学习利用深度学习技术的优势,使高级驾驶辅助系统(ADAS 发生了重大变革。ADAS在很大程度上依赖深度学习来分析和解释从各种传感器获得的大量数据。摄像头、激光雷达(光探测和测距 、雷达和超声波传感器都是传感器...
-
一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long
前言 关于位置编码和RoPE 应用广泛,是很多大模型使用的一种位置编码方式,包括且不限于LLaMA、baichuan、ChatGLM等等 我之前在本博客中的另外两篇文章中有阐述过(一篇是关于LLaMA解读的,一篇是关于transformer从零实现...
-
LLaMa、Qwen、ChatGLM、ChatGLM2的区别
LLaMa、Qwen、ChatGLM、ChatGLM2的区别 以下比较的前提是首先和BERT(transfomer 的对比 感谢帮忙给我github repository的star,更多最新模型长期更新:https://github.com/zysN...
-
量子人工智能研究中的挑战与机遇
量子计算和人工智能的融合催生了量子人工智能,这是一个具有巨大前景和潜力的研究前沿。随着研究人员深入这一未知领域,遇到了一系列独特的挑战和机遇,这些挑战和机遇决定了进步的轨迹。本文将探索量子人工智能研究的动态格局,研究研究人员面临的障碍以及随着其推动传统计...
-
挑战Transformer的Mamba是什么来头?作者博士论文理清SSM进化路径
在大模型领域,Transformer 凭一己之力撑起了整个江山。但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显,比如其自注意力机制的计算量会随着上下文长度的增加呈平方级增长。为了克服这些缺陷,研究者们开发出了很多...
-
AIGC参数量节节攀升,对存储带来的挑战如何解决?
引言 近期,AIGC 相关产品如同雨后春笋一般不断涌现。但在技术层面,大家普遍的关注点更多集中在性能方面,却经常忽略了存储对推理和训练效率的影响,以及 AIGC 内容可能带来的合规风险。我们特邀腾讯云存储的产品负责人 崔剑老师和益企研究院创始人、腾讯云 ...
-
openAI灰度测试GPT4.5 实现六大能力增强
近日,有消息称OpenAI 正在灰度测试最新模型GPT4.5turbo,而宝玉、歸藏等博主也纷纷表示自己的版本已经更新到GPT4.5。 据GPT4.5turbo问答结果显示,相较于之前的GPT-4-turbo,新模型在多个方面实现了六大能力的增强。 首先,...
-
却话文心一言(Chatgpt们),存算一体真能突破AI算力“存储墙”|“能耗墙”|“编译墙”?
文心一言折戟沉沙 作为国内搜索引擎巨头玩家,百度在中文语料领域拥有大量的积累,在算力基础设施等层面也拥有优势。 但是国产化AI芯片的处境其实很难。 这不是危言耸听,也不是崇洋媚外。这不,百度文心一言初战吃瘪。...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景,在解码阶段,缓存先前token的Key和Value(K...
-
大模型太卷,AI应用就好做吗?
2022年底,ChatGPT推出后迅速在社交媒体上走红,很快,月活用户突破1亿,成为史上增长最快的消费者应用。 不久后,国内也掀起了一场轰轰烈烈的大模型竞赛,下场的企业越来越多,都在扬言要赶超ChatGPT。 一年过去,大模型没让参赛者看到盈利的曙光,资本...
-
今日思考(1) — 算力对机器人的影响(基于文心一言的回答)
目录 1.高tops的算力能支持什么水平的复合机器人控制 2.什么情况下控制机器人需要更高的算力 3.为什么使用人工智能算法,例如深度学习、强化学习等,需要更多的计算资源来实现更精准的决策和控制。 4.将已经训练好的人工智能算法模型,例...
-
文献阅读:LLaMA: Open and Efficient Foundation Language Models
文献阅读:LLaMA: Open and Efficient Foundation Language Models 1. 文章简介 2. 模型训练 1. 训练数据 2. 模型结构 3. 模型训练 1. Optimiz...
-
机器学习中常用的几种回归算法及其特点
回归是统计学中最有力的工具之一,机器学习监督学习算法分为分类算法和回归算法两种。回归算法用于连续型分布预测,可以预测连续型数据而不仅仅是离散的类别标签。 在机器学习领域,回归分析应用非常广泛,例如商品的销量预测问题,交通流量预测问题、预测房价、未来的天气...
-
解锁大语言模型“黑匣子”
自从大约10年前深度学习模型开始获得关注以来,人工智能的黑匣子问题就一直存在。但现在我们处于后ChatGPT时代,旧金山初创公司Watchful希望提高大型语言模型的透明度。 Watchful联合创始人兼首席执行官Shayan Mohanty说:“当人...
-
LLMLingua:集成LlamaIndex,对提示进行压缩,提供大语言模型的高效推理
大型语言模型(llm 的出现刺激了多个领域的创新。但是在思维链(CoT 提示和情境学习(ICL 等策略的驱动下,提示的复杂性不断增加,这给计算带来了挑战。这些冗长的提示需要大量的资源来进行推理,因此需要高效的解决方案,本文将介绍LLMLingua与专有的...
-
六个常用的聚类评价指标
评估聚类结果的有效性,即聚类评估或验证,对于聚类应用程序的成功至关重要。它可以确保聚类算法在数据中识别出有意义的聚类,还可以用来确定哪种聚类算法最适合特定的数据集和任务,并调优这些算法的超参数(例如k-means中的聚类数量,或DBSCAN中的密度参数 ...
-
今日思考(2) — 训练机器学习模型用GPU还是NUP更有优势(基于文心一言的回答)
前言 深度学习用GPU,强化学习用NPU。 1.训练深度学习模型,强化学习模型用NPU还是GPU更有优势 在训练深度学习模型时,GPU相比NPU有优势。GPU拥有更高的访存速度和更高的浮点运算能力,因此更适合深度学...
-
提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点
【新智元导读】最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这个结果表明,统一L...
-
图像相似度比较之 CLIP or DINOv2
在人工智能领域,计算机视觉的两大巨头是CLIP和DINOv2。CLIP改变了图像理解的方式,而DINOv2为自监督学习带来了新的方法。在本文中,我们将探索定义CLIP和DINOv2的强项和微妙之处的旅程。我们旨在发现这些模型中哪一个在图像相似度任务的世界...
-
AIGC:使用bert_vits2实现栩栩如生的个性化语音克隆
1 VITS2模型 1.1 摘要 单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型,...
-
【2023云栖】黄博远:阿里云人工智能平台PAI年度发布
本文根据2023云栖大会演讲实录整理而成,演讲信息如下: 演讲人:黄博远 | 阿里云计算平台事业部资深产品专家、阿里云人工智能平台PAI产品负责人 演讲主题:阿里云人工智能平台PAI年度发布 AIGC是我们这个时代的新机遇 今年云栖大会,阿里云机器...
-
神经网络中的量化与蒸馏
本文将深入研究深度学习中精简模型的技术:量化和蒸馏 深度学习模型,特别是那些具有大量参数的模型,在资源受限环境中的部署几乎是不可能的。所以就出现了两种流行的技术,量化和蒸馏,它们都是可以使模型更加轻量级,而不会对性能造成太大影响。但是它们需要什么,它们又...
-
大语言模型之十五-预训练和监督微调中文LLama-2
这篇博客是继《大语言模型之十二 SentencePiece扩充LLama2中文词汇》、《大语言模型之十三 LLama2中文推理》和《大语言模型之十四-PEFT的LoRA》 前面博客演示了中文词汇的扩充以及给予LoRA方法的预训练模型参数合并,并没有给出Lo...
-
大模型: 模型大了难在哪里?
大家好,我是Tim。 自从GPT模型诞生以来,其参数规模就在不停的扩大。但模型并非简单的直接变大,需要在数据、调度、并行计算、算法和机器资源上做相应的改变。 今天就来总结下,什么是大模型,模型变大的难在哪里以及对于CV/NLP或者搜推广场景上有什么应对策...
-
Nuscenes最新SOTA | DynamicBEV超越PETRv2/BEVDepth!
1. 论文信息 2. 引言 这篇论文介绍了一种新的3D object detection方法,这对于自动驾驶、机器人技术和监控等应用至关重要。传统的3D object detection方法使用鸟瞰视角(BEV)方法,将3D场景简化为2D表示。然而,常...