-
击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了
一周前,OpenAI 给广大用户发放福利,在下场修复 GPT-4 变懒的问题后,还顺道上新了 5 个新模型,其中就包括更小且高效的 text-embedding-3-small 嵌入模型。 我们知道,嵌入是表示自然语言或代码等内容中概念的数字序列。嵌入使...
-
LLaMA、Baichuan、ChatGLM、Qwen、天工等大模型对比
12.10更新:Qwen技术报告核心解读 Baichuan Baichuan 2: Open Large-scale Language Models 数据处理:数据频率和质量,使用聚类和去重方法,基于LSH和dense embedding方...
-
大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」
大模型的预训练需要耗费巨量的计算资源和数据,因而预训练模型的参数也正成为各大机构重点保护的核心竞争力和资产。然而,不同于传统的软件知识产权保护可以通过比对源代码来确认是否存在代码盗用,对预训练模型参数盗用的判断存在以下两方面的新问题: 1) 预训练模型的...
-
年龄两岁,教龄一年半:婴儿AI训练师登上Science
在公开采访中,图灵奖得主 Yann LeCun 多次提到,现在的 AI 模型和人类婴儿相比,学习效率实在是太低了。那么,如果让一个 AI 模型去学习婴儿头戴摄像头拍到的东西,它能学到什么? 最近,Science 杂志上的一篇论文进行了初步尝试。研究发现,...
-
华科大发布多模态大模型新基准 覆盖五大任务
近期,华中科技大学等机构发布了一项关于多模态大模型(LMMs)的全面评估新基准,旨在解决多模态大模型性能评估的问题。这项研究涉及了14个主流多模态大模型,包括谷歌Gemini、OpenAI GPT-4V等,覆盖了五大任务、27个数据集。然而,由于多模态大模...
-
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导
合成数据已经成为了大语言模型进化之路上最重要的一块基石了。 在去年底,有网友扒出前OpenAI首席科学家Ilya曾经在很多场合表示过,LLM的发展不存在数据瓶颈,合成数据可以解决大部分的问题。 图片 英伟达高级科学家Jim Fan在看了最近的一批论文后也...
-
云原生场景下,AIGC 模型服务的工程挑战和应对
“成本”、“性能”和 “效率”正在成为影响大模型生产和应用的三个核心因素,也是企业基础设施在面临生产、使用大模型时的全新挑战。AI 领域的快速发展不仅需要算法的突破,也需要工程的创新。 01 大模型推理对基础设施带来更多挑战 首先,AI 商业化的时代,...
-
十分钟读完「降低 LLaMA 模型微调内存占用的QLoRA」论文
QLoRA 提出内存高效的微调方法!降低 LLaMA 模型微调内存占用,仅需数小时追赶 ChatGPT 引言:大模型微调的新时代 随着人工智能技术的飞速发展,大型语言模型(Large Language Models,LLMs)已成为自然语言处理领域的重...
-
南大周志华团队8年力作!「学件」系统解决机器学习复用难题,「模型融合」涌现科研新范式
HuggingFace是目前最火热的机器学习开源社区,汇集30万个不同的机器学习模型,有超过10万个应用可供用户访问和使用。 如果HuggingFace上这30万个模型,可以自由组合,共同完成新的学习任务,那会是一种什么样的画面? 其实在HuggingF...
-
讯飞星火V3.5整体接近GPT-4 Turbo!首个13B开源大模型发布,深度适配国产算力
【新智元导读】首个基于全国产化算力平台「飞星一号」的大模型,正式开源! 1月26日,美国商务部长雷蒙多表示,拜登政府正在尽全力阻止中国获得训练AI模型所需的算力资源。 美国的云计算公司,都被要求确定是否有外国实体正在访问美国数据中心以训练AI模型。 雷蒙多...
-
【探索科技 感知未来】文心一言大模型
【探索科技 感知未来】文心大模型 ?本文介绍 文心一言大模型是由中国科技巨头百度公司研发的一款大规模语言模型,其基于先进的深度学习技术和海量数据训练而成。这款大模型具备强大的自然语言处理能力,可以理解并生成自然语言,为用户提供自然、流畅的语言交...
-
准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源
OpenAI的GPT-4V和谷歌最新的Gemini多模态大语言模型一经推出就得到业界和学界的热切关注: 一系列工作都从多角度展示了这些多模态大语言模型对视频的理解能力。人们似乎相信我们离通用人工智能artificial general intellige...
-
大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增
大型语言模型(LLM)通常拥有数十亿的参数,用了数万亿 token 的数据进行训练,这样的模型训练、部署成本都非常高。因此,人们经常用各种模型压缩技术来减少它们的计算需求。 一般来讲,这些模型压缩技术可以分为四类:蒸馏、张量分解(包括低秩因式分解)、剪枝...
-
PAI-ChatLearn :灵活易用、大规模 RLHF 高效训练框架(阿里云最新实践)
PAI-ChatLearn 是阿里云机器学习平台 PAI 团队自主研发的,灵活易用、大规模模型 RLHF 高效训练框架,支持大模型进行 SFT(有监督指令微调)、RM(奖励模型)、RLHF(基于人类反馈的强化学习)完整训练流程。PAI-ChatLear...
-
Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效
随着 LLaMA、Mistral 等大语言模型的成功,各家大厂和初创公司都纷纷创建自己的大语言模型。但从头训练新的大语言模型所需要的成本十分高昂,且新旧模型之间可能存在能力的冗余。 近日,中山大学和腾讯 AI Lab 的研究人员提出了 FuseLLM,用...
-
微软开发新型大模型压缩方法SliceGPT
SliceGPT是微软开发的一种新型的大语言模型压缩方法。通过SLICE GPT,可以在保持99%,99%,和90%零样本任务性能的同时,将LLAMA2-70B、OPT66B和Phi-2模型分别去除高达25%的模型参数(包括嵌入)。 这意味着使用SLICE...
-
Stable Diffusion XL总结
Stable Diffusion XL是一个二阶段的级联扩散模型,包括Base模型和Refiner模型。其中Base模型的主要工作和Stable Diffusion一致,具备文生图,图生图,图像inpainting等能力。在Base模型之后,级联了Refi...
-
GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板
当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABAB CDCD EFEF GG」执行。 同时,诗中还要包含提供的3个词。 对于这么高难度的创作题,LLM在收到指令后,并不一定能够按要求做出这首诗。 正所谓,人各有所长,LLM也是如此,仅凭单...
-
过去两周,六个最有可能改变AI进程的发布!
编译 |言征 过去两周,新的人工智能更新不断涌现,异常疯狂。我们决定整理最近发布的六大框架和模型。 1、ActAnywhere:主题感知视频背景生成 图片 Adobe Research和斯坦福大学推出了Act Anywhere,这是一种生成模型,解决了电...
-
高效底座模型LLaMA
论文标题:LLaMA: Open and Efficient Foundation Language Models 论文链接:https://arxiv.org/abs/2302.13971 论文来源:Meta AI 一、概述 大型语...
-
18LLM4SE革命性技术揭秘:大型语言模型LLM在软件工程SE领域的全景解析与未来展望 - 探索LLM的多维应用、优化策略与软件管理新视角【网安AIGC专题11.15】作者汇报 综述
Large Language Models for Software Engineering: A Systematic Literature Review 写在最前面 论文名片 课堂讨论 RQ1部分:LLMs的选择和优化 RQ2部分:LLM...
-
多模态大模型,阿里通义千问能和GPT-4V掰手腕了
通义千问的图像推理能力,最近有了大幅提升。 2024年,大模型领域要卷什么? 如果没有思路的话,不妨看看各家大厂都在押注什么方向。 最近一段时间,先是 OpenAI 推出 GPT-4V,让大模型拥有了前所未有的图像语义理解能力。 谷歌随后跟上,发布的 G...
-
推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历
去年12月,CMU和普林斯顿的2位研究者发布了Mamba架构,瞬间引起AI社区震动! 结果,这篇被众人看好有望「颠覆Transformer霸权」的论文,今天竟曝出疑似被顶会拒收?! 今早,康奈尔大学副教授Sasha Rush最先发现,这篇有望成为奠基之作...
-
GPT-4不偷懒了!OpenAI连甩五个大模型,价格最低打两折
OpenAI深夜更新!一口气连甩五个大模型: 新的GPT-4 Turbo预览模型 新的GPT-3.5 Turbo型号 新的文本审核模型 两种新文本嵌入模型 实打实地来了个加量又减价,甚至有模型直接来了个骨折价——降到了原来的五分之一。 开发者狂喜!...
-
生成式人工智能中的BYOK(BringYourOwnKey)是一把双刃剑
原文作者 | Emmanuel Ajala 自带密钥(BYOK)——一个保证可定制和可控的概念在不断发展的人工智能(AI)世界中脱颖而出。 虽然BYOK经常在云计算和安全领域讨论,但本文深入将探讨其在生成式人工智能领域的应用。 与开发人员使用算法的...
-
Mamba论文为什么没被ICLR接收?AI社区沸腾了
基于 Mamba 的创新正不断涌现,但原论文却被 ICLR 放到了「待定区」。 2023年,Transformer 在 AI 大模型领域的统治地位被撼动了。发起挑战的新架构名叫「Mamba」,它是一种选择性状态空间模型( selective state s...
-
大模型推理成本排行榜来了:贾扬清公司效率领跑
「大模型的 API 是个亏本买卖吗?」 随着大语言模型技术的逐渐实用化,越来越多的科技公司提出了大模型 API 供开发者们使用。但前有 OpenAI「每天烧掉 70 万美元」,我们也有理由怀疑以大模型为基础的业务到底能不能持续。 本周四,AI 创业公司...
-
强化学习和世界模型中的因果推断
一、世界模型 “世界模型”源于认知科学,在认知科学里面有一个等价的词汇 mental models,也就是心智模型。那么什么是心智模型?在认知科学里有一个假设,认为人在大脑内部会有一个对于真实外在世界的表征,它对于认知这个世界,特别是推理和决策有很关...
-
大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加速推理方案之一
如你我所知,在大型语言模型(LLM)的运行逻辑中,随着规模大小的增加,语言生成的质量会随着提高。不过,这也导致了推理延迟的增加,从而对实际应用构成了重大挑战。 从系统角度来看,LLM 推理主要受内存限制,主要延迟瓶颈源于加速器的内存带宽而非算术计算。这一...
-
MIT和谷歌提出新AI框架Health-LLM:利用可穿戴传感器数据为健康预测任务调整LLM
近日,MIT和Google的研究人员共同提出了一种名为Health-LLM的新型人工智能框架,旨在将大语言模型(LLMs)应用于健康预测任务,利用可穿戴传感器的数据。该框架的提出标志着健康领域在可穿戴技术和人工智能的交叉点上取得了重大突破。 可穿戴传感器技...
-
业内:过去数月老款AI芯片降价,大模型培训成本降60%
1月24日消息,众所周知,开发大语言模型(LLM)成本高昂。这不仅包括模型本身的研发,还有在云端运行这些模型的费用。以人工智能初创公司Anthropic为例,云端运行模型的成本几乎占了该公司上个月收入的一半以上,这还未算上训练模型的成本。 然而,最近的...
-
DeepSeek 发布全新开源大模型,数学推理能力超越 LLaMA-2
自从 LLaMA 被提出以来,开源大型语言模型(LLM)的快速发展就引起了广泛研究关注,随后的一些研究就主要集中于训练固定大小和高质量的模型,但这往往忽略了对 LLM 缩放规律的深入探索。 开源 LLM 的缩放研究可以促使 LLM 提高性能和拓展应用领域...
-
Llama 2- Open Foundation and Fine-Tuned Chat Models<3>
3.4 RLHF 结果 3.4.1 基于模型的评估 评估LLMs是一个具有挑战性的开放研究问题。人类评估虽然是黄金标准,但可能会因各种 HCI 考虑因素而变得复杂(Clark 等人,2021;Gehrmann 等人,2023),并且并不总是可扩展的...
-
无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用
随着人工智能技术的发展,以 GPT-4 为代表的大语言模型依靠其强大的能力正在对社会产生深远的影响。与此同时,大模型本身的安全性问题也变得尤为重要。如何确保大语言模型可以和人类的价值、真实的意图相一致,防止模型被滥用、输出有害的信息,这是大模型安全治理的...
-
逆天了!UniVision:BEV检测和Occupancy联合统一框架,双任务SOTA!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&个人理解 最近这几年以视觉为中心的3D感知在自动驾驶中得到了快速发展。尽管3D感知模型在结构和概念上有许多相似之处,但在特征表示、数据格式和目标方面仍存在差距,这对统一高效的3D感知...
-
网络安全人士必知的AI专业术语
随着人工智能的迅猛发展,我们正置身于第四次工业革命的浪潮中。在这个数字化的时代,网络安全成为各行业至关重要的议题。作为网络安全从业人员,不仅需要熟练掌握传统安全领域的知识,更需要深刻理解和运用人工智能,以在风云变幻的网络战场中保护信息资产。人工智能不仅为...
-
ChatGPT 和文心一言两大AI助手的比较
一 背景 ChatGPT是由OpenAI开发的,它可以理解自己生成的内容,并根据输入的上下文进行推理和生成回复。这种自我理解的能力使得ChatGPT在处理复杂对话和问题时具有优势。 然而,ChatGPT的缺点是只能根据预先设定的规则和模板回...
-
AIGC内容分享(四十一):国内AIGC独角兽冲出几家?
目录 2023年新晋AI独角兽 智谱AI:清华计算机系KEG科研成果 百川智能:原搜狗CEO王小川创业项目 零一万物:李开复筹建的新项目 Minimax:前商汤副总裁创业项目 结尾: 2023年新晋AI独角兽 根据IT桔子数据,截...
-
大模型自我奖励:Meta让Llama2自己给自己微调,性能超越了GPT-4
大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效果。 最近,来自 Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,给人带来了一点新的震撼。 在新方法中,作者...
-
被OpenAI、Mistral AI带火的MoE是怎么回事?一文贯通专家混合架构部署
选自 HuggingFace 博客 编译:赵阳 专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。 早些时候,有人爆料...
-
AI视野:百度推视频生成模型UniVG;下一代大模型Llama3正在训练;腾讯推视频模型VideoCrafter2;TikTok测试AI作曲功能
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 1、百度推出视频生...
-
苹果AIM自回归视觉模型验证性能与模型规模有关
苹果公司的研究者通过自回归图像模型(AIM)验证了视觉模型“参数越多性能越强”的规律,进一步证明随着容量或预训练数据量的增加,模型能不断提升性能。AIM能有效利用大量未经整理的图像数据,训练方法和稳定性与最近的大型语言模型(LLM 类似。这一观察结果与之前...
-
ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
如何根据特定需求选择视觉模型? ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较? 来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。 论文地址:ht...
-
大模型“藏毒”:“后门”触发,猝不及防!
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 跟大模型会产生幻觉相比,更可怕的事情来了,最新的一项研究证明:在用户不知情的情况下,最初觉得很得力的大模型助手,将化身“间谍”,产生破坏性代码。 具体来讲,一组研究人员对LL...
-
ReSimAD:如何在没有真实数据的情况下,提升感知模型的泛化性能
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 自动驾驶车辆传感器层面的域变化是很普遍的现象,例如在不同场景和位置的自动驾驶车辆,处在不同光照、天气条件下的自动驾驶车辆,搭载了不同传感器设备的自动驾驶车辆,上述这些...
-
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了
从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。...
-
元象开源大模型XVERSE-Long-256K 支持输入25万汉字
元象发布了全球首个上下文窗口长度为256K 的开源大模型 XVERSE-Long-256K,支持输入25万汉字,无条件免费商用。 该模型填补了开源生态空白,与元象之前的大模型组成了高性能全家桶。XVERSE-Long-256K 在评测中表现出色,超越了其他...
-
OpenAI Whisper论文笔记
OpenAI Whisper论文笔记 OpenAI 收集了 68 万小时的有标签的语音数据,通过多任务、多语言的方式训练了一个 seq2seq (语音到文本)的 Transformer 模型,自动语音识别(ASR)能力达到商用水准。本文为李沐老师论文精...
-
深挖RLHF潜力,复旦语言和视觉团队创新奖励模型优化,让大模型更对齐
继第一份大模型对齐技术报告(Secrets of RLHF in Large Language Models Part I)获 NeurIPS 2023 workshop best paper 后,第二份报告强势归来,复旦语言和视觉团队联合推出的第二...
-
【LLM】微调LLM:LoRA 还是全参数?Llama 2 的深入分析
?大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流? ?个人主页-Sonhhxg_柒的博客_CSDN博客 ? ?欢迎各位→点赞? + 收藏⭐️ + 留言? ?系列专栏 - 机器学习【ML】 自然语言...