-
开源之光 Stable Diffusion 3 技术论文全解:公式占一半,实验很充分!
文章链接:https://arxiv.org/pdf/2403.03206 扩散模型通过反转数据到噪声的正向路径来从噪声中创建数据,并已成为处理高维感知数据(如图像和视频)的强大生成建模技术。Rectified flow是一种最近提出的生成模型形式,它将...
-
探索多模态智能边界:Visual-Chinese-LLaMA-Alpaca 开源项目解析与应用指南
探索多模态智能边界:Visual-Chinese-LLaMA-Alpaca 开源项目解析与应用指南 在人工智能领域,多模态学习正逐渐成为研究热点,它旨在融合视觉和语言信息,构建能够理解和生成跨模态内容的智能体。Visual-Chinese-LLaMA...
-
AIGC入门(一) 从零开始搭建Transformer!(上)
前言 我记得曾经看过一篇综述,综述里曾这样讲过: 多模态使用Transformer作为基石模型的一个原因之一,就是因为它能够很好地统一视觉(ViT、DiT)和文本,并且无限制地扩大其参数。这是一个在工程上很有作用也很有实际意义的事情。 笔者...
-
GPT-4批评GPT-4实现「自我提升」!OpenAI前超级对齐团队又一力作被公开
今天,OpenAI悄悄在博客上发布了一篇新论文——CriticGPT,而这也是前任超级对齐团队的「遗作」之一。CriticGPT同样基于GPT-4训练,但目的却是用来指正GPT-4的输出错误,实现「自我批评」。 OpenAI最近的拖延症状逐渐严重,不仅GP...
-
每日AIGC最新进展(29):复旦大学提出通过人类反馈来优化语音生成模型SpeechAlign、浙江大学提出跟踪3D空间中的任何2D像素SpatialTracker、西安交大提出动态场景的语义流
Diffusion Models专栏文章汇总:入门与实战 SpeechAlign: Aligning Speech Generation to Human Preferences 本文介绍了一种名为SpeechAlign的方法,旨在通过人类反馈...
-
llama系列模型学习
一、目录 llama1 模型与transformer decoder的区别 llama2 模型架构 llama2 相比llama1 不同之处 llama3 相比llama2 不同之处 llama、llama2、llama3 分词器词表大小以及优缺点...
-
重磅!Meta 发布 Llama 3,前所未有的强大功能和多模态能力|TodayAI
Meta今日宣布推出其最新一代尖端开源大型语言模型Llama 3。该模型预计很快将在多个领先的云服务平台上线,包括AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft A...
-
LLaMA 羊驼系大语言模型的前世今生
关于 LLaMA LLaMA是由Meta AI发布的大语言系列模型,完整的名字是Large Language Model Meta AI,直译:大语言模型元AI。Llama这个单词本身是指美洲大羊驼,所以社区也将这个系列的模型昵称为羊驼系模型。 Ll...
-
ChatGPT等模型疯狂训练,最快2026年消耗尽公开文本数据
AI发展科研机构Epochai在官网发布了一项,关于大模型消耗训练数据的研究报告。 目前,人类公开的高质量文本训练数据集大约有300万亿tokens。但随着ChatGPT等模大型的参数、功能越来越强以及过度训练,对训练数据的需求呈指数级增长,预计将在202...
-
机器学习正在突破摩尔定律,Epoch 最新AI发展趋势预测
近日,Epoch AI更新了他们对机器学习远期趋势的研究报告,在计算、数据、硬件、算法、成本等多个维度对人工智能模型趋势进行了深入研究。 Epoch AI是一家研究机构,致力于研究影响人工智能发展轨迹和治理的关键趋势和问题,以造福社会。其报告中的研究结论联...
-
LLaMA: Open and Efficient Foundation Language Models
*背景 已有的大模型越来越多的追求更大的参数量以实现更高的性能,但有研究表明更小的模型在更大的数据集上同样可以表现良好,因此本文旨在通过大量公开可用的数据集来训练一个语言模型同时取得SOTA的性能,模型大小从7B到65B,并且开源相关模型代码。(htt...
-
大模型论文解读|| 数学新巅峰,微软&清华联合研究发现:7B级LLaMA-2模型数学能力惊人,准确率高达97.7%
开篇:数学能力在常规语言模型中的崭露头角 数学能力长期以来被认为是语言模型中难以攻克的领域,只有在模型规模极大或经过大量数学相关预训练的情况下才可能显现。然而,最新的研究表明,即使是规模较小的常规语言模型,如LLaMA-2 7B,也已经展现出了强大的数学...
-
大规模语言模型从理论到实践 LLaMA的模型结构
1.背景介绍 随着人工智能技术的不断发展,大规模语言模型(Large Language Models, LLMs)已经成为自然语言处理领域的热点。这些模型通过在大规模数据集上进行训练,能够生成连贯、相关且有趣的文本输出。LLaMA 是 Meta AI 开...
-
论文笔记:Pixel-Aware Stable Diffusion for Realistic Image Super-Resolution and Personalized Stylization
CVPR2024 论文代码:yangxy/PASD (github.com 论文地址:[2308.14469v3] Pixel-Aware Stable Diffusion for Realistic Image Super-resolution a...
-
一文实现Llama 3 图片理解能力微调(XTuner+LLaVA 版)
本次实验基于 Llama3-8B-Instruct 和 XTuner 团队预训练好的 Image Projector 微调自己的多模态图文理解模型 LLaVA。实验平台为InternStudio,实验所用的显存为24G。 =============目录=...
-
探秘Whisper Diarization:语音转文字与对话分割的新锐工具
探秘Whisper Diarization:语音转文字与对话分割的新锐工具 项目地址:https://gitcode.com/MahmoudAshraf97/whisper-diarization 项目简介 Whisper Diarization 是...
-
LLaMA 2语言大模型的微调策略:LoRA与全参数选择
随着自然语言处理(NLP)技术的飞速发展,大型语言模型(LLMs)在各个领域都展现出了强大的能力。LLaMA 2作为其中的佼佼者,具有巨大的潜力。然而,如何有效地对LLaMA 2进行微调,以适应特定的任务或数据集,成为了一个关键问题。本文将对LoRA技术与...
-
深度学习突破:LLaMA-MoE模型的高效训练策略
在人工智能领域,大模型(LLM)的崛起带来了前所未有的进步,但随之而来的是巨大的计算资源需求。为了解决这一问题,Mixture-of-Expert(MoE)模型架构应运而生,而LLaMA-MoE正是这一架构下的重要代表。 LLaMA-MoE是一种基于...
-
百度文心一言与谷歌Gemini的对比
版权声明 本文原创作者:谷哥的小弟 作者博客地址:http://blog.csdn.net/lfdfhl 本文从多角度将百度文心一言与谷歌Gemini进行对比。因为不同评测基准的侧重点和难度可能有所不同,所以本文涉及到的评测结果仅供参考。Gem...
-
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。 但是,随着模型越来越大,RLHF 通常需要维持多个模型...
-
OpenAI前员工预测:2027年AGI降临!GPT智商飙升,4年从幼儿园蹿到高中生
AGI到底是科技公司画的大饼,还是可预测的未来? 几天前,Anthropic一名25岁的高管在博客上发文,表示自己已经准备好了3年后退休,让AI取代自己的工作。 最近,OpenAI前员工的一篇博客文章也有类似的观点。 图片 他不仅认为AGI很可能实现,而...
-
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
什么?疯狂动物城被国产AI搬进现实了? 与视频一同曝光的,是一款名为「可灵」全新国产视频生成大模型。 它采用了Sora相似的技术路线,结合多项自研技术创新,生成的视频不仅运动幅度大且合理,还能模拟物理世界特性,具备强大的概念组合能力和想象力。 数据上看...
-
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升
在过去的几年里,Transformer架构在自然语言处理(NLP)、图像处理和视觉计算领域的深度表征学习中取得了显著的成就,几乎成为了AI领域的主导技术。 然而,虽然Transformer架构及其众多变体在实践中取得了巨大成功,但其设计大多是基于经验的,...
-
Github万星!北航发布零代码大模型微调平台LlamaFactory
在人工智能领域,大语言模型(LLMs)已成为推动技术进步的关键力量。它们在理解和生成自然语言方面展现出了卓越的能力,从而在问答系统、机器翻译、信息提取等多样化任务中发挥着重要作用。然而,要将这些模型适配到特定的下游任务中,通常需要进行微调(fine-tun...
-
智谱AI宣布开源 GLM 第四代模型 GLM-4-9B
GLM 技术团队于2023年3月14日开源了 ChatGLM-6B,引起了广泛的关注和认可。随后又开源了 ChatGLM3-6B,开发者对 GLM 第四代模型的开源充满期待。经过近半年的探索工作,GLM 技术团队推出了第四代 GLM 系列开源模型:GLM-...
-
机器学习中不得不知的数学基础
随着各类语言库和框架的不断增加,机器学习变得越来越受欢迎。人们在各个领域更容易找到人工智能和机器学习的应用。然而,依赖库和框架来使用人工智能可能不会使人们成为该领域的专家。虽然编码框架的支持增加了可用性,但要在人工智能行业取得成功,我们必须深入理解代码背...
-
YoloCS:有效降低特征图空间复杂度
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 论文地址:YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidificatio...
-
3B模型新SOTA!开源AI让日常调用不同大模型更简单
大模型,大,能力强,好用! 但单一大模型在算力、数据和能耗方面面临巨大的限制,且消耗大量资源。 而且目前最强大的模型大多为闭源,对AI开发的速度、安全性和公平性有所限制。 AI大模型的未来发展趋势,需要怎么在单一大模型和多个专门化小模型之间做平衡和选择?...
-
多模态模型学会打扑克:表现超越GPT-4v,全新强化学习框架是关键
只用强化学习来微调,无需人类反馈,就能让多模态大模型学会做决策! 这种方法得到的模型,已经学会了看图玩扑克、算“12点”等任务,表现甚至超越了GPT-4v。 图片 这是来自UC伯克利等高校最新提出的微调方法,研究阵容也是相当豪华: 图灵奖三巨头之一、M...
-
昆仑万维宣布开源2千亿稀疏大模型Skywork-MoE 性能强劲成本更低
在大模型技术迅速发展的背景下,昆仑万维公司开源了一个具有里程碑意义的稀疏大型语言模型Skywork-MoE。这个模型不仅在性能上表现出色,而且还大幅降低了推理成本,为应对大规模密集型LLM带来的挑战提供了有效的解决方案。 Skywork-MoE模型特点:...
-
清洁数据,可信模型:确保您的LLM拥有良好的数据卫生
事实上,有些数据输入模型风险太大。有些可能带来重大风险,例如隐私侵犯或偏见。 译自Clean Data, Trusted Model: Ensure Good Data Hygiene for Your LLMs,作者 Chase Lee。 大语言模型...
-
英伟达新研究:上下文长度虚标严重,32K性能合格的都不多
无情戳穿“长上下文”大模型的虚标现象—— 英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长度的都有。 但一番考验下来,在新指标“有效上下文”上缩水严重,能达到32K的都不多。 新基准名为RULER,包含检索、多跳追踪、...
-
ICML2024高分!魔改注意力,让小模型能打两倍大的模型
改进Transformer核心机制注意力,让小模型能打两倍大的模型! ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。 DCMHA解除...
-
大型科技公司拥才有承担 AI 训练数据成本的能力
AI 的发展离不开数据,而这种数据的成本越来越高,这使得除了最富有的科技公司外,其他公司难以承担这一成本。根据去年 OpenAI 的研究人员 James Betker 的文章,AI 模型的训练数据是决定模型能力的关键因素。传统的 AI 系统主要是基于统计机...
-
使用LLaMA Factory来训练智谱ChatGLM3-6B模型
使用LLaMA Factory来训练智谱ChatGLM3-6B模型时,以下是一个训练过程: 1. 环境搭建 a. 安装Python和Anaconda 下载并安装适合你操作系统的Python版本(推荐Python 3.10或更高版本)。 安装Anac...
-
AI作画算法原理
1.概述 AI作画算法的原理相当复杂,涉及多个领域的知识,包括计算机视觉、机器学习和神经网络等。我们从以下几个方面来描述AI作画算法的基本原理。 2. 数据准备 在数据准备方面,AI作画算法通常需要大量的图像数据作为训练样本。可以是各种各样的艺术...
-
Stable Diffusion的微调方法详解
Stable Diffusion作为一种强大的文本到图像生成模型,已经在艺术、设计和科研等多个领域取得了广泛的应用。然而,为了使其更好地适应特定任务或领域,微调(Fine-tuning)技术显得尤为重要。本文将详细介绍Stable Diffusion的微调...
-
Stable Diffusion 3.0技术论文解读
前几周 AI绘画领域扔出了一颗重磅炸弹 那就是Stability AI发布了备受期待的Stable Diffusion 3.0 简称SD3 一周后 官方放出了一篇详尽的技术论文 阐述了SD3实现突破性进展的底层原理 但是同时也引发了一连串疑问...
-
MonoDETRNext:下一代准确高效的单目3D检测方法!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 基于单目视觉的3D目标检测在各个领域都至关重要,但现有方法在准确性和计算效率方面面临着重大挑战。在2D检测和深度估计的成功策略的基础上,本文提出了MonoDETRNe...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具
探秘Faster Whisper:一款加速 Whisper 模型训练的高效工具 项目地址:https://gitcode.com/SYSTRAN/faster-whisper 在自然语言处理(NLP)领域,Transformer架构的模型如Whis...
-
可解释性人工智能:解释复杂的AI/ML模型
译者 | 李睿 审校 | 重楼 人工智能(AI 和机器学习(ML 模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关者解释。可解释性人工智能(XAI)旨在通过让利益相关者理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如...
-
可控核聚变新里程碑,AI首次实现双托卡马克3D场全自动优化,登Nature子刊
几十年来,核聚变释放能量的「精妙」过程一直吸引着科学家们的研究兴趣。 现在,在普林斯顿等离子体物理实验室(PPPL)中 ,科学家正借助人工智能,来解决人类面临的紧迫挑战:通过聚变等离子体产生清洁、可靠的能源。 与传统的计算机代码不同,机器学习不仅仅是指令...
-
LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南
随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加速工具...
-
在个人 Linux 机器 (GPU/CPU) 上本地运行 LLaMA-3(Docker+Ollama+Open WebUI+LLama3教程含详细步骤)
在当今快速发展的人工智能环境中,部署开源大型语言模型 (LLM 通常需要复杂的计算基础设施。然而,Ollama 的创新平台正在改变这一规范,支持在标准个人计算机上使用这些强大的模型,支持CPU和GPU配置。本指南介绍了如何使用 Ollama 在您自己的设...
-
通透!如何选择合适的机器学习算法
算法选择注意事项 为任务选择正确的机器学习算法涉及多种因素,每个因素都会对最终决策产生重大影响。以下是决策过程中需要牢记的几个方面。 1.数据集特征 数据集的特征对于算法的选择至关重要。数据集的大小、包含的数据元素的类型、数据是结构化的还是非结构化的等...
-
大模型烧钱战“卷”出白菜价,李开复、王小川为何拒绝入局?
撰稿丨今日晴 出品 | 51CTO技术栈(微信号:blog51cto) 暗流涌动的大模型圈,几乎毫无征兆地开启了价格战。 近一周时间,字节跳动、阿里巴巴、百度、腾讯等多家厂商纷纷调整旗下大模型产品的定价策略,宣布面向企业市场的API价格下调,动辄下调90...
-
单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 Spotlight
蛋白质结构相比于序列往往被认为更加具有信息量,因为其直接决定了蛋白质的功能。 而随着AlphaFold2带来的巨大突破,大量的预测结构被发布出来供人研究使用,如何利用这些蛋白质结构来训练强大且通用的表征模型是一个值得研究的方向。 西湖大学的研究人员利用F...
-
腾讯混元大模型降价 混元-lite全面免费
腾讯云宣布大模型升级,旨在通过技术革新和价格调整,进一步推动人工智能(AI)应用的普及与发展。其中,混元系列模型作为腾讯云的主力模型,迎来了全面的性能提升和价格调整。 首先,混元-lite模型将实现API输入输出长度的巨大飞跃。目前,其API输入输出总长度...
-
时间序列预测:探索性数据分析和特征工程的实用指南
时间序列分析是数据科学和机器学习领域最广泛的主题之一:无论是预测金融事件、能源消耗、产品销售还是股票市场趋势,这一领域一直是企业非常感兴趣的领域。 随着机器学习模型的不断进步,使除了传统的统计预测方法(如回归模型、ARIMA模型、指数平滑 外,与机器学习...