-
AI绘画创作,训练Lora模型绘制你心中的童年爱豆漫画
从零开始,教你如何塑造完美动漫人物Lora模型 1.整合包下载 首先是去秋叶大佬那里下载一键训练包,这样我们的训练就相当简单,解压包以后先更新,后启动。 秋叶大神百度网盘包:百度网盘 请输入提取码 提取码:p8uy 秋叶...
-
谷歌 DeepMind 推出 AlphaGeometry:奥林匹克级几何AI系统
谷歌旗下的DeepMind研究团队最近推出了名为AlphaGeometry的人工智能系统,该系统在解决几何奥林匹克问题方面表现出色,几乎可与人类金牌得主相媲美。这一成就代表着在大学预科数学困难领域中复杂自动推理能力的显著进步。 几何奥林匹克问题一直以来都被...
-
Agent触摸汉堡辨冷热,首次拥有类人感官!UCLA等发布3D多模态交互具身智能大模型
具身智能,是大模型未来应用的一个重要方向。 现在,大模型加持下的智能体,能够参与3D环境,不仅有了听觉视觉,还有了触觉等多种感官能力。 卧室里有什么物体,一眼辨认。 听到门铃响了,LLM便会告诉你家里来客人了。 大模型加持的NPC,在触摸桌子的香蕉后,...
-
关于AI的风险 企业需要知道的事
Thales的全球副总裁Ashvin Kamaraju深入探讨了人们对AI风险的日益担忧,随着企业拥抱AI,他解释了最大的风险,并概述了领导者保护其AI生态系统的战略方法。 广泛可用的GenAI平台和工具的兴起,促使企业的决策者评估该技术在其堆栈中的哪...
-
部署新思路 | Minuet:在 GPU 上加速 3D 稀疏卷积
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:Minuet: Accelerating 3D Sparse Convolutions on GPUs 论文链接:https://arxiv.org/pdf/2401.06145.pdf 代码...
-
AIGC内容分享(二十):「AI视频生成」技术核心基础知识和模型应用
目录 何为AI视频? 一、技术发展概况 二、代表模型及应用 三、仍存在许多技术难点 何为AI视频? 「AI视频」通常指的是由人工智能(AI)技术生成或处理的视频。这可能包括使用深度学习、计算机视觉和其他相关技术来改善视频的质...
-
Pika、Gen-2、ModelScope、SEINE……AI视频生成哪家强?这个框架一测便知
AI 视频生成,是最近最热门的领域之一。各个高校实验室、互联网巨头 AI Lab、创业公司纷纷加入了 AI 视频生成的赛道。Pika、Gen-2、Show-1、VideoCrafter、ModelScope、SEINE、LaVie、VideoLDM 等视...
-
Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局
Llama 2-70B一夜之间打败GPT-4,让整个AI社区为之震惊! 甚至,在AlpacaEval 2.0排行榜中,微调后的模型胜率完全碾压Claude 2、Gemini Pro等模型。 Meta和NYU研究团队究竟提出了什么秘制配方,才能让Llam...
-
一文读懂Llama 2(从原理到实战)
文章目录 简介 实战:微调Llama 2 在线体验 参考 简介 Llama 2,是Meta AI正式发布的最新一代开源大模型。 Llama 2训练所用的token翻了一倍至2万亿,同时对于使用大模型最重要的上下文长度限制,Lla...
-
Video-LLaMA 论文精读
Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding video-LLaMA 一种用于视频理解的指令调整视听语言模型 引言 ...
-
英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大
昨天,Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,从而在 Llama 2 70B 的迭代微调后超越了 GPT-4。今天,英伟达的全新对话 QA 模型「ChatQA-70B」在不使用任何 GPT 模型数据的情况下,在 10...
-
LLaMA Board: 通过一站式网页界面快速上手 LLaMA Factory
原文:https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md ? 加入我们的微信群。 [ English | 中文 ] LLaMA Board: 通过一站式网页界面快速上手...
-
LCM-LoRA:通用stable diffusion 加速模块!2023.11.13顶会论文速递!
整理:AI算法与图像处理 欢迎关注公众号 AI算法与图像处理,获取更多干货: 推荐 微信交流群现已有2000+从业人员交流群,欢迎进群交流学习,微信:nvshenj125 B站最新成果demo分享地址:https://s...
-
Dreambooth Stable Diffusion始化训练环境(AutoDL)
以AutoDL为例 以下代码源自:赛博华佗——秋叶: Akegarasu 环境选择 Miniconda: Miniconda是一个轻量级的Conda环境管理系统。它包含了conda、Python和一些常用...
-
AIGC|手把手教你进行ChatGLM模型部署实践
一、背景介绍 模型部署基本步骤分为模型选择、模型部署、运行,如果需要在特定的场景下定制化模型,则还需要进行数据集的选择、数据集格式转换、微调。 根据上述的步骤本教程选取如下的开源模型、数据集,来对医疗场景下进行定制化模型部署。当然模型部署对G...
-
AIGC中的视觉生成文献整理
文章目录 文件夹文献总览 图像生成技术 视频生成技术 Video Generation with Text Condition Video Generation with other Conditions Video Editing 生成模...
-
大模型自我奖励:Meta让Llama2自己给自己微调,性能超越了GPT-4
大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效果。 最近,来自 Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,给人带来了一点新的震撼。 在新方法中,作者...
-
ChatGPT和文心一言哪个更好用?
ChatGPT和文心一言都是基于深度学习技术的自然语言处理模型,它们各自具有优势和局限性,需要根据具体需求进行选择。以下是两者的比较: 算力:ChatGPT由OpenAI开发,具有强大的文本生成能力和语言理解能力,其训练数据集规模和模型规模都非常大,...
-
Bard!谷歌对 ChatGPT 的最强反击,悄咪咪的支持中文了!
“ ChatGPT、Bard,哪个是更好的AI人工智能大语言模型。” 01 — ChatGPT 这么火,而且这款产品是 OpenAI 以谷歌的大模型架构 transformer 为基础迭代的。谷歌自然不甘落后,早在3月份推出自家的人...
-
快速上手!LLaMa-Factory最新微调实践,轻松实现专属大模型
1.为什么要对Yuan2.0做微调? Yuan2.0(https://huggingface.co/IEITYuan)是浪潮信息发布的新一代基础语言大模型,该模型拥有优异的数学、代码能力。自发布以来,Yuan2.0已经受到了业界广泛的关注。当前Yua...
-
程序员-AI必修课,AIGC 全栈项目实操(AI/前端/后端/测试/运维)
探索AI世界,成为全能程序员! 《程序员-AI必修课,AIGC 全栈项目实操》震撼上线!无论您是前端大神、后端高手、测试达人,还是运维专家,这门课程都将带您深入全栈,掌握AI在各个领域的应用。 课程目录一览: ChatGPT为程序员赋能系列:...
-
LLaMA模型泄露 Meta成最大受益者
一份被意外泄露的谷歌内部文件,将Meta的LLaMA大模型“非故意开源”事件再次推到大众面前。“泄密文件”的作者据悉是谷歌内部的一位研究员,他大胆指出,开源力量正在填平OpenAI与谷歌等大模型巨头们数年来筑起的护城河,而最大的受益者是Meta,因为该公司...
-
[NLP]LLaMA与LLamMA2解读
摘要 Meta最近提出了LLaMA(开放和高效的基础语言模型 模型参数包括从7B到65B等多个版本。最值得注意的是,LLaMA-13B的性能优于GPT-3,而体积却小了10倍以上,LLaMA-65B与Chinchilla-70B和PaLM-540B具有竞...
-
用通俗易懂的方式讲解大模型:一个强大的 LLM 微调工具 LLaMA Factory
LLM(大语言模型)微调一直都是老大难问题,不仅因为微调需要大量的计算资源,而且微调的方法也很多,要去尝试每种方法的效果,需要安装大量的第三方库和依赖,甚至要接入一些框架,可能在还没开始微调就已经因为环境配置而放弃了。 今天我们来介绍一个可以帮助大家快速...
-
全网最全AI绘画Stable Diffusion关键技术解析
背景 很多人觉得AI绘画不稳定,对于以后是否替代插画师,摄影工作者,设计师,表示存疑,作为AI从业者本文从AI绘画关键技术分析,明白以前生产者肯定会被淘汰,现在没有到达黄金期。 技术一定会让更多人失业,而我们拥抱变化,增强自身。 AI绘画中Stab...
-
【多模态】14、Segment Anything | Meta 推出超强悍可分割一切的模型 SAM
文章目录 一、Intruduction 二、Segment Anything Task 三、Segment Anything Model 四、Segment Anything Data Engine 五、Segment Anything Dat...
-
AIGC原理:扩散模型diffusion综述一:面向视觉计算的扩散模型研究进展
论文地址:State of the Art on Diffusion Models for Visual Computing ? 贴一幅SGM(Score-based Generative Model)的原因是宋飏博士将他2019年提出的SMLD模型和20...
-
stable-diffusion打造自己的lora模型(使用lora-scripts)
1、训练图片收集 比如要训练一个自己头像的模型,就可以拍一些自己的照片(20-50张,最少15张),要求画质清晰,脸部轮廓清楚,背景较为简单的照片。 2、使用stable_diffusion的预处理功能进行图片的预处理 这里可以根据自己的情况设置...
-
AIGC、ChatGPT、GPT系列?我的认识
AIGC(AI generated content),新型内容生产方式。AIGC是利用人工智能技术来生成内容,也就是,它可以用输入数据生成相同或不同类型的内容,比如输入文字、生成文字,输入文字、生成图像等。 GPT-3是生成型的预训练变换模型,是...
-
ChatGPT 和文心一言哪个更好用?
ChatGPT 和文心一言哪个更好用? 一:ChatGPT 更长的上下文:ChatGPT 可以处理更长的对话上下文。以前的模型限制了对话历史的长度,可能导致回答不完整或不连贯。ChatGPT 增加了对更长对话历史的理解能力,从而更好地回应前...
-
ChatGPT专业应用:英文语法纠错
正文共 381 字,阅读大约需要 1 分钟 英语学习者必备技巧,您将在1分钟后获得以下超能力: 英文语法纠错 Beezy评级 :B级 *经过简单的寻找, 大部分人能立刻掌握。主要节省时间。 推荐人 | Linda 编辑者 ...
-
新AI框架 AboutMe:用网页中自我描述来记录英语预训练数据过滤器的效果
随着自然语言处理和自然语言生成的进步,大型语言模型(LLMs)在实际应用中得到了广泛使用。由于它们能够模仿人类行为,并具有通用性,这些模型已经涉足各个领域。 虽然这些模型引起了相当大的关注,但它们代表了一组受限和偏向的人类观点和知识。预训练数据的组成是造成...
-
AI视野:百度推视频生成模型UniVG;下一代大模型Llama3正在训练;腾讯推视频模型VideoCrafter2;TikTok测试AI作曲功能
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 1、百度推出视频生...
-
GPU+生成式人工智能助力提升时空数据分析
译者 | 朱先忠 审校 | 重楼 摘要:通过实战案例介绍,本文指出随着基于GPU加速的数据库技术为时间序列和空间数据带来更好的性能和精度水平,生成式人工智能技术将使得非领域专家也能够进行复杂的时空数据处理。 引言 时空数据来自手机、气候传感器、金融市场交...
-
AI写的代码比“手工代码”安全性差很多
类似Github Copilot这样的人工智能代码助手能大大提高开发人员的开发效率和生产力,并降低开发技术门槛(不熟悉语言或概念的程序员的进入)。然而,缺乏经验的开发人员可能会轻易相信人工智能助手的输出内容,从而引入安全漏洞风险。 近日,斯坦福大学的一...
-
视觉Mamba来了:速度提升2.8倍,内存能省87%
号称「全面包围 Transformer」的 Mamba,推出不到两个月就有了高性能的视觉版。 本周四,来自华中科技大学、地平线、智源人工智能研究院等机构的研究者提出了 Vision Mamba(Vim)。 论文地址:https://arxiv.or...
-
最近读的AIGC相关论文思路解读
AIGC之SD可控生成论文阅读记录 提示:本博客是作者本人最近对AIGC领域相关论文调研后,临时记录所用,所有观点都是来自作者本人局限理解,以及个人思考,不代表对。如果你也正好看过相关文章,发现作者的想法和思路有问题,欢迎评论区留言指正! 既然是论...
-
最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发
Mixtral 8x7B开源模型的诞生,正如Llama一样,为开源社区了带来曙光。 前段时间,Mixtral刚刚发布了8x7B模型的论文。在基准测试结果中,其性能达到或超过 Llama 2-70B和GPT-3.5。 甚至,Mixtral在数学、代码生成和...
-
ICLR'24无图新思路!LaneSegNet:基于车道分段感知的地图学习
写在前面&笔者的个人理解 地图作为自动驾驶系统下游应用的关键信息,通常以车道或中心线表示。然而,现有的地图学习文献主要集中在检测基于几何的车道或感知中心线的拓扑关系。这两种方法都忽略了车道线与中心线的内在关系,即车道线绑定中心线。虽然在一个模型中...
-
WidthFormer:实时自动驾驶!助力基于Transformer的BEV方案量产
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&行业理解 基于BEV的transformer方案今年量产的主要方案,transformer结构和CNN相比,特征提取能力更强,但需要较多的算力,这也是为什么许多车上都是1~2颗orin...
-
AI绘画与多模态原理解析:从CLIP到DALLE1/2、DALLE 3、Stable Diffusion、SDXL Turbo、LCM
前言 终于开写本CV多模态系列的核心主题:stable diffusion相关的了,为何执着于想写这个stable diffusion呢,源于三点 去年stable diffusion和midjourney很火的时候,就想写,因为经常被刷屏,但那会时...
-
AIGC系列之:ControlNet原理及论文解读
《Adding Conditional Control to Text-to-Image Diffusion Models》 目录 1.背景介绍 2.原理详解 2.1 Controlnet 2.2 用于Stable Diffusion的Contr...
-
奥数能力金牌级:DeepMind几何推理模型登上Nature,代码开源,菲尔兹奖得主点赞
这一次,人工智能算法在数学奥林匹克竞赛(IMO)上取得了重大成绩突破。 在今天发表的国际权威期刊《自然》杂志最新一期上,论文《Solving olympiad geometry without human demonstrations》向世人介绍了 A...
-
stable diffusion原理
1、Latent space 隐空间是压缩数据的一个表示。数据压缩的目的是学习数据中较重要的信息。以编码器-解码器网络为例,首先使用全卷积神经网(FCN 络学习图片特征,我们将特征提取中对数据的降维看作一种有损压缩。但是由于解码器需要重建(reconst...
-
LLaMA Pro: Progressive LLaMA with Block Expansion
Q: 这篇论文试图解决什么问题? A: 这篇论文试图解决大型语言模型(LLMs)在特定领域(如编程、数学、生物医学或金融)能力不足的问题。尽管LLMs在多种现实世界任务中表现出色,但在某些特定领域仍然存在局限性,这阻碍了开发通用语言代理以应用于更广泛场景...
-
让你的Pandas代码快得离谱的两个技巧
如果你曾经使用过Pandas处理表格数据,你可能会熟悉导入数据、清洗和转换的过程,然后将其用作模型的输入。然而,当你需要扩展和将代码投入生产时,你的Pandas管道很可能开始崩溃并运行缓慢。在这篇文章中,笔者将分享2个技巧,帮助你让Pandas代码快得离...
-
推荐一家GPU平台部署Stable Diffusion
最近一年,扩散模型太火了,已经成为重要的生产力工具,在AI研究领域也不断有新的工作出现,成为产业界和学术界的热点。 本文将在趋动云平台部署扩散模型中广受关注的stable-diffusion-webui项目,手把手教程! 有需要算力跑模型的小伙伴,可以...
-
RoSA: 一种新的大模型参数高效微调方法
随着语言模型不断扩展到前所未有的规模,对下游任务的所有参数进行微调变得非常昂贵,PEFT方法已成为自然语言处理领域的研究热点。PEFT方法将微调限制在一小部分参数中,以很小的计算成本实现自然语言理解任务的最先进性能。 (RoSA 是一种新的PEFT技术...
-
20源代码模型的数据增强方法:克隆检测、缺陷检测和修复、代码摘要、代码搜索、代码补全、代码翻译、代码问答、问题分类、方法名称预测和类型预测对论文进行分组【网安AIGC专题11.15】
Data Augmentation Approaches for Source Code Models: A Survey 写在最前面 对nlp领域其他方向的启发 英文版: 论文名片 论文总结 一个有意思的表 1.背景Background...
-
昆仑天工SkyWork:更懂中文的AIGC开源模型
昆仑天工SkyWork系列AIGC开源模型,由奇点智源公司研发,在2022年12月发布,覆盖图像、文本、编程等多模态内容生成能力,包括绘画、文章续写、对话、中英翻译、推理、诗词对联、菜谱撰写、合同起草、代码补全等。 昆仑天工SkyWork系列模型...