-
不想炸薯条的Ilya和不送GPU的英伟达,Hinton最新专访:道路千万条,安全第一条
从谷歌离职一年之际,「人工智能教父」Hinton接受了采访。 ——也许是因为徒弟Ilya终于被从核设施中放了出来?(狗头) 视频地址:https://www.youtube.com/watch?v=tP-4njhyGvo 当然了,采访教父的小伙子也非等...
-
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mix...
-
首个智慧城市大模型UrbanGPT,全面开源开放|港大&百度
时空预测技术,迎来ChatGPT时刻。 时空预测致力于捕捉城市生活的动态变化,并预测其未来走向,它不仅关注交通和人流的流动,还涵盖了犯罪趋势等多个维度。目前,深度时空预测技术在生成精确的时空模型方面,依赖于大量训练数据的支撑,这在城市数据不足的情况下显得...
-
Stable Diffusion 指定模型,Lora 训练全流程
简介 在使用 Stable Diffusion 的时候,可以选择别人训练好的 Lora,那么如何训练自己的 Lora呢? 本篇文章介绍了如何训练Lora,如何筛选模型,如何在 Stable Diffusion 中使用。 闲话不多说,直接实际操作吧。...
-
7B?13B?175B?解读大模型的参数
大模型也是有大有小的,它们的大小靠参数数量来度量。GPT-3就有1750亿个参数,而Grok-1更是不得了,有3140亿个参数。当然,也有像Llama这样身材苗条一点的,参数数量在70亿到700亿之间。 这里说的70B可不是指训练数据的数量,而是指模型中...
-
不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它
一般而言,训练神经网络耗费的计算量越大,其性能就越好。在扩大计算规模时,必须要做个决定:是增多模型参数量还是提升数据集大小 —— 必须在固定的计算预算下权衡此两项因素。 Scaling law 告诉我们:只要能适当地分配参数和数据,就能在固定计算预算下实...
-
一上线就爆火出圈!中文语音AI天花板ChatTTS官网上线
还记得之前给大家推荐的中文语音AI天花板ChatTTS吗?这个可平替 GPT-4o的文本转语音项目一上线就爆火出圈,短短几天就在GitHub上斩获了16.9K的Star 量。 而现在,ChatTTS正式上线了官网,所有用户都可以直接在线体验了。 主要功能...
-
时间序列分析的表示学习时代来了?
表示学习作为深度学习中的核心,近期越来越多的被应用到了时间序列领域中,时间序列分析的表示学习时代已经来了。本文为大家带来了2020年以来顶会的5篇时间序列表示学习相关的核心工作梳理。 1.Unsupervised Scalable Representa...
-
中国发布《生成式AI安全基本要求》,涵盖训练数据、生成内容等
全国网络安全标准化技术委员会在官网发布了,国家标准《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿。 该意见稿一共分为《网络安全技术 生成式人工智能服务安全基本要求-标准文本》、意见汇总处理表和编制说明三大块。 其中,标准文本涵盖训练数据安全要求...
-
大型科技公司拥才有承担 AI 训练数据成本的能力
AI 的发展离不开数据,而这种数据的成本越来越高,这使得除了最富有的科技公司外,其他公司难以承担这一成本。根据去年 OpenAI 的研究人员 James Betker 的文章,AI 模型的训练数据是决定模型能力的关键因素。传统的 AI 系统主要是基于统计机...
-
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再「压缩」
最近的一系列研究表明,纯解码器生成模型可以通过训练利用下一个 token 预测生成有用的表征,从而成功地生成多种模态(如音频、图像或状态 - 动作序列)的新序列,从文本、蛋白质、音频到图像,甚至是状态序列。 能够同时生成多种模态输出的多模态模型一般是通过某...
-
LLM的「母语」是什么?
大语言模型的「母语」是什么? 我们的第一反应很可能是:英语。 但事实果真如此吗?尤其是对于能够听说读写多种语言的LLM来说。 对此,来自EPFL(洛桑联邦理工学院)的研究人员发表了下面这篇工作来一探究竟: 图片 论文地址:https://arxiv.or...
-
【AIGC调研系列】LLaVA++整合Phi-3和Llama-3能够实现什么
LLaVA++能够为Phi-3和Llama-3带来的主要好处包括: 视觉处理能力的增强:通过整合Phi-3和Llama-3模型,创建了具备视觉处理能力的Phi-3-V和Llama-3-V版本,这意味着这些模型现在能够理解和生成与图像相关的内容[1]。...
-
【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
Datawhale干货 作者:张帆,陈安东,Datawhale成员 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-...
-
浅说文心一言
文心一言(ERNIE Bot)是一个基于Transformer结构的知识增强大语言模型,它可以根据用户的指令和输入,生成相应的回答或文本。以下是一些常见的指令示例,你可以根据需要进行调整: 问答指令: "请问什么是文心一言?" "文心一言和C...
-
生成式 AI 安全标准发布,覆盖训练数据和生成内容
中国网络安全标准化技术委员会官网发布了《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿。该标准细化了对生成式人工智能服务的安全要求,包括训练数据安全、生成内容安全和模型安全要求。其中,针对训练数据,要求对数据来源进行管理和核验,提高数据来源的多样...
-
详解AI作画算法原理
引言 (1)背景介绍 AI作画,即利用人工智能技术进行艺术创作,近年来引起了广泛关注。随着计算机科学的发展,特别是深度学习和生成对抗网络(GAN)等技术的进步,AI作画从一个新颖的概念逐步走向实用化。AI作画的兴起可以追溯到早期的计算机艺术实验,如...
-
一键 input 苹果 OpenELM,零门槛 Llama 3 教程,40+ 优质模型/数据集/教程,建议收藏!...
现在 AI 行业什么最火? 「大模型」一定仍然排在前三甲的位置。 自从 2022 年底 ChatGPT 面世以来,大模型在各行各业已经带来了太多的惊喜,应用场景愈发丰富,同时也带动了相关底层技术的普及与普适化。尤其是在开源模型繁荣发展之下,无...
-
AIGC视频生成-CameraCtrl
0. 资源链接 论文: CameraCtrl: Enabling Camera Control for Text-to-Video Generation 项目: https://hehao13.github.io/projects-CameraC...
-
AI作画算法原理
1.概述 AI作画算法的原理相当复杂,涉及多个领域的知识,包括计算机视觉、机器学习和神经网络等。我们从以下几个方面来描述AI作画算法的基本原理。 2. 数据准备 在数据准备方面,AI作画算法通常需要大量的图像数据作为训练样本。可以是各种各样的艺术...
-
Datawhale |【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
本文来源公众号“Datawhale”,仅用于学术分享,侵权删,干货满满。 原文链接:【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3 0. 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月1...
-
【史上最全之 ChatGPT 和文心一言对比】
ChatGPT 和文心一言哪个更好用? 在当今的AI助手领域中,ChatGPT与文心一言无疑是备受瞩目的两位选手。两者分别由美国OpenAI公司和中国百度研发,均致力于提供卓越的人工智能对话体验。接下来,我们将从智能回复、语言准确性以及知识库丰富度等核...
-
AIGC (AI-Generated Content) 技术深度探索:现状、挑战与未来愿景
? 个人主页:空白诗 文章目录 ? AIGC技术:塑造未来的创意与内容革命 ? 引言 ? AIGC技术发展现状 ? 核心技术驱动 ? 应用领域拓展 ? 面临的挑战 ❌ 真实性与伦理考量 ? 技术局限性 ? 未来趋势 ?...
-
稳定扩散美学梯度(Stable Diffusion Aesthetic Gradients):一种创新的图像生成技术...
稳定扩散美学梯度(Stable Diffusion Aesthetic Gradients):一种创新的图像生成技术 项目地址:https://gitcode.com/vicgalle/stable-diffusion-aesthetic-gradien...
-
LLaMa系列模型详解(原理介绍、代码解读):LLaMA 3
LLaMA 3 2024年4月18日,Meta 重磅推出了Meta Llama 3,Llama 3是Meta最先进开源大型语言模型的下一代,包括具有80亿和700亿参数的预训练和指令微调的语言模型,能够支持广泛的应用场景。这一代Llama在一系列行业标...
-
如何看待AIGC技术?未来已来,请做好准备!
文章目录 前言 令人震撼 无限可能 核心优势 背后力量 双刃剑 总结 前言 我正在写一篇关于人工智能对人类工作影响的文章,突然,我的电脑屏幕上弹出一条消息:“嘿,伙计,介意让我写一点吗?” 我吓了一跳,然后意识到是我自己的...
-
腾讯云存储面向AIGC全面升级,搭载全面自研存储引擎
云厂商继续为大模型加速落地铺路架桥。 4月8日,腾讯云宣布云存储解决方案面向AIGC场景全面升级,能够针对AI大模型数据采集清洗、训练、推理、数据治理全流程提供全面、高效的云存储支持。数据显示,采用腾讯云AIGC云存储解决方案,可将大模型的数据清洗和训...
-
如何将大型语言模型(LLM)转换为嵌入模型
译者 | 李睿 审校 | 重楼 实验证明,LLM2Vec模型在嵌入任务上具有更好的性能,它可以为组织开辟新的场所,并以非常低的成本快速创建专门的嵌入模型。 嵌入模型已经成为大型语言模型(LLM 应用的重要组成部分,可以实现检测文本相似度、信息检索和聚类...
-
AlphaFold 3不开源,统一生物语言大模型阿里云先开了!
把169861个生物物种数据装进大模型,大模型竟get到了生物中心法则的奥秘—— 不仅能识别DNA、RNA与相应蛋白质之间的内在联系,在基因分类、蛋白质相互作用预测、热稳定性预测等7种不同类型任务中也能比肩SOTA模型。 模型名为LucaOne,由阿里云...
-
超详细!AIGC面试系列 大模型进阶(2)
本期问题快览 1. 如何让大模型处理更长的文本? 2. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存? 3. 什么是有监督微调SFT 4. SFT 指令微调数据如何构建? 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘...
-
一文速览Llama 3及其微调:从如何把长度扩展到100万到如何微调Llama3 8B
前言 4.19日凌晨正准备睡觉时,突然审稿项目组的文弱同学说:Meta发布Llama 3系列大语言模型了,一查,还真是 本文以大模型开发者的视角,基于Meta官方博客的介绍:Introducing Meta Llama 3: The most capa...
-
Google Bard的Gemini Pro最新升级;Nomic Embed: 开源文本嵌入模型
? AI新闻 ? Google Bard的Gemini Pro最新升级 摘要:Bard现在可以在超过40种语言和230多个国家和地区使用Gemini Pro,提供更强大的理解、推理、总结和编码能力。 Bard的双重检查功能将扩展到40多种语言,用户...
-
数据驱动与 LLM 微调:打造 E2E 任务型对话 Agent
作者 | Thought Agent 社区 在对话系统的设计和实现中,传统的基于 Rasa-like 框架的方法往往需要依赖于多个模块的紧密协作,例如我们在之前的文章中提到的基于大模型(LLM)构建的任务型对话 Agent,Thought Agent,其...
-
Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练
大神Karpathy已经不满足于用C语言造Llama了! 他给自己的最新挑战:复现OpenAI经典成果,从基础版GPT-2开始。 挑战成功本身并不意外,但是只花费20美元、90分钟完成训练,Loss和评测还超越原版,就!有!点!过!分!了!。 不仅如此,...
-
AIGC重塑金融:AI大模型驱动的金融变革与实践,2024年最新阿里面试二面
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。 深知大多数HarmonyOS鸿蒙开发工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
OpenAI正训练GPT-4的继任者,GPT-5或将带来三个重大升级
虽然 OpenAI 最近推出的模型 GPT-4o 在大型语言模型(LLM)领域有了重大突破,但该公司已经开始着手研发下一个旗舰模型 GPT-5。许多人在 GPT-4o 发布前期就期待着 OpenAI 推出备受瞩目的 GPT-5。为了澄清这种猜测,首席执行官...
-
和GPT-4这些大模型玩狼人杀,人类因太蠢被票死,真·反向图灵测试
「你看,人类一败涂地了」 这是一次「反向图灵测试」,几个全球最先进的大模型坐在一起,坐着火车唱着歌,但其中混进了人类: 而 AI 的任务,是把这个人类揪出来。 最近,一位昵称「Tore Knabe」的网友在 X 平台发布的一段视频引发了人们的讨论。在视频中...
-
AI模型竟然也有偏好的数字 GPT-3.5Turbo非常喜欢47
最近,人们发现了一个有趣的现象,即AI模型在选择数字时表现出类似人类的购买和避好行为,这证明了模型在回答问题时重复训练数据中的常见内容。这种行为具有确定“人性化”的特点,虽然模型本身并不具备人类的认知能力。 在实验中,一些工程师要求几个主要的LLM聊天机器...
-
硅谷有了自己的鲁迅!AI大佬LeCun连续暴走,从马斯克到OpenAI,全被怼了个遍
当地时间 5 月 26 日,马斯克旗下的人工智能初创公司xAI宣布完成B轮 60 亿美元融资。主要的投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、红杉资本等。 xAI2023 年 7...
-
现在适合进入AIGC行业吗?
现在适合进入AIGC行业吗? 随着人工智能生成内容(AIGC)技术的快速发展,越来越多的人开始关注这个行业。那么,现在是否是进入AIGC行业的好时机呢?本文将从行业前景、市场需求以及个人选择与规划三个方向进行探讨。 行业前景 发展前景 AI...
-
图像生成模型浅析(Stable Diffusion、DALL-E、Imagen)
目录 前言 1. 速览图像生成模型 1.1 VAE 1.2 Flow-based Model 1.3 Diffusion Model 1.4 GAN 1.5 对比速览 2. Diffusion Model 3. Stable Diffusi...
-
适应多形态多任务,最强开源机器人学习系统「八爪鱼」诞生
在机器人学习方面,一种常用方法是收集针对特定机器人和任务的数据集,然后用其来训练策略。但是,如果使用这种方法来从头开始学习,每一个任务都需要收集足够数据,并且所得策略的泛化能力通常也不佳。 原理上讲,从其它机器人和任务收集的经验能提供可能的解决方案,能让...
-
Meta被曝使用Instagram等照片训练AI模型引发隐私争议
全球社交巨头 Meta 最近因使用用户照片训练 AI 模型 Emu 引发了一场隐私争议。据报道,Meta 正在利用 Instagram 和 Facebook 上的用户照片进行训练,同时还会使用用户对图片的描述、标题等文本数据。这严重违反了数据隐私搜集条例,...
-
CIO指南:采用开源生成式AI需要注意的十件事
开源生成式AI模型是可以免费下载的、大规模使用而无需增加API调用成本的,并且可以在企业防火墙后面安全运行。但你不要放松警惕,风险仍然存在,有些风险不仅被放大了,而且针对生成式AI的新风险正在出现。 如今似乎任何人都可以制作AI模型,即使你没有训练数...
-
智慧建筑:基于YOLOv7的建筑外墙缺陷检测
01 前景概要 现有的基于深度学习的方法在识别速度和模型复杂性方面面临一些挑战。为了保证建筑外墙缺陷检测的准确性和速度,我们研究了了一种改进的YOLOv7方法BFD-YOLO。首先,将YOLOv7中原有的ELAN模块替换为轻量级的MobileOne模块,...
-
用于精确目标检测的多网格冗余边界框标注
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 一、前言 现在领先的目标检测器是从基于深度CNN的主干分类器网络重新调整用途的两级或单级网络。YOLOv3就是这样一种众所周知的最先进的单级检测器,它接收输入图像并将其划分为大小相等的网格矩阵。具...
-
AIGC系列之:DDPM原理解读(简单易懂版)
目录 DDPM基本原理 DDPM中的Unet模块 Unet模块介绍 Unet流程示意图 DownBlock和UpBlock MiddleBlock 文生图模型的一般公式 总结 本文部分内容参考文章:https://ju...
-
ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文
美国东北大学的计算机科学家 David Bau 非常熟悉这样一个想法:计算机系统变得如此复杂,以至于很难跟踪它们的运行方式。 「我做了 20 年的软件工程师,研究非常复杂的系统。这个问题总是存在的。」Bau 说。 但 Bau 说,使用传统软件,具有内部知...
-
【带文字的图像生成-附开源代码】AIGC 如何在图像中准确生成文字?字体篇(上)
文字图像生成是什么? “文字图像生成(Text-image generation)”即生成带有指定文字的图像。如下图所示,市面常见的通用文生图很难准确地生成带有指定文字的图像。文字图像生成也被称为文本渲染(Text rendering)。 为什么重要?...