-
AIGC:生成式模型简介
AIGC:生成式模型简介 变分自编码器(VAE) 生成对抗网络(GAN) 自回归模型(Autoregressive Model) 流模型(Flow Model) 扩散模型(Diffusion Model) 此博客将从原理、优点和缺点几...
-
一键部署LLaMA 3 Chinese Chat,含中文训练数据集;Food2K数据集下载,含2千类别,100万张图片...
前段时间 Llama 3 的重磅开源让 AI 圈的众人都兴奋了一把,但它对纯中文的支持不是很好,不能灵活地根据中文提问切换至相应语言进行回答。 hyper.ai 本周上线了 Llama 3 中文版——LlaMA 3 Chinese Chat 的部...
-
深入浅出解析Stable Diffusion中U-Net的核心知识与价值 | 【算法兵器谱】
Rocky Ding 公众号:WeThinkIn 写在前面 【算法兵器谱】栏目专注分享AI行业中的前沿/经典/必备的模型&论文,并对具备划时代意义的模型&论文进行全方位系统的解析...
-
变分自编码器(VAE)在AIGC中的应用及其技术解析
本文收录于专栏:精通AI实战千例专栏合集 https://blog.csdn.net/weixin_52908342/category_11863492.html 从基础到实践,深入学习。无论你是初学者还是经验丰富的老手,对于本专栏案例和项目实践...
-
快速学会一个算法,xLSTM
今天给大家分享一个超强的算法模型,xLSTM。 xLSTM(Extended Long Short-Term Memory)是对传统 LSTM(Long Short-Term Memory)模型的扩展和改进,旨在提升其在处理时间序列数据和序列预测任务中的...
-
首个智慧城市大模型UrbanGPT,全面开源开放|港大&百度
时空预测技术,迎来ChatGPT时刻。 时空预测致力于捕捉城市生活的动态变化,并预测其未来走向,它不仅关注交通和人流的流动,还涵盖了犯罪趋势等多个维度。目前,深度时空预测技术在生成精确的时空模型方面,依赖于大量训练数据的支撑,这在城市数据不足的情况下显得...
-
时间序列分析的表示学习时代来了?
表示学习作为深度学习中的核心,近期越来越多的被应用到了时间序列领域中,时间序列分析的表示学习时代已经来了。本文为大家带来了2020年以来顶会的5篇时间序列表示学习相关的核心工作梳理。 1.Unsupervised Scalable Representa...
-
时间序列模型:lag-Llama
项目地址:GitHub - time-series-foundation-models/lag-llama: Lag-Llama: Towards Foundation Models for Probabilistic Time Series Foreca...
-
MIT最新力作:用GPT-3.5解决时间序列异常检测问题
今天给大家介绍一篇MIT上周发表的文章,使用GPT-3.5-turbo解决时间序列异常检测问题,初步验证了LLM在时间序列异常检测中的有效性。整个过程没有进行finetune,直接使用GPT-3.5-turbo进行异常检测,文中的核心是如何将时间序列转换...
-
自回归模型的优缺点及改进方向
在学术界和人工智能产业中,关于自回归模型的演进与应用一直是一个引发深入讨论和多方观点交锋的热门议题。尤其是Yann LeCun,这位享誉全球的AI领域学者、图灵奖的获得者,以及被誉为人工智能领域的三大巨擘之一,他对于自回归模型持有独特的批判视角。值得注意...
-
时间序列预测:探索性数据分析和特征工程的实用指南
时间序列分析是数据科学和机器学习领域最广泛的主题之一:无论是预测金融事件、能源消耗、产品销售还是股票市场趋势,这一领域一直是企业非常感兴趣的领域。 随着机器学习模型的不断进步,使除了传统的统计预测方法(如回归模型、ARIMA模型、指数平滑 外,与机器学习...
-
时间序列概率预测的共形预测
前面我们介绍了用于时间序列概率预测的分位数回归,今天继续学习基于概率预测的时间序列概率预测方法--共形预测。 现实世界中的应用和规划往往需要概率预测,而不是简单的点估计值。概率预测也称为预测区间或预测不确定性,能够提供决策者对未来的不确定性状况有更好的认...
-
一个小技巧,解锁ChatGPT「预测未来」?
如今,AI进步的速度,已经超出了我们对它用途的理解。 为了防止ChatGPT「失控」,OpenAI定制了一套堪称严苛的「服务条款」,涉及包括法律、医疗/健康、个人安全、权利福祉、赌博放贷等领域。 不过,有一件事并不受影响——讲故事。 最近,贝勒大学的研究...
-
利用TimeGPT的深度学习能力实现预测分析的革新
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 人工智能对预测分析产生了根本性的影响,使得预测比以往任何时候都更加精确。各行各业都在充分利用人工智能的强大能力,以预测未来趋势并为即将...
-
一文解决任何机器学习问题!
前言 数据挖掘大神Abhishek Thakur,很多数据挖掘kaggler对他都非常熟悉,他在 Linkedin 发表了一篇名为Approaching (Almost Any Machine Learning Problem(几乎解决任何机器学习...
-
探讨自回归模型和扩散模型的发展应用
在当前大模型驱动的内容创新浪潮中,人工智能产业正以前所未有的力度拥抱一场由大模型技术策动的科技革新运动。这场革命不仅重塑了人机交互的边界,使其跃升至更高层次的认知协作,而且正在颠覆传统的计算思维与执行模式,催生出全新的计算范式,从而深刻地渗透并革新各行各...
-
如何通过机器学习算法设计软传感器?
通过理解机器学习算法的功能,工程师可以为他们的应用生成有效的软传感器。 软传感器(soft sensor),也称为虚拟传感器,是一种可以综合处理数百个测量数据的软件。想要添加软传感器的工厂管理者可能会对使软传感器工作的机器学习的范围感到不知所措。然而,...
-
大模型做时序预测也很强!华人团队激活LLM新能力,超越一众传统模型实现SOTA
大语言模型潜力被激发—— 无需训练大语言模型就能实现高精度时序预测,超越一切传统时序模型。 来自蒙纳士大学、蚂蚁、IBM研究院提出了一种通用框架,结果成功激活大语言模型跨模态处理时序数据的能力。 时序预测有益于城市、能源、交通、遥感等典型复杂系统的决策...
-
比肩Transformer的Mamba在时间序列上有效吗?
Mamba是最近最火的模型之一,更是被业内认为可以有取代Transformer的潜力。今天介绍的这篇文章,探索了Mamba模型在时间序列预测任务上是有有效。本文首先给大家介绍Mamba的基础原理,再结合这篇文章探索在时间序列预测场景中Mamba是否有效。...
-
AI21发布世界首个Mamba的生产级模型Jamba 支持256K上下文长度
AI21发布了世界首个Mamba的生产级模型:Jamba。这个模型采用了开创性的SSM-Transformer架构,具有52B参数,其中12B在生成时处于活动状态。Jamba结合了Joint Attention和Mamba技术,支持256K上下文长度。单个...
-
蚂蚁集团异常检测和归因诊断分析实践
分享嘉宾|丁雷雷 蚂蚁集团算法专家 硕士毕业于北京邮电大学自动化学院,曾在阿里妈妈搜索直通车做广告算法。目前在蚂蚁机器智能部,从事异常检测、时序预测、归因分析、因果推断算法工作。 本文将分享异常检测与归因诊断在蚂蚁集团的实践。主要围绕归因诊断、异常检测...
-
Video-LLaMa:利用多模态增强对视频内容理解
在数字时代,视频已经成为一种主要的内容形式。但是理解和解释视频内容是一项复杂的任务,不仅需要视觉和听觉信号的整合,还需要处理上下文的时间序列的能力。本文将重点介绍称为video - llama的多模态框架。Video-LLaMA旨在使LLM能够理解视频中的...
-
Nature重磅:AI击败最先进全球洪水预警系统,提前7天预测河流洪水,每年挽救数千人生命
洪水是最常见的自然灾害类型,全球有近 15 亿人(约占世界人口的 19%)直接面临严重洪水事件的巨大风险。洪水还造成巨大的物质损失,每年造成全球经济损失约 500 亿美元。 近年来,人类造成的气候变化进一步增加了一些地区的洪水频率。然而,目前的预报方法主...
-
巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数
传统的时空预测模型通常需要大量数据支持才能取得良好效果。 然而,由于城市发展水平不均衡和数据收集政策的差异,许多城市和地区的时空数据(如交通和人群流动数据)受到了限制。在这种情况下,模型在数据稀缺情况下的可迁移性变得尤为重要。 现有研究主要利用数据丰富的...
-
时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt
今天给大家介绍一篇最新的大模型+时间序列预测工作,由康涅狄格大学发表,提出了一种将时间序列在隐空间和NLP大模型对齐,并利用隐空间prompt提升时间序列预测效果的方法。 论文标题:S2IP-LLM: Semantic Space Informed P...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
蚂蚁金服异常检测和归因诊断分析实践
一、归因诊断 在实际工作中,我们常常受到业务方对关键绩效指标(KPI)的灵魂拷问:某个 KPI 指标为什么会上升或下降?归因诊断的任务就是解释这些指标变化的原因。 归因诊断把问题的定位过程看作是一个因子对比的过程:指标在基准时间区间的值为 y,...
-
一文总结扩散模型(Diffusion Model)在时间序列中的应用
扩散模型是目前生成式AI中的最核心模块,在Sora、DALL-E、Imagen等生成式AI大模型中都取得了广泛的应用。与此同时,扩散模型也被越来越多的应用到了时间序列中。这篇文章给大家介绍了扩散模型的基本思路,以及几篇扩散模型用于时间序列的典型工作,带你...
-
高质量论文中文翻译:Lag-Llama: 朝向基础模型的概率时间序列预测 Lag-Llama: Towards Foundation Models for Probabilistic Time S
Lag-Llama: 朝向基础模型的概率时间序列预测Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting 文章目录 摘要 介绍 我们的贡献...
-
爆火Sora背后的技术,一文综述扩散模型的最新发展方向
为了使机器具有人类的想象力,深度生成模型取得了重大进展。这些模型能创造逼真的样本,尤其是扩散模型,在多个领域表现出色。扩散模型解决了其他模型的限制,如 VAEs 的后验分布对齐问题、GANs 的不稳定性、EBMs 的计算量大和 NFs 的网络约束问题。因...
-
深度学习在时间序列预测的总结和未来方向分析
2023年是大语言模型和稳定扩散的一年,时间序列领域虽然没有那么大的成就,但是却有缓慢而稳定的进展。Neurips、ICML和AAAI等会议都有transformer 结构(BasisFormer、Crossformer、Inverted transf...
-
Lag-Llama:第一个时间序列预测的开源基础模型介绍和性能测试
2023年10月,我们发表了一篇关于TimeGPT的文章,TimeGPT是时间序列预测的第一个基础模型之一,具有零样本推理、异常检测和共形预测能力。 虽然TimeGPT是一个专有模型,只能通过API访问。但是它还是引发了对时间序列基础模型的更多研究。到了...
-
扩散模型的发展过程梳理 多个扩散模型理论知识总结/DDPM去噪扩散概率/IDDPM/DDIM隐式去噪/ADM/SMLD分数扩散/CGD条件扩散/Stable Diffusion稳定扩散/LM
前言 1.最近发现自己光探索SDWebUI功能搞了快两个月,但是没有理论基础后面科研路有点难走,所以在师兄的建议下,开始看b站视频学习一下扩散模型,好的一看一个不吱声,一周过去了写个博客总结一下吧,理理思路。不保证下面的内容完全正确,只能说是一个菜鸟的思...
-
WhisperFusion:与 AI 无缝语音对话(超低延迟),深入理解用户每句话背后的含义
演示视频里面,那老哥问它问题之后,后面更改问题,依然能很好的记录问题变化的过程并给出答案。 WhisperFusion 是基于 WhisperLive 和 WhisperSpeech 的强大工具,将声音转文字和文字理解融为一体,让你与AI机器人无缝语音对...
-
AIGC内容分享(四十四):[AIGC服务] 视频生成 | “群魔乱舞“
目录 骨架驱动的人形动画生成 原理简介 应用前景 骨架驱动的人形动画生成 输入 人脸图像+视频动画 或者 文本描述 输出 视频...
-
【读点论文】A Survey on Generative Diffusion Model,AIGC时代的新宠儿,从原理推导到工程应用,在视觉,自然语言,语音等领域大展拳脚
A Survey on Generative Diffusion Model Abstract 由于深度潜在表示,深度学习在生成任务中显示出良好的潜力。生成模型是一类可以根据某些隐含参数随机生成观测值的模型。近年来,扩散模型以其强大的生成能力成...
-
两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」
最近,谷歌的一篇论文在 X 等社交媒体平台上引发了一些争议。 这篇论文的标题是「A decoder-only foundation model for time-series forecasting(用于时间序列预测的仅解码器基础模型)」。 简而言之,...
-
图感知对比学习提升多变量时间序列分类效果
今天给大家介绍一篇AAAI 2024中,由新加坡科技研究局(A*STAR)和新加坡南洋理工大学联合发表的时间序列分类工作,通过图感知对比学习改善多变量时间序列分类,取得了非常显著的效果提升。 图片 论文标题:Graph-Aware Contrasting...
-
AI 如何精准生成令人惊叹的代码流程图
大家好,我是木川 没有 AI 的时候,我们阅读完代码,然后根据自己的理解,手动通过 XMind 绘制思维导图,或者通过 draw.io 绘制流程图,至少需要 60 分钟 有了 AI,其实可以直接将代码转换为比较准确的代码可视化图形,省掉自己阅读代码的时...
-
不分割成token,直接从字节中高效学习,Mamba原来还能这样用
在定义语言模型时,通常会使用一种基本分词方法,把句子分为词(word)、子词(subword)或字符(character)。其中,子词分词法一直是最受欢迎的选择,因为它在训练效率和处理词汇表外单词的能力之间实现了自然的折中。然而,一些研究指出了子词分词法...
-
AI视野:Hugging Face聊天助手上线;SVD的Web平台发放测试资格;AI模拟器“决战拜年之巅”走红;美图宣布2.85亿元收购站酷
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 🤖📱💼AI应用 Hugging F...
-
使用Transformer 模型进行时间序列预测的Pytorch代码示例
时间序列预测是一个经久不衰的主题,受自然语言处理领域的成功启发,transformer模型也在时间序列预测有了很大的发展。本文可以作为学习使用Transformer 模型的时间序列预测的一个起点。 数据集 这里我们直接使用kaggle中的 Store...
-
MIT和谷歌提出新AI框架Health-LLM:利用可穿戴传感器数据为健康预测任务调整LLM
近日,MIT和Google的研究人员共同提出了一种名为Health-LLM的新型人工智能框架,旨在将大语言模型(LLMs)应用于健康预测任务,利用可穿戴传感器的数据。该框架的提出标志着健康领域在可穿戴技术和人工智能的交叉点上取得了重大突破。 可穿戴传感器技...
-
aigc分享
AIGC技术分享 AIGC概述 AIGC的概念、应用场景和发展历程 https://36kr.com/p/2135547607286144 ppt https://36kr.com/p/2243237713604482 机器学习基础 机器学...
-
GPU+生成式人工智能助力提升时空数据分析
译者 | 朱先忠 审校 | 重楼 摘要:通过实战案例介绍,本文指出随着基于GPU加速的数据库技术为时间序列和空间数据带来更好的性能和精度水平,生成式人工智能技术将使得非领域专家也能够进行复杂的时空数据处理。 引言 时空数据来自手机、气候传感器、金融市场交...
-
一键实景转动画,清华系初创公司全球首发4D骨骼动画框架,还能生成个性化角色
前几日,苹果宣布首款虚拟头显设备 Vision Pro 将于 2 月 2 日正式发售,XR 设备作为下一代终端预计将迎来快速发展。未来随着虚拟显示设备的普及,数字交互将从平面走向立体,立体模型、立体动画将成为未来主流的内容形态,虚实融合下的多维沉浸式交互...
-
2024年华数杯国际赛文心一言解题思路B题 光伏电
问题一:中国电力供应发展趋势预测 概要回答: 中国的电力供应发展趋势将受到经济增长、能源政策、技术进步和市场需求等多重因素的影响。为了实现碳峰值和碳中和目标,预计可再生能源(包括光伏发电)在电力结构中的比重将显著增加。 解决方案框架: 收集历史电力...
-
AI聊天机器人,一个就够了:文心一言、讯飞星火、通义千问AI聊天机器人深度对比(二)
一些结论 本次为第二部分的测评,第一部分的测评请点击这里。综合结论::通义千问 > 讯飞星火 > 文心一言。 逻辑推理能力:讯飞星火 = 通义千问 > 文心一言。对于基本的逻辑推理问题,三个AI聊天机器人都能通过测试。但对...
-
2023年的深度学习入门指南(24) - 处理音频的大模型 OpenAI Whisper
2023年的深度学习入门指南(24 - 处理音频的大模型 OpenAI Whisper 在这一讲之前,我们所用的大模型都是针对文本的。这一讲我们增加一个新的领域,即音频。我们将介绍OpenAI的Whisper模型,它是一个处理音频的大模型。 Wh...
-
【论文笔记 · PFM】Lag-Llama: Towards Foundation Models for Time Series Forecasting
Lag-Llama: Towards Foundation Models for Time Series Forecasting 摘要 本文提出Lag-Llama,在大量时间序列数据上训练的通用单变量概率时间序列预测模型。模型在分布外泛化能力上取...