-
PubMedBERT:生物医学自然语言处理领域的特定预训练模型
今年大语言模型的快速发展导致像BERT这样的模型都可以称作“小”模型了。Kaggle LLM比赛LLM Science Exam 的第四名就只用了deberta,这可以说是一个非常好的成绩了。所以说在特定的领域或者需求中,大语言模型并不一定就是最优的解决...
-
【多模态】3、CLIP | OpenAI 出品使用 4 亿样本训练的图文匹配模型
文章目录 一、背景 二、方法 2.1 使用自然语言来监督训练 2.2 建立一个超大数据集 2.3 选择预训练的方式——对比学习而非预测学习 2.4 模型缩放和选择 三、效果 四、思考 论文:Learning Transferabl...
-
简单科普 AI AIGC AGI ChatGPT 分别是什么?
AI AI,全名 “Artificial Intelligence”,中文为人工智能。 它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 AIGC AIGC,全名 “AI Generated...
-
疑似威胁人类?OpenAI神秘Q*项目更多信息曝光,马斯克、Lecun下场争论…
夕小瑶科技说 原创 作者 | 王二狗大家好我是二狗 随着前天 OpenAI 官宣 Sam Altman 将回归,并继续担 CEO,OpenAI“宫斗事件”已经告一段落了。 然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白: Sam Altman...
-
如何使用GPTQ量化使LLM更轻
译者 | 李睿 审校 | 重楼 大型语言模型(LLM 应用的一大挑战是其耗费巨大的内存和计算需求,通常需要数十GB的GPU内存。这使得它们不仅昂贵而且难以运行。 为了缓解这些问题,研究人员开发了几种LLM压缩技术,其中包括“量化”。量化通过改变参数的存...
-
Open Vocabulary Detection 开放世界目标检测竞赛 2023获胜团队方案分享
OVD技术简介 目标检测是计算机视觉领域中的一项核心任务,其主要目标是让计算机能够自动识别图片中目标的类别,并准确标示每个目标的位置。目前,主流的目标检测方法主要针对闭集目标的开发,即在任务开始之前需要对待检测目标进行类别定义,并进行人工数据标注,通...
-
大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明
大家好,我是微学AI,今天给大家讲一下大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明。在大规模语料库上预先训练的BERT等神经语言表示模型可以很好地从纯文本中捕获丰富的语义模式,并通过微调的方式一致地提高各种NLP...
-
Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记
文章目录 Llama 2: Open Foundation and Fine-Tuned Chat Models 1.简介 2.预训练 2.1 预训练数据 2.2 训练详情 2.3 LLAMA 2 预训练模型评估 3. 微调 3.1 s...
-
每日学术速递1.30
CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理 更多Ai资讯: 今天带来的arXiv上最新发表的3篇文本图像的生成论文。 Subjects: cs.LG、cs.Cv、cs.AI、c...
-
新AI框架HyperHuman:用于生成具有潜在结构扩散的超真实人类
近日,一项名为HyperHuman的新型人工智能框架正式亮相,为生成超逼真人体图像开创了崭新纪元。这一框架的重要突破在于结合了结构扩散技术,成功克服了以往模型在生成人体图像中面临的种种挑战。 用户无需专业技能,只需提供文本和姿势等条件,HyperHuman...
-
深度解读AIGC存储解决方案
5月26日,2023数据基础设施技术峰会在苏州举办,腾讯云首席存储技术专家温涛受邀出席并分享了腾讯云领先的存储技术在AIGC场景中的应用,通过对AIGC业务流程和场景的提炼,从内容生成、内容审核和内容智理三要素介绍了如何智能的存储和管理数据。下面我们一起回...
-
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_sft_with_peft.py文件)—模型训练前置工作(参数解析+配置日志)→模型初始化(检测是否存在训练过的che
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_sft_with_peft.py文件 —模型训练前置工作(参数解析+配置日志 →模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer →数...
-
Stable Diffusion:使用自己的数据集微调训练LoRA模型
Stable Diffusion:使用自己的数据集微调训练LoRA模型 前言 前提条件 相关介绍 微调训练LoRA模型 下载kohya_ss项目 安装kohya_ss项目 运行kohya_ss项目 准备数据集 生成关键词 模型参数设置 预训...
-
大模型之Bloom&LLAMA----Pre-Training(二次预训练)
0. 简介 随着chatgpt的爆火,最近也有很多大模型在不断地出现,比如说Bloom系列以及以LLAMA为基础的ziya和baichuan。这些模型相较于chatglm来说,更加具有发展前景,因为其是完全可商用,并可以不断迭代更新的。最近作者在跟着h...
-
人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了
AutoGPT 的得分也凉凉。 GPT-4自诞生以来一直是位「优等生」,在各种考试(基准)中都能得高分。但现在,它在一份新的测试中只拿到了15分,而人类能拿92。 这套名叫「GAIA」的测试题由来自 Meta-FAIR、Meta-GenAI、Hugging...
-
OpenAI神秘Q*毁灭人类?爆火「Q*假说」竟牵出世界模型,全网AI大佬长文热议
Q* 【新智元导读】传闻中OpenAI的Q*,已经引得AI大佬轮番下场。AI2研究科学家Nathan Lambert和英伟达高级科学家Jim Fan都激动的写下长文,猜测Q*和思维树、过程奖励模型、AlphaGo有关。人类离AGI,已是临门一脚了? Ope...
-
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架 的简介、安装、案例实战应用之详细攻略 导读:2023年07月31日,哈工大讯飞联合实验室,发布Chinese-LLaMA-Alpaca-2,本项目基于Meta发布的...
-
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
Active Code Learning: Benchmarking Sample-Efficient Training of Code Models 写在最前面 论文名片 先验知识的补充 主动学习 采样函数 benchmark基准和base...
-
Meta AI研究团队新AI模型: Llama 2 大语言模型
Llama是Facebook Research团队开发的基础语言模型集,旨在提供广泛的语言理解能力。它基于转换器架构,参数范围从7B到65B。通过使用Llama模型,研究人员和开发人员可以构建更先进的自然语言处理系统。您可以在GitHub上找到相关的代...
-
通义千问, 文心一言, ChatGLM, GPT-4, Llama2, DevOps 能力评测
引言 “克隆 dev 环境到 test 环境,等所有服务运行正常之后,把访问地址告诉我”,“检查所有项目,告诉我有哪些服务不正常,给出异常原因和修复建议”,在过去的工程师生涯中,也曾幻想过能够通过这样的自然语言指令来完成运维任务,如今 AI 助手 Ap...
-
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 导入库...
-
【多模态】4、Chinese CLIP | 专为中文图文匹配设计
文章目录 一、背景 二、方法 2.1 基础内容 2.2 数据集 2.3 预训练方法 2.4 模型尺寸 三、效果 四、代码 4.1 推理 论文:Chinese CLIP: Contrastive Vision-Language Pr...
-
Stable Diffusion — ControlNet 超详细讲解
Stable Diffusion — ControlNet 超详细讲解 ControlNet 最近非常火?!ControlNet 和 Stable Diffusion 的结合使 Stable Diffusion 能够接受指导图像生成过程的条件输入,从而增...
-
LLaMA-2论文阅读
1. 基本介绍 LLaMA-2是2023年7月24日Meta发布的LLaMA第二代,跟LLaMA-1几个显著区别: 免费可商用版本的大模型 context上下文增加了一倍,从2K变为了4K 训练的总token数从1.0T/1.4T增加为2.0T(...
-
国产大模型黑马诞生,千亿级拿下双榜第一!知识正确性能力突出,大幅降低LLM幻觉问题
【新智元导读】夸克,也下场大模型了。甫一问世,夸克大模型就迅速登顶权威测评双榜第一,幻觉率大幅降低,可以预见,风靡年轻人的夸克APP,要掀起新的飓风了。 最近的各大手机厂商和互联网公司,都在卯足了劲儿地发布大模型。 而其中的一匹黑马,显得格外引人注目——...
-
Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
【新智元导读】Hugging Face作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。 Hugging Face上最受欢迎的15个AI公司出炉了! 目前的冠军,是Stability AI...
-
能总结经验、持续进化,上交把智能体优化参数的成本打下来了
大模型的出现引发了智能体设计的革命性变革,在 ChatGPT 及其插件系统问世后,对大模型智能体的设计和开发吸引了极大的关注。帮助完成预订、下单等任务,协助编写文案,自主从网络上搜索最新的知识与新闻等等,这种通用、强大的智能助理,让大模型强大的语义理解、...
-
OpenAI神秘新模型Q*曝光,太强大让董事会警惕,或是奥特曼被开除导火索
OpenAI宫斗大戏刚刚落幕,马上又掀起另一场轩然大波! 路透社曝光,在奥特曼被解雇之前,几位研究人员给董事会写的警告信可能是整个事件导火索: 内部名为Q (发音为Q-Star)*的下一代AI模型,过于强大和先进,可能会威胁人类。 Q*正是由这场风暴的中...
-
AI风暴 :文心一言 VS GPT-4
?wei_shuo的个人主页 ?wei_shuo的学习社区 ?Hello World ! 文心一言 VS GPT-4 文心一言:知识增强大语言模型百度全新一代知识增强大语言模型,文心大模型家族的新成员,能够与人对话互动,回答问...
-
“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众
特斯拉前AI总监Andrej Karpathy的新教程火了。 这次,他专门面向普通大众做了一个关于大语言模型的科普视频。 时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)。...
-
OpenAI内斗时,Karpathy在录视频:《大型语言模型入门》上线
OpenAI 的风波暂时告一段落,员工也忙着「干活了」。 年初回归 OpenAI 的 Andrej Karpathy 最近做了一场关于大型语言模型(LLM)的 30 分钟入门讲座,但该讲座当时没录制。因此,他基于这场讲座重新录制了一个长达 1 小时的视频...
-
AI绘画使用Stable Diffusion(SDXL)绘制玉雕风格的龙
一、引言 灵感来源于在逛 LibLib 时,看到的 Lib 原创者「熊叁gaikan」发布的「翠玉白菜 sdxl|玉雕风格」 的 Lora 模型。简直太好看了,一下子就被吸引了! 科普下「翠玉白菜」: 翠玉白菜是由翠玉所琢碾出白菜形状的清代文...
-
AIGC重塑教育:AI大模型驱动的教育变革与实践
这次,狼真的来了。 AI正迅猛地改变着我们的生活。 根据高盛发布的一份报告,AI有可能取代3亿个全职工作岗位,影响全球18%的工作岗位。在欧美,或许四分之一的工作可以用AI完成。另一份Statista的报告预测,仅2023年,AI就将创造230万...
-
【GPT4】微软 GPT-4 测试报告(3)GPT4 的编程能力
欢迎关注【youcans的GPT学习笔记】原创作品,火热更新中微软 GPT-4 测试报告(1)总体介绍微软 GPT-4 测试报告(2)多模态与跨学科能力微软 GPT-4 测试报告(3)GPT4 的编程能力 【GPT4】微软 GPT-4 测试...
-
淘天集团联合爱橙科技开源大模型训练框架Megatron-LLaMA
9月12日,淘天集团联合爱橙科技正式对外开源大模型训练框架——Megatron-LLaMA,旨在让技术开发者们能够更方便地提升大语言模型训练性能,降低训练成本,并保持和LLaMA社区的兼容性。测试显示,在32卡训练上,相比HuggingFace上直接获得的...
-
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation.py/tokenizer.py 目录 一、l...
-
Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型
内容来源:@xiaohuggg Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型 该模型是由Hugging Face团队开发,它在Whisper核心功能的基础上进行了优化和简化,体积缩小了50%。速度提高了6倍。并...
-
AI视野:飞书智能伙伴发布;OpenAI曝光Q*项目;微软12月1日向中国开放Copilot;Grok下周将向x的Premium+订阅用户推出
???AI新鲜事 微软12月1日向中国开放Copilot 微软将在今年12月1日面向中国大陆的企业和教育机构推出,基于网页的生成式AI聊天助手 ——Copilot,那些无法使用ChatGPT的小伙伴们可以体验Copilot。 xAI的聊天机器人Grok...
-
腾讯披露最新大模型训练方法,可节省50%算力成本
在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。 11月23日,腾讯披露,腾讯混元大模型背后的自研机器学习框架Angel再次升级,大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。升级后...
-
历数5年89篇研究,这篇综述告诉我们深度学习中的代码数据增强怎么样了
当今深度学习以及大模型的飞速发展,带来了对创新技术的不断追求。在这一进程中,代码数据增强技术显现出其不可忽视的价值。 最近,由蒙纳士大学、新加坡管理大学、华为诺亚方舟实验室、北京航空航天大学以及澳大利亚国立大学联合进行的对近 5 年的 89 篇相关研究调...
-
Llama 2:开放基础和微调聊天模型
介绍 大型语言模型(llm 作为高能力的人工智能助手,在复杂的推理任务中表现出色,这些任务需要广泛领域的专家知识,包括编程和创意写作等专业领域。它们可以通过直观的聊天界面与人类进行交互,这在公众中得到了迅速而广泛的采用。 法学硕士的能力是显著的考虑到训...
-
LLaMA 2: Open Foundation and Fine-Tuned Chat Models
LLaMA 2: Open Foundation and Fine-Tuned Chat Models Pre-training Fine-tuning Reward model RLHF 参考 Pre-training 数据层面...
-
AIGC繁花,绽放在精耕的算力土壤之上
2023年的春天,称得上一句AI之春。大模型成为技术力量新的爆发点,生成式AI(AIGC)应用风起云涌。 产业界争先恐后训大模型之际,广大用户最大的困惑是——发布了,但就是玩不到啊! OpenAI有地域限制且不去说它,各种国产大模型也很...
-
南开大学与字节跳动研究人员推出开源AI工具ChatAnything:用文本描述生成虚拟角色
南开大学与字节跳动研究人员合作推出了一项引人注目的研究,发布了一种名为ChatAnything的全新AI框架。该框架专注于通过在线方式生成基于大型语言模型(LLM)的角色的拟人化形象,从而创造具有定制视觉外观、个性和语调的人物。 简答的说,ChatAnyt...
-
Stable Video Diffusion问世!3D合成功能引关注,网友:进步太快
Stable Diffusion官方终于对视频下手了—— 发布生成式视频模型Stable Video Diffusion(SVD)。 Stability AI官方博客显示,全新SVD支持文本到视频、图像到视频生成: 并且还支持物体从单一视角到多视角的...
-
Stable Video Diffusion来了,代码权重已上线
AI 画图的著名公司 Stability AI,终于入局 AI 生成视频了。 本周二,基于 Stable Diffusion 的视频生成模型 Stable Video Diffusion 来了,AI 社区马上开始了热议。 很多人都表示「我们终于等到了」...
-
尝试Google Bard并对比OpenAI ChatGPT,一个擅长创造性,一个擅长事实查询?
文章目录 尝试Google Bard并对比OpenAI ChatGPT,一个擅长创造性,一个擅长事实查询? Google Bard 的自我介绍 Google Bard 暂时不支持中文 Google Bard除了支持英语外,还支持日语 Goog...
-
LLMs之Colossal-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插
LLMs之Colossal-LLaMA-2:源码解读(train.py文件 基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插件 →数据预处理(初始化分词器+数据处理器+数据加载器 ...
-
英伟达宣布首批采用面向生成式 AI 的 Spectrum-X 以太网技术的服务器产品线
英伟达日前宣布,戴尔科技、惠普企业和联想将成为首批将 NVIDIA Spectrum-X™以太网络技术集成到其服务器产品线中的公司,以帮助企业客户加快生成式人工智能工作负载的速度。 Spectrum-X 专为生成式人工智能而设计,为企业提供一种新型的以太...
-
Nvidia和Genentech合作利用人工智能加速药物发现
Nvidia正在与生物技术巨头基因泰克公司(Genentech)合作,双方计划利用多年时间把最先进的人工智能功能(包括生成式AI)用于加速药物发现研究。 Nvidia表示,希望通过将其生成式AI模型和算法转变为“下一代AI平台”来加强Genentech...