-
神经网络中的量化与蒸馏
本文将深入研究深度学习中精简模型的技术:量化和蒸馏 深度学习模型,特别是那些具有大量参数的模型,在资源受限环境中的部署几乎是不可能的。所以就出现了两种流行的技术,量化和蒸馏,它们都是可以使模型更加轻量级,而不会对性能造成太大影响。但是它们需要什么,它们又...
-
中国AIGC数据标注全景报告:百亿市场规模,百万就业缺口
数据标注,正迎来关键洗牌时刻。 大模型时代到来,以数据为中心的AI开发模式加速走向台前,数据的价值从未向今天这样被充分挖掘—— 大模型从训练到部署应用迭代,AIGC众多垂直场景落地,通用智能、具身智能等前沿领域探索,都与高质量、专业化的场景数据密不可分。...
-
NeRF与自动驾驶的前世今生,近10篇论文汇总!
神经辐射场(Neural Radiance Fields)自2020年被提出以来,相关论文数量呈指数增长,不但成为了三维重建的重要分支方向,也逐渐作为自动驾驶重要工具活跃在研究前沿。 NeRF这两年异军突起,主要因为它跳过了传统CV重建pipeline的...
-
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
10月26日,在X上有三万订阅的Dwarkesh Podcast(矮人播客)主持人Dwarkesh Patel采访了谷歌DeepMind的创始人兼首席AGI科学家Shane Legg。 他们讨论了AGI出现的时间节点、可能的AGI新架构、作为下一个行业标...
-
GPT-4比你更会问问题:让大模型自主复述,打破与人类对话的壁垒
在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI 提出的建议指出,精确、详细且具体的问题对于这些大语言模型的表现至关重要。然而,普通用户是否能够确保他们的问题对于 LLM 来说足够...
-
解锁 PaddleOCR 的超能力
光学字符识别(OCR)是一项强大的技术,使机器能够从图像或扫描文档中识别和提取文本。OCR 在各个领域都有应用,包括文件数字化、从图像中提取文本以及基于文本的数据分析。在本文中,我们将探讨如何使用 PaddleOCR,一款基于深度学习的先进OCR工具包,...
-
【人工智能】ChatGTP从入门到精通
当谈论自然语言处理和文本生成技术时,Chat GPT 是一个备受瞩目的话题。作为一种基于深度学习的语言模型,Chat GPT 在近几年里已经展现出了惊人的能力,可以生成几乎无法区分与人类写作的文本,并在自然语言处理领域的各种任务中都表现出色。Chat GP...
-
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
AIGC实战——卷积神经网络 0. 前言 1. 卷积神经网络 1.1 卷积层 1.2 叠加卷积层 1.3 检查模型 2. 批归一化 2.1 协变量漂移 2.2 使用批归一化进行训练 2.3 使用批归一化进行预测 3. Dropout 4...
-
全面对比GPT-3.5与LLaMA 2微调
通用大模型虽好,但通过微调得到一个专属大模型不仅可以提高模型的可操控性、输出格式的可靠性和语气的一致性,还能让用户缩短提示长度,加速API调用,降低成本。 本文作者Sam L'Huillier对GPT-3.5与LLaMA 2的微调进行了基准...
-
Intel研究人员提出新AI方法,更高效地在CPU上部署LLM
大型语言模型(LLM)因其在文本生成、语言理解和文本摘要等各种任务中的卓越性能而备受瞩目,但它们庞大的模型参数却需要大量内存和专用硬件,这使得部署这些模型变得相当具有挑战性。 为了降低推断所需的计算功率,研究人员通常采用权重量化等方法,即减少人工神经网络的...
-
让AI模型成为GTA五星玩家,基于视觉的可编程智能体Octopus来了
电子游戏已经成为如今现实世界的模拟舞台,展现出无限可能。以游戏《侠盗猎车手》(GTA)为例,在 GTA 的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市 当中经历丰富多彩的生活。然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们是否也能有一...
-
AIGC实战——生成模型简介
AIGC实战——生成模型简介 0. 前言 1. 生成模型 2. 生成模型与判别模型的区别 2.1 模型对比 2.2 条件生成模型 2.3 生成模型的发展 2.4 生成模型与人工智能 3. 生成模型示例 3.1 简单示例 3.2 生成模型框...
-
如何为制造业和自动化应用选择人工智能技术
在工业自动化领域的生产和实验室之外的日常生活中,人工智能(AI 的定义差异很大。 “人工智能”指的是一门包含了几种不同技术和工程学科的科学,包括机器视觉、计算机视觉、机器学习和深度学习。当一个基于这些技术组合的系统设计得当时(从应用分析到最终验证),它...
-
建立自己的ChatGPT:LLama私有化部署及测试
大语言模型(LLM)现在非常流行,可惜ChatGPT等都不开源。大家没法搭建一个自己的环境来感受以下。幸好Meta开源了LLama,这是LLama的介绍: https://ai.facebook.com/blog/large-language-model...
-
大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干
随着游戏制作技术的不断发展,电子游戏已然成为现实世界的模拟舞台。 以游戏《侠盗猎车手》(GTA)为例,在GTA的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市)当中经历丰富多彩的生活。 然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们...
-
谨防大模型基准评估陷阱!测试集乱入预训练,模型变傻
最新研究警告,大型模型在基准评估中可能面临潜在危害,原因是测试集中的数据可能意外进入预训练过程。这项研究由中国人民大学信息学院、高瓴人工智能学院和伊利诺伊大学厄巴纳-香槟分校的学者联合进行。 研究发现,由于预训练语料包含大量公开文本,而评估基准建立在这些信...
-
上海出台11条举措推动人工智能大模型创新发展
近日,上海市经信委、发改委等五部门联合制定并正式发布了《上海市推动人工智能大模型创新发展若干措施(2023-2025年)》。文件提出11条举措,聚焦大模型创新能力、创新要素供给、大模型创新应用、创新环境四大方面,为上海市大模型创新发展指明方向。 图源备...
-
万字长文解读Stable Diffusion的核心插件—ControlNet
目录 一、介绍 二、使用方法 三、ControlNet结构 1.整体结构 2.ControlLDM 3.Timestep Embedding 4.HintBlock 5.ResBlock 6.SpatialTransformer 7.S...
-
通过100个关键词学习法来学习人工智能(AI)
100个关键词学习法是一种高效的学习方法,它的核心思想是围绕关键词(也就是重点)来进行学习。这套方法论最初由冯唐在世界顶级咨询公司中总结出来。具体来说,不论你想学习哪个行业的知识,首先需要掌握这个行业最重要的一百个关键词。这些关键词可以帮助你快速理解并掌...
-
交叉验证太重要了!
首先需要搞明白,为什么需要交叉验证? 交叉验证是机器学习和统计学中常用的一种技术,用于评估预测模型的性能和泛化能力,特别是在数据有限或评估模型对新的未见数据的泛化能力时,交叉验证非常有价值。 那么具体在什么情况下会使用交叉验证呢? 模型性能评估:交叉...
-
谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化
Transformer模型是否能够超越预训练数据范围,泛化出新的认知和能力,一直是学界争议已久的问题。 最近谷歌DeepMind的3位研究研究人员认为,要求模型在超出预训练数据范围之外泛化出解决新问题的能力,几乎是不可能的。 LLM的终局就是人类智慧总和...
-
国内最大开源模型发布,无条件免费商用!参数650亿,基于2.6万亿token训练
国内规模最大的开源大模型来了: 参数650亿、基于2.6-3.2万亿token训练。 排名仅次于“猎鹰”和“羊驼”,性能媲美GPT3.5,现在就能无条件免费商用。 它就是来自深圳元象公司的XVERSE。 根据算力、资源限制和具体任务需求的不同,我们能对...
-
使用LIME解释各种机器学习模型代码示例
机器学习模型变得越来越复杂和准确,但它们的不透明性仍然是一个重大挑战。理解为什么一个模型会做出特定的预测,对于建立信任和确保它按照预期行事至关重要。在本文中,我们将介绍LIME,并使用它来解释各种常见的模型。 LIME LIME (Local Inter...
-
全球首发!总结七十余种开源数据集,一览自动驾驶开源数据体系
本文经自动驾驶之心公众号授权转载,转载请联系出处。 基于数据驱动的各类深度学习模型任务,近年来随着数据集规模的不断扩大,性能逐渐被提升,国内外各大自动驾驶公司都在不断建立自己的数据库,以及数据闭环系统,期待数据的丰富能够解决下半场自动驾驶问题,那么如何...
-
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
国内大模型创业公司,正在技术前沿创造新的记录。 10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。 这相当于让大模型一次处理约 35 万个汉字,长度...
-
图模型也要大?清华朱文武团队有这样一些观点
在大模型时代,图机器学习面临什么样的机遇和挑战?是否存在,并该如何发展图的大模型?针对这一问题,清华大学朱文武教授团队首次提出图大模型(Large Graph Model)概念,系统总结并梳理了图大模型相关的概念、挑战和应用;进一步围绕动态性和可解释性,...
-
智谱的“GPT-4V”来了,CEO张鹏说他们就是奔着AGI去的
时隔仅仅四个月,智谱大模型再度升级。在沈阳举办的2023中国计算机大会CNCC2023上,智谱介绍了新一代ChatGLM3大模型。 根据智谱官方的表述,尽管新的大模型名字中带有Chat,但实际上这是一个全新版本的基座模型,它的完全版和上一代一样拥有1300...
-
正面硬刚OpenAI!智谱AI推出第三代基座模型,功能对标GPT-4V,代码解释器随便玩
国产大模型估值最高创企,为何是智谱AI? 仅用4个月时间,这家公司就甩出最新成绩证明了自己—— 自研大模型ChatGLM3,不止是底层架构,就连模型功能都进行了全方位大升级。 性能上,最直观的表现就是“疯狂屠榜”,所有50个大模型公开性能测评数据集中,拿下...
-
小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大
大型语言模型 (LLMs 在各种自然语言任务中展现出了卓越的性能,但是由于训练和推理大参数量模型需要大量的计算资源,导致高昂的成本,将大语言模型应用在专业领域中仍存在诸多现实问题。因此,北理团队先从轻量级别模型入手,最大程度发挥数据和模型的优势,立足更...
-
谷歌20亿美元砸向Anthropic:大模型军备竞赛升级
据华尔街日报、路透社等媒体报道,Alphabet 旗下谷歌公司发言人本周五表示,该公司已同意向人工智能公司 Anthropic 投资至多 20 亿美元(约合 146 亿人民币)。 该发言人表示,该公司已向这个 OpenAI 的重要竞争对手预先投资 5...
-
智谱AI推出第三代基座大模型 上线新一代「智谱清言」
智谱AI宣布于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3及相关系列产品。 据介绍,今年以来,这是智谱AI第三次对ChatGLM基座模型进行了深度优化,拥有了更强大的功能。智谱AI采用了独创的多阶段增强预训练方法,...
-
数据分析和机器学习的11个高级可视化图表介绍
可视化是一种强大的工具,用于以直观和可理解的方式传达复杂的数据模式和关系。它们在数据分析中发挥着至关重要的作用,提供了通常难以从原始数据或传统数字表示中辨别出来的见解。 可视化对于理解复杂的数据模式和关系至关重要,我们将介绍11个最重要和必须知道的图表,...
-
阿里腾讯豪华阵容参投,智谱AI投资版图曝光
【新智元导读】超25亿元融资总额,清华团队出身的智谱AI一举成为国内公开融资最高的大模型明星公司之一。 尽管Q4季才刚开始,但人工智能大模型公司智谱已公开宣布,今年累计获得超过25亿人民币融资。 这距离智谱上一次正式公布融资消息已经过去了一年多的时间。...
-
DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案
大语言模型又一项重大缺陷被DeepMind曝光! LLM无法纠正自己推理中的错误。 「Self-Correction」作为一种让模型修正自己回答的技术,在很多类型的任务中都能明显改进模型的输出质量。 但是最近,谷歌DeepMind和UIUC的研究人员却发...
-
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
随着生成式人工智能技术的快速发展,确保大模型与人类价值(意图)对齐(Alignment)已经成为行业的重要挑战。 虽然模型的对齐至关重要,但目前的评估方法往往存在局限性,这也让开发者往往困惑:大模型对齐程度如何?这不仅制约了对齐技术的进一步发展,也引发了...