-
神秘创业公司 Humane 即将推出价值 1000 美元的 AI Pin 设备
据 The Information 报道,神秘的创业公司 Humane 即将推出的新型可穿戴设备/投影器/小工具产品——AI Pin,可能的售价高达 1000 美元,且可能需要每月订阅数据服务。 图片来自 Humane 尽管这个神秘的设备已经研发了数年,...
-
小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大
大型语言模型 (LLMs 在各种自然语言任务中展现出了卓越的性能,但是由于训练和推理大参数量模型需要大量的计算资源,导致高昂的成本,将大语言模型应用在专业领域中仍存在诸多现实问题。因此,北理团队先从轻量级别模型入手,最大程度发挥数据和模型的优势,立足更...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
与OpenAI竞争?Jina AI推出开源8K文本嵌入模型
10月27日消息,外媒报道称,人工智能公司Jina AI日前宣布推出其第二代文本嵌入模型“Jina-embeddings-v2”。这个开源模型支持8K(8192个token 的上下文长度,使其在大规模文本嵌入基准(MTEB 排行榜和功能方面与OpenA...
-
GraphAlign:通过图匹配增强多模态3D目标检测的准确特征对齐
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:GraphAlign: Enhancing Accurate Feature Alignment by Graph matching for Multi-Modal 3D Object Det...
-
用检索增强生成技术解决人工智能幻觉问题
作者| Rahul Pradhan 来源| https://www.infoworld.com/article/3708254/addressing-ai-hallucinations-with-retrieval-augmented-generatio...
-
DataStax集成LangChain,简化生成式AI应用程序的创建
DataStax是一家专注于实时人工智能的公司,宣布将LangChain整合到其Astra DB矢量数据库中。这一整合的目标是使开发者更容易创建生成式AI应用程序,从而鼓励企业积极参与生成式AI革命。通过与LangChain的整合,开发者可以轻松将Astr...
-
LLM一句话瞬间生成3D世界,未公布代码已获141星!或将引发3D建模行业革命
继火爆全网的AI文生图,文生视频之后,文生3D场景的技术也来了! 只要不到30个字的提示词,瞬间就能生成这样的3D场景。 场景效果和文字的要求几乎分毫不差——「平静如玻璃的湖面,倒映出无云的天空,周围的山和水鸟的倒影呈现在湖中。」 「烈日照耀在无垠...
-
Meta推大模型记忆增强方法MemWalker 靠prompt就能完成,无需额外训练
一项名为MemWalker的新技术,使大型语言模型能够克服其窗口长度的限制,从而可以处理更长的文本并回答相关问题,而无需进行额外的训练。这一技术的开发团队使用了一种树形记忆策略,该策略的工作原理包括两个主要阶段:记忆树构建和导航检索。 图源备注:图片由A...
-
4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法
只有4k窗口长度的大模型,也能阅读大段文本了! 普林斯顿的华人博士生的一项最新成果,成功“突破”了大模型窗口长度的限制。 不仅能回答各种问题,而且整个实现的过程全靠prompt就能完成,不需要任何的额外训练。 研究团队创建了一种名为MemWalker的...
-
你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗? 对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例...
-
Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树
到底什么才是LLM长上下文模型的终极解决方案? 最近由普林斯顿大学和Meta AI的研究者提出了一种解决方案,将LLM视为一个交互式智能体,让它决定如何通过迭代提示来读取文本。 论文地址:https://arxiv.org/abs/2310.05029...
-
GPT-4教会机器手转笔、玩魔方!RL社区震惊:LLM设计奖励竟能超越人类?
GPT-4,竟然教会机器人转笔了! 图片 英伟达、宾大、加州理工、德州奥斯汀等机构的专家提出一个开放式Agent——Eureka,它是一个开放式Agent,为超人类水平的机器人灵巧性设计了奖励功能。 图片 论文链接:https://arxiv.org/p...
-
从基础到实践,回顾 Elasticsearch 向量检索发展史
1.引言 向量检索已经成为现代搜索和推荐系统的核心组件。 通过将复杂的对象(例如文本、图像或声音)转换为数值向量,并在多维空间中进行相似性搜索,它能够实现高效的查询匹配和推荐。 Elasticsearch 作为一款流行的开源搜索引擎,其在向量检索方面...
-
用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手
量子位 | 公众号 QbitAI 训练机器人,AI比人类更拿手! 英伟达最新AI AgentEureka,用GPT-4生成奖励函数,结果教会机器人完成了三十多个复杂任务。 比如,快速转个笔,打开抽屉和柜子、抛球和接球。 尤其是转笔这个技能,要知道靠人类逐...
-
全新视觉提示方法SoM 让GPT-4V看的更准、分的更细
研究人员推出了一种新的视觉提示方法 Set-of-Mark(SoM),它可以让 OpenAI 多模态大模型 GPT-4V 在视觉内容理解方面有了质的提升。GPT-4V 是一种基于 GPT-4的多模态模型,可以同时处理文本和图像,并生成多种类型的输出。 然而...
-
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4发布以来,大型多模态模型 (LMM 引起了研究界越来越多的兴趣,许多工作致力于构建多模态...
-
机器人学会转笔、盘核桃了!GPT-4加持,任务越复杂,表现越优秀
大数据文摘出品 家人们,继人工智能(AI)攻占象棋、围棋、Dota之后,转笔这一技能也被 AI 机器人学会了。 上面这个笔转的贼溜的机器人,得益于名叫Eureka的智能体(Agent),是来自英伟达、宾夕法尼亚大学、加州理工学院和得克萨斯大学奥斯汀分...
-
有了GPT-4之后,机器人把转笔、盘核桃都学会了
在学习方面,GPT-4 是一个厉害的学生。在消化了大量人类数据后,它掌握了各门知识,甚至在聊天中能给数学家陶哲轩带来启发。 与此同时,它也成为了一名优秀的老师,而且不光是教书本知识,还能教机器人转笔。 这个机器人名叫 Eureka,是来自英伟达、宾夕法...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...
-
参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了
如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布中实现均衡的性能,因此更倾向于通用模型。 不过如果想要在某一领域(如医学、金融或科学)内最大限...