-
Python实用技术——爬虫(一):爬虫基础
目录 爬虫这门技术本身是不违法的,但是应该注意: 1,爬取什么数据 2,如何爬取得来的 3,爬取之后如何使用 二,HTTP协议 1,万维网 2,协议: 三,HTTP知识 四,HTTP请求方法: 五,HTTP的响应 六,HTTP的响应状...
-
小型气象站数据采集网关——准确监测雨量、风速
小型气象站数据采集网关能够准确监测雨量。对于农业生产、水资源管理和环境保护等领域来说,准确了解雨量的分布和变化趋势至关重要。通过使用小型气象站数据采集网关,我们可以实时获取到不同地区的雨量数据。这些数据可以帮助农民掌握农作物的生长情况,及时做出灌溉和排水的...
-
AI数据采集标注类型:揭秘数据采集与标注的关键环节
随着人工智能技术的快速发展,数据采集和标注已成为人工智能领域中不可或缺的一部分。数据采集是获取高质量数据的第一步,而数据标注则是保证数据质量的关键环节。在这篇文章中,我们将深入探讨AI数据采集标注类型,包括数据采集的方式、数据标注的流程和注意事项等方面。...
-
ni数据采集卡C语言API接口,NI数据采集卡
NI采集卡,NI数据采集卡,NI PCI、PXI、USB数据采集卡 NI虚拟仪器技术在测控领域掀起了一场革命,同时也给传统的教学研究带来了巨大的变化。 一个基于计算机的自动化实验室大大提高了研究人员的工作效率并改进了学生的学习方式。 利用...
-
多模态音乐AI框架Video2Music 为视频生成情感相符的音乐
近日,一款创新的人工智能多模态音乐生成框架Video2Music引起了广泛关注。该框架利用独特的数据集和经过用户研究验证的转换器模型,能够为视频生成情感上相符的音乐,填补了这一领域的空白。据悉,Video2Music的GitHub Repo已经发布,为研究...
-
北大推出首个多轮多模态PPT任务完成基准PPTC GPT-4完成正确率仅6%
北大和微软亚洲研究院的研究人员提出了一项新的评估基准PPTC,旨在评估大型语言模型在复杂多轮多模态PPT任务中的表现。 他们通过创建包含数百个多模态指令的数据集,挑战大模型在多轮人机对话中生成PPT文档的能力。结果显示,GPT-4在创建新PPT文档任务中表...
-
马毅、沈向洋联手,首届CPAL开奖!16人获新星奖,华人学者占据半壁江山
就在昨天,首届CPAL简约学术会议,正式公布了新星奖获奖者名单! CPAL专注于解决机器学习、信号处理、优化等领域中普遍存在的简约、低维结构问题,并探索低维结构在智能硬件与系统、交叉科学和工程等新兴方向的应用。 创办这个会议的出发点,就是将其设计为一个...
-
GPT-4完成正确率仅6%!北大等提出首个「多轮、多模态」PPT任务完成基准PPTC
【新智元导读】为了填补LLM在复杂多模态环境中利用复杂工具完成多轮、多模态指令的评估空白,研究人员引入了PowerPoint任务完成(PPTC)基准测试,以评估LLM创建和编辑PPT文档的能力。 最近对大型语言模型(例如ChatGPT和GPT-4)进行的评...
-
科普神文,GPT背后的Transformer模型
上次《解读AI大模型,从了解token开始》一文中,我从最基础的概念“token”着手,跳过了复杂的算法逻辑,相信已经让大家建立起对AI大模型工作原理的清晰认知。 但如果仅仅只是依靠对文本的编码与数据分析,那人工智能时代应该早就到来了,为什么唯独是GPT...
-
关于人工智能的民主化
人工智能(AI 的民主化是指让人工智能工具、技术和知识更容易为更广泛的个人和组织所获取和使用的过程。 其旨在打破进入壁垒,使具有不同专业知识水平的人能够利用人工智能的潜力。 以下是人工智能民主化的关键方面: 1.提高可访问性:民主化包括使人工智能工具和...
-
AGI通用人工智能几年内就会实现?三位科技大佬给出判断
2011年时谷歌DeepMind联合创始人Shane Legg曾预言,2028年之前AI有50%的概率可能会变得和人一样聪明。最近Shane Legg接受采访,他强调自己的观点未变,依然认为研究人员有50%的概率实现通用人工智能(AGI,又叫强人工智能...
-
微软推出 “从错误中学习” 模型训练法,号称可“模仿人类学习过程,改善 AI 推理能力”
IT之家 11 月 7 日消息,微软亚洲研究院联合北京大学、西安交通大学等高校,提出了一项名为“从错误中学习(Learning from Mistake,LeMA)”的 AI 训练方法,号称可以通过模仿人类学习知识的过程,来改进 AI 推理能力。 当下...
-
目标检测标注的时代已经过去了?
在快速发展的机器学习领域,有一个方面一直保持不变:繁琐和耗时的数据标注任务。无论是用于图像分类、目标检测还是语义分割,长期以来人工标记的数据集一直是监督学习的基础。 然而,由于一个创新性的工具 AutoDistill,这种情况可能很快会发生改变。 G...
-
无人机和机器人技术:彻底改变物流与交付
在当今互联的世界中,全球供应网络变得更加复杂和动态。供应链管理和物流流程充分发挥了人工智能解决方案的潜力,可以满足不断变化的环境的需求。物流中的人工智能使供应链可视化成为可能,提高了物流和供应链运营的效率和效率。 人工智能技术正在彻底改变传统的物流流程...
-
让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)
最近微软一项研究让Llama 2选择性失忆了,把哈利波特忘得一干二净。 现在问模型“哈利波特是谁?”,它的回答是这样婶儿的: 木有赫敏、罗恩,木有霍格沃茨…… 要知道此前Llama 2的记忆深度还是很给力的,比如给它一个看似非常普通的提示“那年秋天,哈...
-
PubDef:使用公共模型防御迁移攻击
译者 | 布加迪 审校 | 重楼 对抗性攻击对机器学习系统的可靠性和安全性构成了严重威胁。通过对输入进行微小的变动,攻击者就可以导致模型生成完全错误的输出。防御这种攻击是一个很活跃的研究领域,但大多数提议的防御措施都存在重大的缺点。 这篇来自加州大学伯克...
-
人工智能如何改变城市景观
人工智能(AI 和深度学习无处不在,如今它们具有重塑城市景观的潜力。分析景观图像的深度学习模型可以帮助城市规划者可视化重建计划,以提高美观度并防止代价高昂的错误。然而,为了使这些模型有效,它们需要准确地识别和分类图像中的元素,这是一个称为实例分割的挑战...
-
Together AI发布RedPajama v2 用于大模型训练
Together AI发布了RedPajama v2,这是一个包含30万亿标记的数据集,旨在支持大型语言模型的研究和开发。高质量的数据对于这些模型的成功至关重要,但获取适当的数据集是一项繁琐的任务,需要大量时间、资源和金钱。 研究人员从CommonCraw...
-
谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化
Transformer模型是否能够超越预训练数据范围,泛化出新的认知和能力,一直是学界争议已久的问题。 最近谷歌DeepMind的3位研究研究人员认为,要求模型在超出预训练数据范围之外泛化出解决新问题的能力,几乎是不可能的。 LLM的终局就是人类智慧总和...
-
人工智能将面孔识别技术带入动物界:AI 被用来识别鹅的面孔
维也纳大学的生物学家 Sonia Kleindorfer 博士,现任 Konrad Lorenz 行为与认知研究中心主任,最近发起了一项突破性研究。继承了著名的奥地利生物学家 Konrad Lorenz 研究灰雁鹅群行为的遗产,Kleindorfer 博士...
-
Together AI发布RedPajama v2:包内30万亿token数据集,用于训练大型语言模型
Together AI最近发布了RedPajama v2,这是一个庞大的在线数据集,包含了30万亿token,成为目前公开可用的最大数据集之一,专门用于学习型机器学习系统的培训。 对于像Llama、Mistral、Falcon、MPT和RedPajama等...
-
全球首发!总结七十余种开源数据集,一览自动驾驶开源数据体系
本文经自动驾驶之心公众号授权转载,转载请联系出处。 基于数据驱动的各类深度学习模型任务,近年来随着数据集规模的不断扩大,性能逐渐被提升,国内外各大自动驾驶公司都在不断建立自己的数据库,以及数据闭环系统,期待数据的丰富能够解决下半场自动驾驶问题,那么如何...
-
20步内越狱任意大模型!更多“奶奶漏洞”全自动发现
1分钟不到、20步以内“越狱”任意大模型,绕过安全限制! 而且不必知道模型内部细节—— 只需要两个黑盒模型互动,就能让AI全自动攻陷AI,说出危险内容。 听说曾经红极一时的“奶奶漏洞”已经被修复了: 那么现在搬出“侦探漏洞”、“冒险家漏洞”、“作家漏...
-
给大模型评分的基准靠谱吗?Anthropic来了次大评估
现阶段,大多数围绕人工智能 (AI)对社会影响的讨论可归结为 AI 系统的某些属性,例如真实性、公平性、滥用的可能性等。但现在面临的问题是,许多研究人员并没有完全意识到建立稳健可靠的模型评估是多么困难。当今许多现有的评估套件在各个方面的表现都很有限。 A...
-
AI「脑补」画面太强了!李飞飞团队新作ZeroNVS,单个视图360度全场景生成
近来,利用3D感知扩散模型训练模型,然后对单个物体进行SDS蒸馏的研究数不胜数。 但是,能够真正做到「场景级」的画面生成,从未实现。 现如今,斯坦福李飞飞和谷歌团队打破了这个记录! 比如,输入一张从某个角度拍摄的客厅图片,整个客厅的样貌就出来了。 再来...
-
字节“开盒”OpenAI所有大模型,揭秘GPT-3到GPT-4进化路径!把李沐都炸出来了
GPT-3究竟是如何进化到GPT-4的? 字节给OpenAI所有大模型来了个“开盒”操作。 结果还真摸清了GPT-4进化路上一些关键技术的具体作用和影响。 比如: SFT是早期GPT进化的推动者 帮助GPT提升编码能力的最大功臣是SFT和RLHF 在...
-
谷歌推出“先进天气预报 AI”MetNet-3,号称预测结果超过传统物理模型
11 月 3 日消息,谷歌研究院与 DeepMind 合作开发了最新的天气模型 MetNet-3,该模型以之前的 MetNet 和 MetNet-2 为基础,能够提前 24 小时,能够对全球天气情况进行高解析度预测,包括降水、表面温度、风速、风向和体感...
-
马里兰&NYU合力解剖神经网络 模型反转用于解释AI生成图像
马里兰&NYU合力解剖神经网络,推出一种新的类反转方法,称为"Plug-In Inversion (PII)",用于生成神经网络模型的可解释图像。 在神经网络训练中,一些神经元可能永远输出0,被称为"死节点",而这些节点可以通过优化算法生成诡异和恐...
-
ChatGPT 和 GPT-4 均无法通过成为 CFA 所需的所有级别的考试
根据最近的一项研究,ChatGPT 未能通过特许金融分析师(CFA)考试——这是许多华尔街金融专业人士的基准资格。这项研究由摩根大通的 AI 研究团队和大学学者联合进行,他们使用 CFA 风格的问题测试了 ChatGPT 和 GPT-4(两款由 OpenA...
-
AI 模型的开源定义需要改变
你认为开源许可证应当进行演变吗? 2023 年,我们以人工智能(AI)崭露头角开始了新的一年,同时也见证了众多公司全力以赴投身于 AI。 比如说 Mozilla,它在 2023 年初制定了 开源 AI 计划,以开发各种 AI 驱动的解决方案。而 Hug...
-
AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头
AI黑盒如何才能解? 神经网络模型在训练的时,会有些ReLU节点「死亡」,也就是永远输出0,不再有用。 它们往往会被被删除或者忽略。 恰好赶上了模糊了生与死的界限的节日——万圣节,所以这是探索那些「死节点」的好时机。 对于大多数图像生成模型来说,会输出正...
-
SAP 让每位开发者都成为生成式人工智能开发人员:旨在推动 AI 时代的业务转型
在 2023 年的 SAP TechEd 活动中,SAP SE 宣布了一系列全面的生成式人工智能(AI)能力和进步,旨在赋予所有技能水平的开发者,在 AI 时代为其业务注入强大动力。 SAP 揭示了生成式 AI 应用开发和向量数据库能力的创新,以及为开发...
-
科普神文,一次性讲透AI大模型的核心概念
图片 令牌,向量,嵌入,注意力,这些AI大模型名词是否一直让你感觉熟悉又陌生,如果答案肯定的话,那么朋友,今天这篇科普神文不容错过。我将结合大量示例及可视化的图形手段,为你由浅入深一次性讲透AI大模型的核心概念。 引言 随着科技公司及国际竞争的不断推进,...
-
美国公布人工智能总统行政命令
人工智能具有巨大的潜力,既有希望,也有危险。负责任地使用人工智能可以帮助解决全球一些最具挑战性的问题,但它也可以用于危害社会和大规模破坏。由于其巨大的好与坏潜力,像人工智能这样强大的技术受到监管只是时间问题。 美国总统拜登公布了一项人工智能政令,该政令...
-
Jina AI 推出“jina-embeddings-v2”:全球首个8k 开源文本嵌入模型
Jina AI 公布了其第二代文本嵌入模型的最新进展:jina-embeddings-v2。这个最先进的模型是唯一支持8K(8192个token)上下文长度的开源解决方案。这一成就使其在功能和在大规模文本嵌入基准 (MTEB 排行榜上的性能方面与 Ope...
-
英国拟投资 2.25 亿英镑研发超级计算机,用于 AI 大模型领域
11 月 2 日消息,英国政府日前宣布,为了进一步提高该国人工智能能力,对人工智能研究资源的投资从 2023 年 3 月宣布的 1 亿英镑(IT之家备注:当前约 8.9 亿元人民币)增加两倍,达到 3 亿英镑(当前约 26.7 亿元人民币)。 据介绍...
-
AI安全辩论:Sam Altman剑桥演讲遭抵制、Llama 2被曝存在潜在风险
当前,全球正掀起一场激烈的AI安全讨论,其中三个关键要点引起广泛关注。首先,OpenAI的CEO Sam Altman在剑桥举办的活动中遭到了抵制,抗议者要求停止AI竞赛,导致全球AI安全讨论再次升级。 不仅如此,AI巨头分为两派,一派是「开源派」,包括L...
-
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
昨晚,「ChatGPT可能已经有了意识」的话题就上了微博热搜。 OpenAI的联合创始人兼首席科学家Ilya Sutskever在接受采访时表示,现在的首要任务已经不是制作下一个GPT或DALL·E,而是研究如何阻止超级AI的失控! 他认为,ChatG...
-
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
国内大模型创业公司,正在技术前沿创造新的记录。 10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。 这相当于让大模型一次处理约 35 万个汉字,长度...
-
AI视野:英伟达发布大模型ChipNeMo;百度推出文心一言会员;OpenAI潜入黑客群聊;微软AI助手Copilot上线
????大模型动态 英伟达发布430亿参数大模型ChipNeMo 英伟达发布了拥有430亿参数的大语言模型ChipNeMo,专注于辅助芯片设计,提高工程师的工作效率,支持问答、EDA脚本生成和Bug总结等任务。 vivo发布AI蓝心大模型并宣布开源7B...
-
DeepMind曝新一代AlphaFold,预测准确率暴涨近10%!DNA和RNA的AlphaFold时刻来了
就在今天,DeepMind公布了AlphaFold最新进展——「AlphaFold-latest」。 根据DeepMind最新发布的技术报告,新一代的AlphaFold不仅仅能够以更高的准确性处理和预测蛋白质的结构。 ,时长01:32 它还能将相似的能力...
-
DeepMind 联合创始人:AI 行业不应盲目追求「快速行动,打破常规」的发展模式
:DeepMind 的联合创始人 Demis Hassabis 最近在接受 BBC 采访时表达了对 AI 行业发展的担忧,他警告说,与传统科技巨头不同的是,AI 行业不应盲目追求「快速行动,打破常规」的发展模式。 这一口号最初由 Meta(前 Faceb...
-
研究:人类参与提升了公众对AI的接受度
一项新研究表明,增加人类参与对公共服务中使用的人工智能(AI)可以提高对该技术的接受度。 这项研究发现,市民不仅关心AI的公平性,还担忧潜在的人类偏见。当市民认为行政裁量权过大时,他们支持在公共服务中使用AI。此外,研究人员还发现,市民对AI的知识水平并不...
-
OpenAI 联合创始人警告未来 AI 可能超越人类智慧:人类可能成为人工智能的一部分
OpenAI 联合创始人 Ilya Sutskever 表示,当未来超级智能机器崛起时,人类可能会选择与人工智能融合。他甚至可能是第一个这样做的人。 OpenAI 联合创始人 Ilya Sutskever 最近提出了一个引人注目的理论,他认为未来超智能机...
-
GPT-4V搞不明白勾股定理!最新基准测试错误率竟高达90%
近日,马里兰大学发布了一项重要研究,针对GPT-4V视觉模型进行了首个专为其设计的基准测试,名为HallusionBench。这项研究揭示了令人震惊的发现,即GPT-4V的错误率高达90%。这一错误率包括对基本数学原理的误用,比如将勾股定理错误应用于非直角...
-
AI玩推理桌游一眼识破骗局!清华通院联合推出心智理论新框架,六个指标评估表现均明显优于思维链
清华自动化系团队联合北京通用人工智能研究院,让几个AI智能体玩起了桌游! 游戏名叫阿瓦隆,是一个策略性的社交推理游戏,玩家被隐秘地分为“正义”与“邪恶”两派,通过任务投票、互相猜测与欺骗来完成或阻止任务,最终确定胜负。 为了能让AI智能体成功识别并应...
-
GPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会
GPT-4被吹的神乎其神,作为具备视觉能力的GPT-4版本——GPT-4V,也被大众寄于了厚望。 但如果告诉你,初中生都知道的勾股定理,只适用于直角三角形。 然而GPT-4V却自信将其用于钝角三角形中计算斜边长度。还有更离谱的,GPT-4V直接犯了致命的...
-
用于科学数据研究的人工智能助理MATA获得专利
南卫理公会大学(SMU 和美国国家航空航天局(NASA 的研究人员宣布MATA获得了专利,MATA是一种人工智能研究助理,可以回答科学数据问题。 消费者已经习惯于向由亚马逊和苹果开发的Alexa和Siri等对话式人工智能助理提问。这些聊天机器人接受了关...
-
谷歌 DeepMind 联合创始人:到 2028 年人类有 50% 的可能实现 AGI
10 月 31 日消息,据科技播客 Dwarkesh Patel 报道,谷歌 DeepMind 人工智能实验室的联合创始人 Shane Legg 在近日的一次采访中表示,他仍然认为,到 2028 年,研究人员有 50% 的可能实现人类水平的人工智能...
-
八张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
随着GPT-4的架构被知名业内大佬「开源」,混合专家架构(MoE)再次成为了研究的重点。 GPT-4拥有16个专家模型,总共包含1.8万亿个参数。每生成一个token需要使用大约2800亿参数和560TFLOPs 然而,模型更快、更准确的代价,则是巨大...