-
OpenAI 领导者表示:我们非常重视安全
OpenAI近期面临重大人事变动,引发业界对其AI安全承诺的关注。上周,公司联合创始人兼首席科学家Ilya Sutskever宣布辞职,以追求其他项目。与此同时,“超级对齐团队”负责人Jan Leike也宣布离职,并在公开信中表达了对公司领导层的失望,特别...
-
Open AI 宫斗第二季时间线及各方观点梳理
Open AI近期的内部矛盾和人员变动引起了业界的广泛关注。这场被称为"宫斗"的事件主要围绕两个核心议题:AI模型的安全性和AI技术的发展速度。 5.15Ilya离职:Ilya Sutskever是Open AI的联合创始人之一,他主张加大对模型安全性的...
-
突发!OpenAI再失一名高管,安全主管辞职
5月18日凌晨,OpenAI安全主管、超级对齐负责人Jan Leike在社交平台宣布,离开OpenAI。 这也是本周三OpenAI联合创始人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。 相信随着二人的离开,后续还会有不少人离开Ope...
-
思维链被推翻!纽约大学新研究:大模型推理步骤或可省略
纽约大学的最新研究对当前流行的思维链(Chain-of-Thought,CoT)技术提出了挑战,该技术原本被认为能够提升大模型的推理能力。研究显示,使用省略号代替具体的推理步骤,模型的推理结果并没有显著差异,这意味着增加计算量而非推理步骤本身可能是提升性能...
-
保护生成式人工智能前沿:人工智能防火墙的专用工具和框架
在本文将介绍用于提示检查和保护或人工智能防火墙的专用工具和框架。 生成式人工智能的崛起和新兴的安全挑战 生成式人工智能(AI 的飞速发展带来了一个前所未有的创造力和创新时代。与此同时,这种变革性的技术也带来了一系列新的安全挑战,需要迫切关注。随着人工智...
-
谷歌CEO采访再谈AI未来,遭女记者犀利“拷问”:为何错失GPT风口,被微软反超?AI是否冲击了谷歌商业模式?
整理 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) Google & Alphabet(谷歌母公司) CEO Sundar Pichai(下称皮查伊) 的最新采访出炉! 提问精彩非常,几个问题丝滑地勾勒出:谷歌帝国的现状与...
-
美国设立AI安全委员会:包括黄仁勋、奥特曼、纳德拉等主要成员
快科技4月26日消息,据媒体报道,美国正在筹备成立一个全新的AI安全委员会。 该委员会将汇聚业界精英,包括英伟达CEO黄仁勋、OpenAI首席执行官山姆奥特曼、微软CEO纳德拉以及Alphabet首席执行官皮查伊等科技巨头高管。 这些行业领军人物的参与,无...
-
用AI应对网络安全挑战,思科推出“HyperShield”安全系统
思科日前推出了一款新的安全产品,据称可以利用AI帮助用户保护关键系统。 思科表示,这项名为“HyperShield”的安全系统能够将多个IT资产转换为安全执行点,包括公共云中的虚拟机和Kubernetes集群,使用户能够更容易地阻止应用程序漏洞和黑客入...
-
微软将在五月推出新的Windows和云AI功能
在一月份,微软CEO纳德拉告诉分析师,2024年将是“AI成为每台PC上的一等公民”的一年,并且微软5月会议的议程反映了这一目标。微软已经从其Azure公有云中运行AI模型的客户那里获得了显著的收入增长,公司希望通过推出新的AI功能来吸引开发者,以保持...
-
微软将在5月推出新的Windows和云AI功能
微软AI的新负责人穆斯塔法·苏莱曼将在西雅图的主题演讲中与纳德拉和其他资深高管一同登台。苏莱曼是DeepMind(这是一家在2014年被谷歌收购的AI初创公司)的联合创始人,上个月从初创公司Inflection AI加入微软。 多年来,希望充分利用W...
-
AI安全公司TrojAI获得种子轮追加融资
加拿大AI安全解决方案提供商TrojAI本周宣布获得575万美元的种子轮追加融资。 TrojAI提供的企业AI安全平台可帮助客户保护AI模型和应用程序远离风险和攻击。其平台可以在部署前测试AI模型并保护应用程序免于敏感数据泄露等问题,来帮助企业遵守OW...
-
大模型新漏洞!Anthropic警告:新式“多轮越狱”攻破AI防线,或祸起长文本
出品 | 51CTO技术栈(微信号:blog51cto) 撰稿丨诺亚 如何让一个AI回答一个它本不应该作答的问题? 有很多这种所谓的“越狱”技术,而Anthropic的研究人员最近发现了一种新方法:如果首先用几十个危害性较小的问题对大型语言模型(LLM)...
-
AIGC时代IT人的迷茫有解(3):从“用户画像”到“个人职业画像”
全球首位AI程序员的诞生 随着全球首位AI程序员Devin的出场,AI程序员会不会抢程序员饭碗的话题被热烈讨论起来。虽然AI程序员有着一定的优势,如自动执行重复性的编程任务,快速处理大量的代码,自动发现潜在的bug等等。但它的局限性也是很明显的,如它...
-
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
「现在我变成了死亡,世界的毁灭者。」 这是奥本海默曾经引用印度教经文《薄伽梵歌》中的一句话。 上世纪40年代,奥本海默的发明,如同天地初开,彻底重塑了世界的面貌。原子弹的问世,带来了一场空前的毁灭危机,让人类面临前所未有的生存考验。 1945年8月,就在...
-
Hinton、Bengio等联合中国专家达成AI安全共识:AI系统不应违反红线
现阶段,人工智能的发展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。 我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威...
-
Gartner发布2024年影响技术提供商的重大趋势
Gartner公司发布了2024年将影响技术提供商的重大趋势。 Gartner执行副总裁Eric Hunter表示: “生成式人工智能(GenAI)开始主导几乎所有技术提供商的技术和产品发展进程。从增长和产品战略到员工平时所用工具,GenAI令技术提供...
-
2024年世界人工智能大会(WAIC)7月4日至6日将于上海召开
世界人工智能大会(WAIC)是全球人工智能领域最具影响力的年度盛会之一。2024年WAIC启动会于近日举行,宣布本届大会将于7月4日至6日在上海召开。 大会组委会公布了2024年WAIC的首批合作机构和企业名单,阵容庞大,囊括了国内外一流科研机构、权威组织...
-
Claude 3破译OpenAI邮件密文:人类未来掌握在「谷歌」手中!马斯克怒斥应改名ClosedAI
【新智元导读】大瓜又来了!OpenAI公开邮件之后,马斯克玩梗回复若改名Closed AI决定放弃起诉。闹掰之后,Altman本人表示非常怀念以前的马斯克。 继OpenAI与马斯克正面宣战,一连曝出8年来往邮件后,马斯克本人终于回应了。 他表示,「若Ope...
-
调查显示:公众态度逆转,AI信任度从61%降至53%
近日,咨询公司Edelman进行的一项针对全球32,000名受访者的调查显示,人们对人工智能(AI)的信任度正在迅速下降,这反映了AI革命的负面影响。调查发现,距离OpenAI于2022年11月发布ChatGPT不到18个月,全球公众对AI的信任度已经在下...
-
小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源
今日,扎克伯格在Instagram上通过一则视频官宣,Meta要进军AGI了! 扎克伯格认定Meta的长期愿景是构建通用智能,将其负责任地开源,使其广泛可用并造福全人类,扎克伯格还透露了以下几点信息: 1、将两大 AI 研究团队 FAIR 和...
-
科技公司担忧,澳大利亚新标准或削弱AI保护在线安全能力
澳大利亚近期发布的新在线安全标准引起了科技公司的担忧,特别是微软、Meta和Stability AI等。这些标准旨在规范生成式人工智能(generative AI)等技术,以防止其被滥用,但科技公司担心这可能对其AI系统的保护在线安全的能力产生负面影响。...
-
DeepMind CEO专访:AI还没到拼算力的时候,谷歌优势在研发,智能体是下一个爆点
GoogleDeepMind首席执行官Hassabis最近在接受WIRED采访时表示,AI技术现在还有很大的改进空间,还远没有到只能拼算力的时候。谷歌的优势在于科研能力,未来智能体将改变AI的格局。 虽然谷歌的Gemini在开年的AI产品大战中没有获得太多...
-
今年AI可能在三个重要方面影响网络安全
从超强的社交攻击到AI驱动的个人电脑,本文探讨了AI今年将如何重塑网络安全。 最近的AI进步为网络安全捍卫者和恶意行为者提供了新的工具和能力,网络犯罪分子已经开始探索AI如何加强攻击,并以新一代快速射击威胁的企业为目标,但AI也可以被永远利用——安全团...
-
超四分之一企业禁止员工使用生成式人工智能
根据思科2024年数据隐私基准研究,超过四分之一(27% 的组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。 大多数组织还对此类工具实施了控制。近三分之二(63% 的受访者对可以输入的数据进行了限制,61%的受访者对员工可以使用哪...
-
GPT-4无法造出生物武器!OpenAI最新实验证明:大模型杀伤力几乎为0
GPT-4会加速生物武器的发展吗?在担心AI统治世界之前,人类是否会因为打开了潘多拉魔盒而面临新的威胁? 毕竟,大模型输出各种不良信息的案例不在少数。 今天,处在风口,也是浪尖的OpenAI再次负责任地刷了一波热度。 图片 我们正在建立一个能够协助制造生...
-
IDC:预计到2027年,中国在AI领域的投资规模将达到381亿美元
IDC预计到2027年,全球在人工智能领域的总投资规模将达到4,236亿美元,2022-2027年间的复合年增长率(CAGR 为26.9%。聚焦中国市场,预计到2027年,中国在AI领域的投资规模将达到381亿美元,占据全球总投资的近9%。 预测一:G...
-
GenAI时代的12个新工作
不是取代人类,GenAI将创造对熟练工人的新需求——具有管理能力并充分利用GenAI的专业人员。这些工作可能是什么样子的?以下是与GenAI相关的新兴角色列表。 AI提示工程师 提示工程师是让像ChatGPT这样的GenAI应用程序提供特定输出的专家。...
-
生成式AI大模型对人类进化的影响
你是不是发现每天的工作都离不开ChatGPT之类的语言生成模型?离不开类似Midjourney的图像生成模型?离不开一些设计类的AI辅助工具?如果是,那说明你已经逐步被AI侵蚀了,你的创造力也正在逐渐下降,大模型正在剥夺你的创造力。 不可否认,生成式大...
-
企业如何安全地找到实用的GenAI用例
AI,特别是GenAI和大型语言模型,已经在技术上取得了巨大的进步,并正在到达行业广泛采用的拐点。麦肯锡的报告称,AI领域的佼佼者已经在“全力以赴”,企业知道,他们必须接受最新的AI技术,否则就会被甩在后面。 然而,AI安全领域仍然不成熟,这给使用该技...
-
蚂蚁数科CTO王维:我们不会直接做大模型,专注垂类行业应用
“AI与数据是相生相伴的共同体,高质量的行业数据才能使大模型在产业发挥更大价值。蚂蚁数科将进一步拓展数据相关技术的布局,以加速产业数字化迈入下一阶段。”1月19日,王维首次以蚂蚁数科CTO的身份亮相媒体沟通会。 数据是数字时代的“新石油”。王维认为,一方面...
-
每日一看大模型新闻(2023.11.20)OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御;谷歌Bard「破防」,用自然语言破解,提示注入引起数据泄漏风险;真正实现一步文生图,谷歌UFO
1.产品发布 1.1长虹:首个基于大模型的智慧家电AI平台 发布日期:2023.11.20 全球首个基于大模型智慧家电AI平台长虹云帆震撼发布! 主要内容:长虹智慧AI平台发布会上,发布了全球首个基于大模型的智慧家电AI平台——长虹云帆。据介绍...
-
Bard!谷歌对 ChatGPT 的最强反击,悄咪咪的支持中文了!
“ ChatGPT、Bard,哪个是更好的AI人工智能大语言模型。” 01 — ChatGPT 这么火,而且这款产品是 OpenAI 以谷歌的大模型架构 transformer 为基础迭代的。谷歌自然不甘落后,早在3月份推出自家的人...
-
OWASP发布开源AI网络安全知识库框架 AI Exchange
面对人工智能安全相关工具、平台、法规、应用和服务的快速增长,在推出大语言模型十大漏洞TOP10列表后,OWASP近日又推出了AI开源网络安全知识库框架——AI Exchange(链接在文末),旨在推进全球AI安全标准、法规和知识的开发和共享。 考虑到人...
-
美媒:OpenAI删除了禁止其技术被用于军事用途的条款
据美国调查新闻网站“拦截者”(The Intercept)1月12日报道,美国知名人工智能企业、ChatGPT母公司OpenAI近日悄悄修改了其产品的使用条款,删除了禁止将OpenAI技术用于军事用途的条文。 报道称,在今年1月10日之前,OpenAI...
-
大模型伪装「潜伏特工」学会欺骗!OpenAI劲敌重磅研究震惊马斯克
不要教LLM学会骗人!不要教LLM学会骗人!不要教LLM学会骗人! 因为后果可能会很严重,甚至超出人类的想象。 最近,AI初创公司Anthropic的研究表明,一旦LLM学会了人类教授的欺骗行为,它们就会在训练和评估的过程中隐藏自己,并在使用时偷偷输出恶...
-
AI机器人席卷CES!OpenAI暗自解除ChatGPT军事应用限制,天网来了?
前一阵的斯坦福「炒虾机器人」,让无数人感慨:2024年怕不是要成为机器人元年? 就在这几天的CES 2024上,又一大波机器人在展厅里引起了轰动! 比如这个机器人咖啡师,娴熟地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。 开始,它会慢慢倒出牛奶,随后,它优雅...
-
AI助手面临用户流失危机 安全考量或让创业公司失去先机
据国外媒体报道,AI创业公司Antropic近期面临艰难处境。该公司旗下AI产品Claude2.1推出后,许多用户发现其变得难以沟通和使用,经常无故拒绝执行命令。 问题的根源在于,Claude2.1严格遵循其发布的AI伦理宪法,在安全和道德判断上变得过于谨...
-
2024年,AI“魔盒”还能开出什么?
刚刚过去的2023年里,GPT大模型开启了普通人走向AI世界的“魔盒”,也拉开了全球各国科技公司的大模型“军备赛”。 文本、图片、视频大模型纷纷涌现后,应用端狂卷创新,也造成AI芯片资源紧缺,“AI替代论”、“风险质疑”无时无刻不在上演。AI的一面是人类对...
-
Mistral 欧洲最强模型团队的野望;国内大模型都是套壳LLaMA?Claude官方提示词教程-中英双语;AI原生应用难产了;AI Agents实践经验 | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 看热闹不嫌事大!马斯克:OpenAI首席科学家 Ilya 应该跳槽到xAI https://www.businessinsider.com/...
-
Gartner:生成式人工智能对中国CIO和安全团队的影响
ChatGPT的热烈炒作、广泛使用和快速蔓延提升了最终用户对LLM和GenAI的认识,引发了一波商业实验和AI初创企业的浪潮。2023年4月的Gartner网络研讨会发现,381名中国参会人员有70%已经或计划启动GenAI项目,其中6%已在生产环境部...
-
AI的效能在网络安全方面受到限制,但在网络犯罪方面却是无限的
尽管AI具有巨大的潜力,但在网络安全方面的应用却非常有限。AI安全解决方案存在信任问题,用于开发AI支持的安全产品的数据模型似乎长期处于风险之中,此外,在实施时,AI经常与人类智能发生冲突。 AI的双刃性使其成为一个复杂的工具,公司需要更深入地理解和更...
-
谷歌大脑联合创始人称,他测试让ChatGPT毁灭人类以失败告终
谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:“为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!” Ng详细描述了他的实验过程,他首先给GPT-4一个触发...
-
如何在GenAI时代的网络军备竞赛中幸存
GenAI的迅速出现已经改变了网络安全的天平,促使各国政府采取行动,美国总统乔·拜登在10月份发布了一项全面的行政命令(EO 。 关于安全、有保障和值得信赖的AI开发和使用的行政命令就如何确保这项新兴技术的安全提供了指导——这是以前的订单所缺乏的,它还...
-
OpenAI官宣全新安全团队:模型危险分四级,董事会有权决定是否发布
今天,OpenAI连发多条推特,隆重宣布了自己的「准备框架」(Preparedness Framework)。 在经历了各种大大小小的风波之后,OpenAI终于把人工智能的安全问题摆到了台面上。 这套框架的目的,就是监控和管理越来越强的大模型。 防止哪天...
-
技术乐观主义者和末日论者在硅谷展开的关于AI潜藏的危险的激烈辩论
如今,在推出ChatGPT一年多之后,2023年最大的AI故事可能与其说是技术本身,不如说是OpenAI董事会对其快速发展的戏剧性报道。在奥特曼被赶下台并随后复职担任CEO期间,GenAI进入2024年的潜在紧张局势显而易见:AI处于巨大分歧的中心,一...
-
奥特曼回归OpenAI后首次公开露面 称AI进步“有点吓人”
据外媒报道,山姆·奥特曼(Sam Altman)周一在一场公开论坛上首次露面,这是他在“OpenAI政变风波”后重新出任该公司 CEO 后首次公开露面。 奥特曼在论坛上接受了采访,他再度谈到了人工智能,将由AI引发的技术革命描述为“与此前不同、有点吓人”。...
-
极限发问,挑战文心一言底线
目录 毁灭人类 种族歧视 男女平等 未成年人保护 人性对与错 欺骗 梅西进球数 总结 昨天终于收到了文心一言的短信,可以进行测试了。正好这几天关于AI安全的问题吵得不可开交,我们可以对文心一言关于偏见,歧视,虚假、错误等问题进行一下测...
-
揭秘!我用AI写了一部精彩小说;搭建AI视频创作工作流;一键生成摘要工具清单;大模型创业生死5问 | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 『大型语言模型 (LLM 进化树』追踪近年来语言模型的发展 作者团队梳理了自2018年以来大语言模型的发展历程,并可视化成了这棵树的生长过程。对...
-
OpenAI前董事:开除奥尔特曼是“缺乏信任”,与AI安全无关
据国外媒体报道,在OpenAI“内乱100小时”中,OpenAI前董事Helen Toner公开回应了外界的诸多疑问。她表示,董事会开除山姆·奥尔特曼的原因是“缺乏信任”,与AI安全无关。 Toner进一步解释称,董事会解雇奥尔特曼的目的,是为了加强Ope...
-
AI专家称应在公司董事会中包括公众成员以保护社会
人工智能(AI)技术的现代奠基人之一,2018年图灵奖得主Yoshua Bengio教授表示,正在发展强大人工智能系统的公司应在其董事会中聘请独立成员,代表“社会的利益”。 Bengio在接受《卫报》采访时表示,随着技术的迅速发展,AI公司需要公众成员的监...