-
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等)及其评估
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等 及其评估基准(包括数据集 、案例应用之详细攻略 目录 大模...
-
Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记
文章目录 Llama 2: Open Foundation and Fine-Tuned Chat Models 1.简介 2.预训练 2.1 预训练数据 2.2 训练详情 2.3 LLAMA 2 预训练模型评估 3. 微调 3.1 s...
-
比「让我们一步一步思考」这句咒语还管用,提示工程正在被改进
大型语言模型(LLM)已经是许多自然语言处理任务的强大工具,只要能给出正确的提示。然而,由于模型的敏感性,找到最优提示通常需要进行大量手动尝试和试错努力。此外,一旦将初始提示部署到生产环境中,可能会出现意想不到的边缘情况,需要更多轮的手动调整来进一步完善...
-
【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验
前言 Meta发布的一代LLaMA已经掀起了一股开源大模型热潮,也有很多相关工作不断涌现。最近Meta全新发布了Llama-2,效果更上一层楼。而且最重要的是模型可以相对随意分发了,不像一代一样,meta不让开发者发布基于llama模型训...
-
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_sft_with_peft.py文件)—模型训练前置工作(参数解析+配置日志)→模型初始化(检测是否存在训练过的che
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_sft_with_peft.py文件 —模型训练前置工作(参数解析+配置日志 →模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer →数...
-
Chatbot开发三剑客:LLAMA、LangChain和Python
聊天机器人(Chatbot)开发是一项充满挑战的复杂任务,需要综合运用多种技术和工具。在这一领域中,LLAMA、LangChain和Python的联合形成了一个强大的组合,为Chatbot的设计和实现提供了卓越支持。 首先,LLAMA是一款强大的自然语...
-
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架 的简介、安装、案例实战应用之详细攻略 导读:2023年07月31日,哈工大讯飞联合实验室,发布Chinese-LLaMA-Alpaca-2,本项目基于Meta发布的...
-
OpenAI内斗时,Karpathy在录视频:《大型语言模型入门》上线
OpenAI 的风波暂时告一段落,员工也忙着「干活了」。 年初回归 OpenAI 的 Andrej Karpathy 最近做了一场关于大型语言模型(LLM)的 30 分钟入门讲座,但该讲座当时没录制。因此,他基于这场讲座重新录制了一个长达 1 小时的视频...
-
牛津大学AI研究员发出警告:大语言模型对科学真相构成风险
在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由Brent Mittelstadt、Chris Russell和Sandra Wachter等研究员在《自然人类行为》期刊上发表的论文中,他们...
-
清华大学提出全新加速训练大模型方法SoT
近日,微软研究和清华大学的研究人员共同提出了一种名为“Skeleton-of-Thought(SoT)”的全新人工智能方法,旨在解决大型语言模型(LLMs 生成速度较慢的问题。 尽管像GPT-4和LLaMA等LLMs在技术领域产生了深远影响,但其处理速度的...
-
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation.py/tokenizer.py 目录 一、l...
-
拒绝996低效率:ChatGPT助你轻松搞定代码注释和文档
良好的注释对于任何成功的Python项目来说都至关重要。在实际操作中,编写注释是一件困难且耗时费力的工作,因此一些开发人员并不喜欢这样做。幸运的是,借助大型语言模型(LLMs)和像ChatGPT这样的工具,您可以迅速为您的Python代码和项目编写注释...
-
南开大学与字节跳动研究人员推出开源AI工具ChatAnything:用文本描述生成虚拟角色
南开大学与字节跳动研究人员合作推出了一项引人注目的研究,发布了一种名为ChatAnything的全新AI框架。该框架专注于通过在线方式生成基于大型语言模型(LLM)的角色的拟人化形象,从而创造具有定制视觉外观、个性和语调的人物。 简答的说,ChatAnyt...
-
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读 导读:该论文提出了一个开源的大规模语言模型LLaMA,2048个A100-80G训练21天。该...
-
KAUST研究团队推出大模型心智交互框架CAMEL 教AI Agents学会协作与竞争
近期,KAUST研究团队推出的CAMEL框架引起了广泛关注。该框架以角色扮演为基础,使AI Agents在复杂任务中能够协作和竞争,产生惊人的群体智能效果。NeurIPS2023录用的这一项目探索了大型语言模型(LLMs)领域的新方向。 项目地址:htt...
-
用深度催眠诱导LLM「越狱」,香港浸会大学初探可信大语言模型
尽管大语言模型 LLM (Large Language Model 在各种应用中取得了巨大成功,但它也容易受到一些 Prompt 的诱导,从而越过模型内置的安全防护提供一些危险 / 违法内容,即 Jailbreak。深入理解这类 Jailbreak 的...
-
LLMs之Colossal-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插
LLMs之Colossal-LLaMA-2:源码解读(train.py文件 基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插件 →数据预处理(初始化分词器+数据处理器+数据加载器 ...
-
AIGC技术周报|ChatDoctor:哪里不舒服;HuggingGPT:连接大模型和机器学习社区;ChatGPT真的鲁棒吗?
AIGC通过借鉴现有的、人类创造的内容来快速完成内容创作。ChatGPT、Bard等AI聊天机器人以及Dall·E 2、Stable Diffusion等文生图模型都属于AIGC的典型案例。「AIGC技术周报」将为你带来最新的paper、博客等前瞻性研究。...
-
LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同
LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务 、同时微调LLaMA2模型(采用Conda环境安装tg we...
-
使用代码下载开源的大模型文件示例以及中文微调llama资源汇总:
一、下载示例 from huggingface_hub import snapshot_download repo_id = "THUDM/chatglm2-6b" local_dir = './chatglm2-6b/' cache_dir = l...
-
谷歌研究:通过对抗性数据生成和多元评估应对GenAI的道德和安全风险
谷歌研究团队在人工智能领域持续推动着对生成式AI(GenAI)安全的研究,以应对其在虚假信息、偏见和安全性方面带来的挑战。作为谷歌研究的一部分,负责构建负责任的AI和数据系统的Responsible AI and Human-Centered Techno...
-
研究发现,ChatGPT 能理解和回应人类情感
自从 OpenAI 的聊天机器人 ChatGPT 走红以来,人们对人工智能(Artificial Intelligence,简称 AI)的兴趣达到了新的高度。虽然 AI 并不是一个新领域,但它确实是一个相对未被探索的行业,越来越多的公司正在投入资源进行研究...
-
LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub)进行模型权重合并(llama-7b模型与delta模型权重)、模型部
LLMs之Vicuna:在Linux服务器系统上实Vicuna-7B本地化部署(基于facebookresearch的GitHub 进行模型权重合并(llama-7b模型与delta模型权重 、模型部署且实现模型推理全流程步骤的图文教程(非常详细 ...
-
LLM幻觉问题全梳理!哈工大团队50页综述重磅发布
幻觉,老朋友了。 自打LLM进入我们的视野,幻觉问题就一直是一道坎,困扰着无数开发人员。 当然,有关大语言模型幻觉的问题已经有了无数研究。 最近,来自哈工大和华为的团队发表了一篇50页的大综述,对有关LLM幻觉问题的最新进展来了一个全面而深入的概述。 这...
-
IBM 推出 Watsonx.governance 以提升企业 AI 模型透明度和治理能力
IBM 今日宣布,旗下产品 Watsonx.governance 将于 12 月初正式面市,旨在帮助企业提升对人工智能模型的透明度,消除数据中的神秘面纱。 在大型语言模型(LLM)或基础模型的推动下,生成式人工智能为企业带来诸多用途,但同时也引发新的风险...
-
研究人员教会GPT-4V使用iPhone并在亚马逊应用程序上购物
在当今智能手机技术不断发展的世界中,对能够导航和与移动应用程序复杂界面进行交互的人工智能的需求不断增加。MM-Navigator通过使用GPT-4V代理来满足这一需求,该代理结合了图像处理和文本推理,使其能够在iPhone上执行购物任务。本文将着重介绍MM...
-
【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca
昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。 项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs 项目地址:https://...
-
GitLab推出对话式AI工具Duo Chat 提升开发效率
在软件开发中,开发人员在处理复杂代码或高效管理项目问题时经常面临挑战。在工作流中找到正确的信息和协助可能是一项难题。为了解决这个问题,GitLab推出了一款名为Duo Chat的新工具,旨在通过将对话式AI整合到现有工作流中简化开发体验。 过去,开发人员已...
-
企业对生成式AI的投资低得惊人 在云支出中占比不到1%
2023年,生成式AI备受关注,被认为是能够在多个领域实现变革的突破性技术,甚至被寄予改变人类生活的希望。然而,Menlo Ventures报告显示,尽管生成式AI在2023年取得突破,但这主要是一场炒作。 报告指出,生成式AI在企业云支出中所占比例“相对...
-
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
10月26日,在X上有三万订阅的Dwarkesh Podcast(矮人播客)主持人Dwarkesh Patel采访了谷歌DeepMind的创始人兼首席AGI科学家Shane Legg。 他们讨论了AGI出现的时间节点、可能的AGI新架构、作为下一个行业标...
-
使用 LangChain 和 Pinecone 矢量数据库构建自定义问答应用程序
构建自定义聊天机器人,以使用 LangChain、OpenAI 和 PineconeDB 从任何数据源开发问答应用程序 介绍 大型语言模型的出现是我们这个时代最令人兴奋的技术发展之一。它为人工智能领域开辟了无限可能,为各行业的现实问题提供了解决方案。这些...
-
GPTs翻版来了!Opengpts支持定制聊天机器人
Opengpts是一个开源项目,LangChain通过整合LangServe和LangSmith,构建了一个旨在提供与OpenAI GPTs类似体验的平台。用户可以通过选择不同的语言模型、自定义工具以及控制提示,实现对聊天机器人的更灵活控制。 功能方面,L...
-
微软以安全问题为由短暂限制员工访问 OpenAI 的 ChatGPT
微软已向 OpenAI 投资数十亿美元。但据 CNBC 报道,在周四的一段时间内,该软件公司的员工不被允许使用该初创公司最著名的产品 ChatGPT。 在内部网站上,微软发表声明称:「由于安全和数据问题,一些 AI 工具不再向员工开放使用。」CNBC 还...
-
摩根士丹利:随着 Edge AI 走向主流,苹果处于最有利的位置
在人工智能(AI)成为 2023 年的热门话题之际,投资公司摩根士丹利的一份新报告得出结论,尽管苹果对其 AI 技术的发展讳莫如深,但该公司已准备好在消费者开始广泛采用基于 AI 的工具时获得利润。摩根士丹利认为,苹果在 AI 领域的进展超出了公众的预期,...
-
开发者「第二大脑」来袭,GitHub Copilot更新,人类开发参与进一步减少
是什么让 Andrej Karpathy 感慨,人类在软件开发过程中直接编写代码的贡献将越来越小,直接输入和监督作用将更加抽象化。最终,人类的角色将仅仅是进行基本的审核和确认,而不再是主要的编程和开发者。 原来是 GitHub 新发布的 Copilot...
-
亚马逊用比 GPT-4 多两倍的参数训练 Olympus 人工智能模型
在大型语言模型(LLMs)领域,科技巨头之间的竞争愈发激烈,这些模型是像 OpenAI 的 ChatGPT 这样的工具的 AI 技术基础。 根据路透社内部消息人士的消息,亚马逊正计划推出自己的产品,投入巨资训练其自己的名为「Olympus(奥林匹斯)」的...
-
消息称亚马逊投资数百万美元培训巨大AI模型“Olympus”
亚马逊正投资数百万美元,致力于培训一个雄心勃勃的大型语言模型,该模型被代号为“Olympus”,希望能够与OpenAI和Alphabet的顶级模型竞争。据两位知情人士向路透社透露,这一消息令外界瞩目,但亚马逊拒绝置评。 图源备注:图片由AI生成,图片授权...
-
AIGC远不止是代码辅助
生成式人工智能(AIGC)对于软件开发人员的生产力有重要的潜力。但要成功利用它,需要将其视为不仅仅是代码生成工具而已。 生成式人工智能(AIGC)可以彻底改变软件开发。它具有驱动软件开发人员显著提高生产力的能力,可以加快创新周期和上市时间。然而,如果将其...
-
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微调+奖励模型训练+PPO 训练+DPO 训练】 的简介、...
-
知识图谱与大模型相结合的3种方法,1+1>2
本文分享自华为云社区《知识图谱与大模型结合方法概述》,作者: DevAI 。 《Unifying Large Language Models and Knowledge Graphs: A Roadmap》总结了大语言模型和知识图谱融合的三种路线:1)K...
-
理论+实践详解最热的LLM应用框架LangChain
3.3 Chat 聊天模型是语言模型的一个变体,聊天模型以语言模型为基础,其内部使用语言模型,不再以文本字符串为输入和输出,而是将聊天信息列表为输入和输出,他们提供更加结构化的 API。通过聊天模型可以传递一个或多个消息。LangChain 目前支持四类...
-
在 LangChain 尝试了 N 种可能后,我发现了分块的奥义!
分块(Chunking)是构建检索增强型生成(RAG)应用程序中最具挑战性的问题。分块是指切分文本的过程,虽然听起来非常简单,但要处理的细节问题不少。根据文本内容的类型,需要采用不同的分块策略。 在本教程中,我们将针对同一个文本采用不同的分块策略,探索不...
-
【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录
目录 前言 准备工作 Git Python3.9 Cmake 下载模型 合并模型 部署模型 前言 想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~...
-
想快速进入人工智能领域的Java程序员?你准备好了吗?
引言 今天我们来探讨一下作为Java程序员,如何迅速融入人工智能的领域。,当前有一些流行的LLMs选择,例如ChatGPT、科大讯飞的星火、通义千问和文心一言等。如果你还没有尝试过这些工具,那么现在也不失为一个很好的机会,赶快体验一下吧。这些工具不仅能够...
-
让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)
最近微软一项研究让Llama 2选择性失忆了,把哈利波特忘得一干二净。 现在问模型“哈利波特是谁?”,它的回答是这样婶儿的: 木有赫敏、罗恩,木有霍格沃茨…… 要知道此前Llama 2的记忆深度还是很给力的,比如给它一个看似非常普通的提示“那年秋天,哈...
-
DB-GPT:使用专有LLM技术改变与数据库互操作的方式
DB-GPT是一个开源项目,旨在改变与数据库的互操作方式,它采用了本地化的大型GPT模型,为处理各种数据库相关情境提供了全面的解决方案。这个工具强调了隐私和数据安全,通过业务模块的定制化实施和分割,确保了LLM功能的完全机密性、安全性和可管理性。 随着大...
-
研究称:向GPT-4等AI模型添加“情感提示词”会提高性能
最新研究发现,当用户表达紧急感或压力等情感时,AI模型如GPT-4可以表现得更好。这一发现对于在其AI应用中的开发者和企业家具有重要意义,提示了一种引入情感语境的新方法,以提高AI性能。 这项研究发现,添加情感因素的提示,被称为“情感提示”,可以提高AI在...
-
AI自动生成创意视频:如何让大模型助你一臂之力
作者 | 崔皓 审校 | 重楼 摘要 本文探讨了如何利用大语言模型和AI视频生成模型来创建高度个性化和创意丰富的视频内容。文章详细介绍了从构思到实现的全过程,包括问题分析、目标设定、工具和模型选择,以及实际操作步骤。使用的技术和工具包括OpenAI的G...
-
AI玩推理桌游一眼识破骗局!清华通院联合推出心智理论新框架,六个指标评估表现均明显优于思维链
清华自动化系团队联合北京通用人工智能研究院,让几个AI智能体玩起了桌游! 游戏名叫阿瓦隆,是一个策略性的社交推理游戏,玩家被隐秘地分为“正义”与“邪恶”两派,通过任务投票、互相猜测与欺骗来完成或阻止任务,最终确定胜负。 为了能让AI智能体成功识别并应...
-
图模型也要大?清华朱文武团队有这样一些观点
在大模型时代,图机器学习面临什么样的机遇和挑战?是否存在,并该如何发展图的大模型?针对这一问题,清华大学朱文武教授团队首次提出图大模型(Large Graph Model)概念,系统总结并梳理了图大模型相关的概念、挑战和应用;进一步围绕动态性和可解释性,...