-
Stable Diffusion原理说明
本文参考:深入浅出讲解Stable Diffusion原理,新手也能看明白 - 知乎 目录 1、Stable Diffusion能做什么? 2、扩散模型(Diffusion model) (1)前向扩散(Forward Diffusion)...
-
【大模型与AIGC】VLM基础知识汇总
这里写目录标题 LLM输入时的理解 1. Tokenizer的实现:Word极大似然估计 LLM推理:关于Attention mask的理解 1. CausalModel 与 AttentionMask 2. attention mask乘法...
-
Meta发布Llama 3.2,Llama 终于能看见了!
Llama家族再添新成员,多模态能力终于到来! Meta刚刚发布了Llama 3.2模型系列,包括多模态视觉模型和小型文本模型,共计10个开放权重模型。 这次更新不仅带来了期待已久的视觉能力,还为移动设备和边缘计算提供了更多选择。 多模态Llam...
-
【AIGC】AI时代的数据安全:使用ChatGPT时的自查要点
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?法律法规背景 中华人民共和国保守秘密法 中华人民共和国网络安全法 中华人民共和国个人信息保护法 遵守法律法规的重要性...
-
用 LoRA 微调 Stable Diffusion:拆开炼丹炉,动手实现你的第一次 AI 绘画
总得拆开炼丹炉看看是什么样的。这篇文章将带你从代码层面一步步实现 AI 文本生成图像(Text-to-Image)中的 LoRA 微调过程,你将: 了解 Trigger Words(触发词)到底是什么,以及它们如何影响生成结果。 掌握 LoRA 微调...
-
在矩池云使用 Llama-3.2-11B-Vision 详细指南
Llama 3.2-Vision是Meta开发的一系列多模态大型语言模型(LLMs),包含11B和90B两种规模的预训练和指令调整模型。 这些模型专门优化用于视觉识别、图像推理、字幕生成和回答有关图像的一般问题。Llama 3.2-Vision模型在常见...
-
乏善可陈的第二届OpenAI开发者大会,果然没有掀起太大波澜
OpenAI 的宫斗大戏刚落下帷幕,今日凌晨就在旧金山召开了第二届 DevDay 开发者大会。 不过,与去年盛大的活动相比,今年略显低调,他们没有推出重大产品,而是选择对其现有的 AI 工具和 API 进行增量改进。 在这次活动中,OpenAI 发布了四大...
-
奥特曼:自认比o1聪明请举手🤚到o2还这么想么🤨?|OpenAI开发者日
这一幕,刚刚在OpenAI开发者日最后一个环节——奥特曼炉边谈话中上演。 对话由奥特曼和OpenAI首席产品官Kevin Weil进行,奥特曼还对未来作出如下判断: 无限上下文长度将在十年内发生 o1正在推动智能体应用,人们将要求AI在一小时内完成以前人...
-
llama-factory实战: 基于qwen2.5-7b 手把手实战 自定义数据集清洗 微调
基于qwen2.5 手把手实战 自定义数据集 微调(llama-factory) 准备工作 1.数据集准备(例:民法典.txt) 2.服务器准备(阿里云 DSW 白嫖) 3.环境配置 pip 升级 模型下载 微调助手 4.数据集处理 脚...
-
从零预训练一个tiny-llama#Datawhale组队学习Task2
完整的教程请参考:datawhalechina/tiny-universe: 《大模型白盒子构建指南》:一个全手搓的Tiny-Universe (github.com 这是Task2的学习任务 目录 Qwen-blog Tokenizer(分词器...
-
OpenAI开发者大会推出四大创新:提示词缓存可减少50%输入token成本
10月2日消息,美东时间10月1日OpenAI举行了年度开发者大会DevDay,推出系列新工具,包括四大创新:实时API(Realtime API)、视觉微调(Vision Fine-Tuning)、提示词缓存(Prompt Caching)、模型蒸馏(M...
-
调用大模型API-文心一言
一、准备工作 进入百度智能云千帆大模型平台,点击应用接入-创建应用;按提默认完成创建 二、开始使用 单轮调用 进入API列表 - ModelBuilder以第一个ERNIE-4.0-8K为例,选择“HTTP请求调用”,把第一步创建应用的 应用A...
-
【AIGC】ChatGPT提示词解析:如何打造个人IP、CSDN爆款技术文案与高效教案设计
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?打造个人IP爆款文案 提示词 使用方法 ?CSDN爆款技术文案 提示词 使用方法 ?高效教案设计 提示词 使用方...
-
【丹摩智算实战】手把手教你Llama 3.1 8B部署:开启自然语言处理新篇章
前言 在自然语言处理(NLP)领域,大模型(LLM)的发展日新月异,为各种应用场景带来了前所未有的能力。近日,Meta公司宣布推出了其最新的开源模型——Llama 3.1,这一消息在行业内引起了广泛关注。本文将详细介绍Llama 3.1的背景、特点、部...
-
AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍
快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM ,名为AMD-135M”。 相比于越来越庞大的大语言模型(LLM ,它体积小巧,更加灵活,更有针对性,非常适合私密性、专业性很强的企业部署。 AMD-135小模型隶属于Llama家族,有两个版...
-
LLaMA- Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention
发表时间:14 Jun 2023 论文链接:https://arxiv.org/pdf/2303.16199 作者单位:Shanghai Artificial Intelligence Laboratory Motivation:最近,指令跟踪模型取...
-
LLM大模型之Rag检索增强生成演变成GraphRAG
RefAug:prompt增强训练LLM https://github.com/ytyz1307zzh/RefAug Learn Beyond The Answer: Training Language Models with Reflect...
-
1500+ HuggingFace API token暴露,使数百万 Meta-Llama、Bloom 等大模型用户面临风险
HugginingFace 和 GitHub 是AI开发人员的重要平台,因此我们决定对这些平台做更为深入的研究。在这项研究中,我们发现了数以千计的 API 令牌,这些令牌暴露给恶意行为者,使数百万最终用户可能受到攻击。 本文的主要内容包括:...
-
【Llama3.1-8B-Instruct】Llama Factory 等部署实战
一、模型介绍 Meta Llama 3.1 系列是一个多语言大型语言模型 (LLM 集合,包括 8B、70B 和 405B 三种尺寸(文本输入/文本输出)。Llama 3.1 的指令调优版本(8B、70B、405B)针对多语言对话用例进行了优化,并在常...
-
Meta Llama 3介绍及其关键技术
随着深度学习算法的突破和发展,语言模型已经成为连接人与机器的重要桥梁。在这一领域中,Meta的Llama 3 作为最新一代的大规模预训练模型,凭借其卓越的性能和广泛的应用前景,正逐渐成为行业内的佼佼者。 Llama 3 的研发团队继承了前代模型的技术优势...
-
AI日报:智谱开源图像生成模型CogView3;AI声音克隆差点骗走律师父亲3万美金;GGHead颠覆3D建模
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 1、文生图卷起来了!智谱开源图像生...
-
支小宝,生于人人需要“AI牛马”的时代
《钢铁侠》中的贾维斯,是大多数人对AI助手的初印象。只需一个简单指令,贾维斯就能迅速准确地做出相应动作,无数次拯救钢铁侠于危难之际。 回到现实,虽然不是每个人都能拥有钢铁侠的“钞能力”,打造一个专属于自己的贾维斯。但要拥有一个能够解决生活琐事、提高生活效率...
-
从头开始实现 LLaMA 模型,这包括设计模型架构、编写训练算法等,tl-rtc-file打破距离,局域网传输可达70MB,免费开源很火热的一些可以通过网页进行远程控制的开源项目,以及操作系统引导自动
从头开始实现 LLaMA 模型,这包括设计模型架构、编写训练算法等,tl-rtc-file打破距离,局域网传输可达70MB,免费开源很火热的一些可以通过网页进行远程控制的开源项目,以及操作系统引导自动。 这个开源项目名为 “llama3-from-s...
-
3天把Llama训成Mamba,性能不降,推理更快!
近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。\ 先来看一张其乐融融的图片(一眼AI): 右边的小羊驼代表Llama,而左边的蛇(...
-
LlaMa-Factory源码解析之预训练LLaMA-Factory/src/llamafactory/train/pt/workflow.py -> run_pt()
LLaMA-Factory/src/llmtuner/train/pt/workflow.py at main · hiyouga/LLaMA-Factory · GitHub 截止至2024年7月,该框架workflow.py目录从LLaMA-Fact...
-
【论文阅读笔记 + 思考 + 总结】MoMask: Generative Masked Modeling of 3D Human Motions
创新点: VQ-VAE ? Residual VQ-VAE,对每个 motion sequence 输出一组 base motion tokens 和 v 组 residual motion tokens bidirectional 的 Masked...
-
AI视频新战场:字节对决快手、反击Sora
字节跳动以性价比策略切入市场,掀起价格竞争,但高性能模型仍保持付费门槛。B端市场对豆包视频大模型的接纳度有待观察,其商业变现与用户场景适配性成为主要考验。 一场由Sora引发的AI视频生成竞赛,如今迎来新的竞争者! 9月24日,2024火山引擎AI创新巡展...
-
【人工智能AIGC技术开发】第1课-RAG+Agent人工智能
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验 1.RAGflow简介 最近更新: 2024-09-13 增加知识库问答搜索模式。 2024-09-09 在 Agent 中加入...
-
【AIGC】ChatGPT提示词助力自媒体内容创作升级
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?高效仿写专家级文章 提示词 使用方法 ?CSDN博主账号分析 提示词 使用方法 ?自媒体爆款文案优化助手 提示词...
-
利用 FP8 量化加速 Llama-3-70B 推理
本文针对在 Amazon P5 (H100 GPU 上部署 Llama-3-70b FP8 精度模型的两种方案选型(Trion 及 LMI – Large Model Inference 容器)进行了探索,同时提供了基于 FMBench 的性能评估的最佳...
-
【AIGC】BLACKBOX.AI:解锁编程学习新纪元,加速开发的AI得力助手
博客主页: [小ᶻZ࿆] 本文专栏: 人工智能 | AIGC 文章目录 ?BLACKBOX.AI 官网 1 BLACKBOX.AI 工具使用教程 2 BLACKBOX.AI工具使用界面介绍 3 Chat(聊天...
-
Midjourney Describe API 的对接和使用
Midjourney Describe API 的对接和使用 Midjourney Describe API 的主要功能是通过上传图片,获取对图片的描述。使用该 API,只需要传递图片文件地址,API 会返回图片的详细描述。无需繁琐的参数设置,即可获得...
-
丹摩智算平台部署 Llama 3.1:实践与体验
文章目录 前言 部署前的准备 创建实例 部署与配置 Llama 3.1 使用心得 总结 前言 在最近的开发工作中,我有机会体验了丹摩智算平台,部署并使用了 Llama 3.1 模型。在人工智能和大模型领域,Meta 推出的 Lla...
-
使用 Whisper 项目的教程
使用 Whisper 项目的教程 use-whisperReact hook for OpenAI Whisper with speech recorder, real-time transcription, and silence removal b...
-
[从0开始AIGC][LLM]:LLM中Encoder-Only or Decoder-Only?为什么主流LLM是Decoder-Only?
LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Decoder-Only? 文章目录 LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Dec...
-
DataWhale Task02:从零预训练一个tiny-llama 20923
DataWhale Task02:从零预训练一个tiny-llama 20923 原文link:https://github.com/KMnO4-zx/tiny-llm 开源内容:https://github.com/datawhalechina/t...
-
360AI搜索上线慢思考模式:成为全球首个慢思考搜索引擎 大幅提升回答质量
快科技9月27日消息,近日,360AI搜索上线慢思考模式”,成为国内首个具备慢思考能力的AI产品、全球首个具备慢思考能力的搜索引擎。 据悉,慢思考模式基于CoE 技术架构,在该模式下360AI搜索能够大幅提升回答质量,完成多数AI ChatBot无法完成的...
-
探索Llama 3.1:开源模型的本地部署与创新应用实践
文章目录 1 Llama 3.1模型的突破性进展 2 Llama 3.1模型在业务场景中的实践案例 3 使用教程 4 Llama 3.1在客户服务中的运用 1 Llama 3.1模型的突破性进展 在数字化转型的浪潮中,大型语言模型...
-
【AIGC】ChatGPT提示词解析:如何生成爆款标题、节日热点文案与完美文字排版
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?情绪化的吸睛爆款标题 提示词 使用方法 ?紧跟节日热点选题文案 提示词 使用方法 ?高效文字排版技巧 提示词 使...
-
【一文读懂】Whisper 语音识别
Whisper 语音识别 Whisper 是由 OpenAI 开发的一款先进的语音识别模型,它能够将语音转换为文本。Whisper 是一个端到端的深度学习模型,具有多语言和多任务的能力,可以用于多种语音处理任务,包括语音转文本(transcription...
-
【AIGC】ChatGPT提示词助力广告文案、PPT制作与书籍推荐的高效新模式
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?高效广告推销文案 提示词 使用方法 ?AI自动生成PPT全流程 提示词 使用方法 ?精选书籍推荐爆款文案 提示词...
-
AIGC时代算法工程师的面试秘籍(第二十二式2024.9.2-9.15) |【三年面试五年模拟】
写在前面 【三年面试五年模拟】旨在整理&挖掘AI算法工程师在实习/校招/社招时所需的干货知识点与面试经验,力求让读者在获得心仪offer的同时,增强技术基本面。也欢迎大家提出宝贵的优化建议,一起交流学习? 欢迎大家关注Rock...
-
用TensorRT-LLM进行LLama的推理和部署
Deploy an AI Coding Assistant with NVIDIA TensorRT-LLM and NVIDIA Triton | NVIDIA Technical BlogQuick Start Guide — tensorrt_llm...
-
LLaMA-Factory源码分析
搭建远程容器调试环境 docker-compose部署 使用LLaMA-Factory源码中的docker/docker-cuda下的Dockerfile和docker-compose.yml构建镜像,启动其服务。Dockerfile使用官方默认,只需...
-
又热闹了,OpenAI的加强版“Her”正式开放,压过了Gemini的“生产级”大升级
今天真是AI圈久违了的热闹一天啊! 昨天刚被奥特曼发的那篇AI小作文搞得一头雾水,现在他这波操作的意图就呼之欲出了。 奥特曼想临门狙击的正是宿敌Google,更确切地说,是Google今天刚刚更新的两款升级版Gemini模型:Gemini-1.5-Pro-...
-
从互联网泡沫到AIGC:历史的教训与未来的机会
引言 在科技发展的长河中,泡沫现象是一个无法避免的阶段。1995年至2001年的互联网泡沫,是科技史上最具代表性的事件之一。而今天,随着生成式AI(AIGC)的迅猛崛起,许多人开始担忧其是否会重蹈互联网泡沫的覆辙。本文将通过回顾互联网泡沫的历史,分析A...
-
llama网络结构及源码
目录 模型初始化 config lm_head transformer wte h rms_1/rms_2 attn c_attn c_proj 线性层mlp ln_f rope_cache mask_cache kv_cac...
-
万字长文|LLM大模型基础入门(非常详细)从入门到精通系列之:(三)Transformer 架构
...
-
编译运行 llama.cpp (vulkan, Intel GPU SYCL)
llama.cpp 是一个运行 AI (神经网络 语言大模型的推理程序, 支持多种 后端 (backend , 也就是不同的具体的运行方式, 比如 CPU 运行, GPU 运行等. 但是编译运行 llama.cpp 并不是那么容易的, 特别是对于 SY...
-
【AIGC】ChatGPT提示词助力高效文献处理、公文撰写、会议纪要与视频总结
博客主页: [小ᶻZ࿆] 本文专栏: AIGC | ChatGPT 文章目录 ?前言 ?高效英文文献阅读 提示词 使用方法 ?高效公文写作 提示词 使用方法 ?高效会议纪要 提示词 使用方法 ?高效...