-
Stable Diffusion零基础入门安装教程(附安装包),AI绘画最强工具
前言介绍 目前市面上比较权威,并能用于工作中的AI绘画软件其实就两款。一个叫Midjourney(下文简称MJ),另一个叫stable-diffusion(下文简称SD)。 MJ目前不免费,想要使用必须充值,一个月10美元。普通人想玩玩AI绘画,并不...
-
AIGC 实战(环境篇) - EXSI 8.0 Debian安装RTX3060显卡驱动
文章目录 RTX 3060 显卡驱动安装 主要过程 解决方案 RTX 3060 CUDA、CUDNN 安装 CUDA 安装 CUDNN 安装 参考文章 近期,尝试在家里服务中搭建一个用来跑 AI 的服务器,尝试使用 EXSI8....
-
Llama-factory的yaml配置参数--学习记录
最近llama-factory的配置参数有很多不懂的地方,整理了一些但也有可能有错,仅供大家参考。 # 可选参数 # 模型和适配器相关 --adapter_name_or_path # 描述: 适配器的名称或路径。 --adapter_folder...
-
推荐5款好用的AIGC软件,AIGC电脑带不动怎么办?
在当今这个数字化迅速发展的时代,人工智能生成内容(Artificial Intelligence Generated Content, AIGC)软件已经成为内容创作领域的一股不可忽视的力量。这类软件能够通过先进的算法和机器学习模型,自动生成文本、图像、音...
-
探索高效能的CPU版语言模型 —— 深入解读LLaMa CPU Fork
探索高效能的CPU版语言模型 —— 深入解读LLaMa CPU Fork llama-cpu项目地址:https://gitcode.com/gh_mirrors/ll/llama-cpu 在人工智能的广阔领域中,语言模型的进步一直是推动技术前沿的...
-
OpenVINO版Stable Diffusion教程
OpenVINO版Stable Diffusion教程 stable_diffusion.openvino项目地址:https://gitcode.com/gh_mirrors/st/stable_diffusion.openvino 项目介绍...
-
我觉得我用于Stable Diffusion进行AI绘画的电脑选对了
选电脑用于Stable Diffusion这件事折磨了我好久,目前知乎推荐电脑都是从游戏和办公的角度去推荐的。虽然现在的SD有很多注册教程,但是注册教程里只是简单的说了硬件要求,没有一篇文章和视频教一个电脑小白怎么选个用于SD进行绘画的电脑。本文从需求背景...
-
了解BitWhisper窃密技术:跨越气隙的隐秘数据窃取手段
在网络安全领域,气隙(Air-Gap)被视为保护敏感数据的终极防线。通过将计算机或网络物理隔离,使其无法连接到其他网络(尤其是互联网),气隙被广泛应用于保护极为敏感的信息,如军事指挥系统、金融系统、以及工业控制系统。然而,近年来出现了一种名为BitWhis...
-
AI绘画:从零开始教你玩转ComfyUI-保姆级部署教程-手把手带你ComfyUI工作流搭建!
前言 第一节:认识ComfyUI并安装 本教程专为初学者设计,详细介绍了 2024 年最新版的SD ComfyUI的使用方法。通过逐步指导,让你无需任何基础,快速学会并使用这一强大的AI绘图工具。 1、什么是comfyui ComfyUI就像...
-
AIGC入门(二)从零开始搭建Diffusion!(下)
上篇。https://blog.csdn.net/alxws/article/details/140058117?spm=1001.2014.3001.5502四、前向加噪过程(ForwardProcess.py) 当我们的去噪器设计完成后,接下来,就...
-
专为Windows 11 AI PC打造!高通推出全新骁龙X Plus 8核平台
快科技9月4日消息,高通公司总裁兼CEO安蒙在柏林国际电子消费品展览会(IFA)前夕,宣布扩展骁龙X系列产品组合,助力OEM推出700-900美元价格段的Windows 11 AIPC产品。 官方介绍,骁龙X Plus 8核平台凭借定制的高通Oryon C...
-
使用PyTorch从零构建Llama 3
我们上次发了用PyTorch从零开始编写DeepSeek-V2的文章后,有小伙伴留言说希望介绍一下Llama 3。那么今天他就来了,本文将详细指导如何从零开始构建完整的Llama 3模型架构,并在自定义数据集上执行训练和推理。 [图1]:Llama...
-
如何在家用设备上运行 Llama 3.1 405B?搭建 AI 集群
在开放式 LLM 模型和封闭式 LLM 模型之间的竞争中,开放式模型的最大优势是您可以在本地运行它们。除了电力和硬件成本外,您无需依赖外部提供商或支付任何额外费用。但是,随着模型大小的增加,这种优势开始减弱。运行需要大量内存的大型模型并不容易。幸运的是,张...
-
刚刚,英特尔发布最强CPU,AI PC迎来最高效x86芯片
最高效的x86芯片,应当是一种怎样的“打开方式”? 就在刚刚,英特尔给出了一份答案—— 英特尔®酷睿™Ultra200V系列处理器。 话不多说,直接上亮点: 最快的CPU:E核比上一代快68%,P核则快了14% 最快的内置(built-in)GPU:首次...
-
LLM之基于llama-index部署本地embedding与GLM-4模型并初步搭建RAG(其他大模型也可,附上ollma方式运行)
前言 日常没空,留着以后写 llama-index简介 官网:https://docs.llamaindex.ai/en/stable/ 简介也没空,以后再写 注:先说明,随着官方的变动,代码也可能变动,大家运行不起来,可以进官网查查资料...
-
NVIDIA GeForce RTX标志升级了!加入AI的力量
快科技9月3日消息,NVIDIA低调升级了其GeForce RTX”的标志,增加了一行小字Powering Advanced AI”,也就是打造先进AI”的意思。 未来的RTX显卡,无论是零售包装盒,还是预装台式机、笔记本,都是打上这个标志。 GeForc...
-
【技术前沿】Flux.1部署教程入门--Stable Diffusion团队最前沿、免费的开源AI图像生成器
项目简介 FLUX.1 是一种新的开源图像生成模型。它由 Stable Diffusion 背后的团队 Black Forest Labs 开发。 官网中有以下功能开源供大家参考: FLUX.1 擅长在图像中准确再现文字,因此非常适合需要清晰文字或...
-
大模型应用新战场:揭秘终端侧AI竞争关键
2024年过去2/3,大模型领域的一个共识开始愈加清晰: AI技术的真正价值在于其普惠性。没有应用,基础模型将无法发挥其价值。 于是乎,回顾这大半年,从互联网大厂到手机厂商,各路人马都在探索AI时代Killer APP的道路上狂奔。这股风潮,也开始在顶级学...
-
llama.cppllama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、
llama.cpp llama.cpp - Qwen llama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、AVX2和AVX5...
-
WhisperX
文章目录 一、关于 WhisperX 新闻 ? 二、设置⚙️ 1、创建Python3.10环境 2、安装PyTorch,例如Linux和Windows CUDA11.8: 3、安装此repo 4、Speaker Diarization 三、...
-
橙芯创想:香橙派AIPRO解锁升腾LLM与Stable Diffusion的创意密码
文章目录 引言 一. 香橙派AI PRO配置以及展示 优秀的扩展能力 实物展示 二、Ascend-LLM模型部署 开机 xshell连接香橙派 实战运行部署 运行结果分析 开发版表现 三、Stable Diffusion 文生图 性能...
-
零成本部署秘籍:Llama 3本地使用全攻略,轻松实现高效模型运行!
Meta公司的Llama 3大模型引领AI新篇章 各位朋友,我是袋鼠帝。 近日,真正的“OpenAI”——Meta公司,对“Close AI”进行了有力回应,推出了其开源大模型系列的最新力作——Llama 3。自Llama 1起,这个系列便以其卓越性能在...
-
从零开始快速使用comfyUI进行文生图或者图生视频制作
前言 今天花时间试了试怎么用 ComfyUI,今天晚上就来介绍一下,怎么简单使用。 上面是用 comfyUI 生成的视频。 安装 首先进行安装。 在 github 上搜索 comfyUI,第一个就是,点进去然后点击左侧 Release...
-
【开发心得】Dify部署ollama模型的坑[1]
本文接续上次的文章【开发心得】三步本地化部署llama3大模型_dify llama3-CSDN博客 经过几次调试,目前部署终于稳定下来,由于算力问题产生的300 time out也逐渐减少了。因此,把后续在测试过程中碰到的一些坑和怎么爬出来,做一个记录...
-
【AutoencoderKL】基于stable-diffusion-v1.4的vae对图像重构
模型地址:https://huggingface.co/CompVis/stable-diffusion-v1-4/tree/main/vae 主要参考:Using-Stable-Diffusion-VAE-to-encode-satellite-imag...
-
探索Llama 3.1 : 405B参数模型:部署、硬件配置、测试与训练的心得
引言 随着人工智能技术的快速发展,大规模语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了显著的突破。MetaAI最新发布的Llama 3.1 : 405B参数模型,凭借其庞大的参数规模和先进的架构,展...
-
Stable Diffusion 开源项目教程
Stable Diffusion 开源项目教程 stablediffusionHigh-Resolution Image Synthesis with Latent Diffusion Models项目地址:https://gitcode.com/gh...
-
异常检测算法在可观测性平台的落地和实践|得物技术
一、背景 在稳定性保证中,重要的一个环节就是故障管理体系建设,故障管理体系的四大核心功能------故障发现、故障触达、故障定位和故障恢复,其中故障发现作为故障管理的第一步至关重要,包含了指标预测、异常检测和故障预测等方面,主要目标是能及时、准确地发现故...
-
GPU云服务器------2秒文生图
GPU云服务器------2秒文生图 GPU云服务器 AIGC来也 开通GPU服务 配置安全组规则 远程连接GPU云服务器 配置nginx用户 文生图 开启AiaccTorch 禁用AiaccTorch 切换模型 使用LoRA插件 使用Con...
-
英伟达Blackwell称霸MLPerf!推理性能暴涨30倍,新一代「AI怪兽」诞生
【新智元导读】MLPerf Inference发布了最新测试结果,英伟达最新的Blackwell架构芯片上场与谷歌、AMD同场竞技,展现出明显的性能提升,甚至刷新了部分任务上的测试纪录。 大语言模型(LLM)推理是一个全栈挑战。 为了实现高吞吐量、低延迟的...
-
让我们认真讨论一下“AI霸权”时代人类的命运
相信本怪盗团的读者大部分接受过高等教育,其中不乏名校毕业生。我们不妨回忆一下,自己的学生时代,最盼望从事什么职业?毕业后实际从事的又是什么职业?答案一定很多,但是万变不离其宗,其中大部分应该属于所谓“专业白领岗位”。 十多年前我读书的时候,互联网行业尚不流...
-
Stable diffusion ComfyUI: 手把手教AutoDL 云主机部署 (上)
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言 一、注册账号 二、部署云主机 三、主机配置 四、文件传输 总结 前言 有些小伙伴总问我使用ComfyUI的最低配置是什么?我只能说推荐3...
-
ubuntu系统编译whisper.cpp/talk-llama
1. 项目克隆到本地 git clone https://github.com/ggerganov/whisper.cpp 2. 编译 CPU 版本: sudo apt-get install libsdl2-dev cd whisper.cpp...
-
whisper安装
安装Whisper 首先需要下载ffmpeg并添加环境变量。打开网站:https://github.com/BtbN/FFmpeg-Builds/releases,选择压缩包并下载到本地。 解压后,找到bin文件夹下的“ffmpeg.exe”,将它复...
-
液冷技术:迎接AIGC时代数据中心的散热挑战
随着人工智能生成内容(AIGC)的跨越式发展,算力需求呈爆炸式增长,带动了数据中心的功耗和热管理需求的飞速上升。AI模型训练和推理过程中的高计算资源需求,导致服务器发热量大幅增加,对散热技术提出了更高的要求。根据Colocation America发布的数...
-
在Stable Diffusion中驱动Tesla P40
一、安装P40显卡 在前面我的“在win10电脑上搭建python环境下的本地AI绘画工具Stable Diffusion”博文中,Stable Diffusion的运行完全依赖CPU和内存,因此每生成一次图...
-
ChatGLM-6B入门
ChatGLM-6B ChatGLM-6B 一、介绍 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡...
-
笔记本电脑本地部署ollama大模型(显存不足调用CUDA Unified Memory方法)
软硬件:win11,NVIDIA GeForce RTX 3050 显存4g 一.ollama模型最低要求 1. Llama 3.1 (8B 模型 GPU: 至少需要 1 张具有 16 GB 显存的 GPU(例如 NVIDIA Tesla V1...
-
ComfyUI系列——新手安装ComfyUI,就是这么简单!
前言 比较Midjoury、WebUI和ComfyUI 在了解ComfyUI的时候,还有其它两款类似的产品,于是就搜集了一下资料,以下是Midjoury、WebUI(通常指的是Stable Diffusion Web UI)和ComfyUI三者之间...
-
【LLM】一、利用ollama本地部署大模型
目录 前言 一、Ollama 简介 1、什么是Ollama 2、特点: 二、Windows部署 1.下载 2.安装 3.测试安装 4.模型部署: 5.注意 三、 Docker部署 1.do...
-
智能语音生成会议纪要的神器
嘿,技术爱好者们,今天我想分享一个令人兴奋的智能语音项目。它巧妙地结合了faster-whisper、Pyannote以及一系列先进的大语言模型,旨在为会议纪要的自动化生成带来新的可能。 开发了一个智能语音生成会议纪要的神器 在线体验:智能语音...
-
【AI绘画】分享个人 AI 绘画心得:Stable diffusion 入门引导教程
大家好,我是设计师子衿。 最近网络上已经有许多朋友都开始自己动手AI绘画,但是又不知道如何入手。在这里我稍微给大家引导入门。 一、AI绘图电脑配置 搞AI绘图,首先是要看自己的电脑配置,如果是配置太低的电脑就不建议玩AI绘图了。 Stable Di...
-
Llama-2-Open-Source-LLM-CPU-Inference 使用教程
Llama-2-Open-Source-LLM-CPU-Inference 使用教程 Llama-2-Open-Source-LLM-CPU-InferenceRunning Llama 2 and other Open-Source LLMs on...
-
1张Nvidia A100 80G部署Lamma3 70b 4bit的性能测试
这里写自定义目录标题 硬件 部署模型 硬件性能监控工具 GPU监控工具 CPU和系统内存监控工具 部署框架 命令 测试脚本与结果 输出定量token测试 prompt 脚本 Test Result 输入定量token测试 prom...
-
Datawhale AI夏令营第四期魔搭- AIGC方向 task02笔记
大纲 一、前言 二、代码块解读 2.1 依赖包安装 2.2 数据集下载 2.3 metadata.jsonl文件生成(图片及对应标签) 2.4 设置data-juicer 配置文件并执行,处理metadata.jsonl文件生成result....
-
comfyui入门|超详细安装教程(汉化+管理器)
前言 今天我给大家分享的是怎么安装comfyUI。 网上安装comfyui的教程有很多,但是说的有点偏复杂了,特别是安装节点的时候,其实没那么难,这篇文章我就给大家分享下如何快速安装comfyui及各个节点的安装卸载。 其实刚开始我也摸索了很久,遇...
-
运行Llama 2于本地CPU上的开源LLM推理指南
运行Llama 2于本地CPU上的开源LLM推理指南 Llama-2-Open-Source-LLM-CPU-InferenceRunning Llama 2 and other Open-Source LLMs on CPU Inference Lo...
-
印度首款AI芯片来了!公司创始人被称为印度“马斯克”
快科技8月18日消息,据媒体报道,印度汽车制造商Ola近日宣布,将于2026年推出国内首款自研AI芯片,采用ARM架构。 Ola公司的创始人Bhavish Aggarwal,被誉为印度的马斯克”,他以其直言不讳的个性和对本地制造业的积极支持,与埃隆马斯克有...
-
锅炉引风机控制系统总体设计
锅炉引风机控制系统总体设计 系统功能分析 本系统锅炉自动控制系统,主要由进口变频器、可编程控制器、压力变送器、温度变送器和泵房机组以及电气控制柜等组成。根据设计要求,系统具有以下功能: (1 手动/自动控制 电动机起停控制要求具有自动和手动两种功能...
-
llama-factory源码详解——以DPO为例
本文记录了我在学习 llama-factory过程中对代码运行过程的梳理 代码入口——src/train.py from llamafactory.train.tuner import run_exp def main( : run_exp...