-
安装单机版大语言模型AI,基于LLaMA的斯坦福大学开源Alpaca
安装单机版大语言模型AI,基于LLaMA的斯坦福大学开源Alpaca...
-
大语言模型训练数据常见的4种处理方法
本文分享自华为云社区《浅谈如何处理大语言模型训练数据之一常见的数据处理方法》,作者: 码上开花_Lancer。 大语言模型训练需要数万亿的各类型数据。如何构造海量“高质量”数据对于大语言模型的训练具...
-
构建企业级大语言模型应用的秘诀:GitHub Copilot 的实践之路
GitHub Copilot 的开发团队分享了他们在构建能够同时为个人和企业用户带来价值的大语言模型(LLM)应用的心得体会。 本文经授权转载宝玉老师的个人博客(微博@宝玉xp),链接:...
-
大语言模型之四-LlaMA-2从模型到应用
最近开源大语言模型LlaMA-2火出圈,从huggingface的Open LLM Leaderboard开源大语言模型排行榜可以看到LlaMA-2还是非常有潜力的开源商用大语言模型之一,相比Inst...
-
大语言模型微调数据竞赛,天翼云斩获冠军!
池FT-Data Ranker竞赛落下帷幕,天翼云智能边缘事业部AI团队(后称天翼云AI团队)凭借在大语言模型(LLM)训练数据增强方面的卓越研究,荣获大语言模型微调数据竞赛——7B模型赛道冠军。...
-
【LLM】大语言模型学习之LLAMA 2:Open Foundation and Fine-Tuned Chat Model
大语言模型学习之LLAMA 2:Open Foundation and Fine-Tuned Chat Model 快速了解 预训练 预训练模型评估 微调...
-
本地推理,单机运行,MacM1芯片系统基于大语言模型C++版本LLaMA部署“本地版”的ChatGPT
T风光无两,眼看它起朱楼,眼看它宴宾客,FaceBook终于坐不住了,发布了同样基于LLM的人工智能大语言模型LLaMA,号称包含70亿、130亿、330亿和650亿这4种参数规模的模型,参数是指神经...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景...
-
集体暴雷!自动化攻击可一分钟内越狱主流大语言模型
大语言模型应用面临的两大安全威胁是训练数据泄漏和模型滥用(被应用于网络犯罪、信息操弄、制作危险品等违法活动)。 本周内,这两大安全威胁相继“暴雷”。 本周一,GoUpSec曾报道研究人员成功利用新...
-
微软高管透露将推出更多超越OpenAI的大语言模型
微软的高级执行官Eric Boyd在一次采访中透露,公司计划在未来推出更多超越OpenAI的大语言模型(LLMs),以迎合企业客户对多样选择的需求。Boyd强调,微软的生成式AI应用及其所使用的LLM...