华为云Flexus+DeepSeek征文 | 基于华为云ModelArts Studio平台搭建AI Markdown编辑器
华为云Flexus+DeepSeek征文 | 基于华为云ModelArts Studio平台搭建AI Markdown编辑器
- 前言
- 一、ModelArts Studio介绍
- 1. 华为云ModelArts Studio简介
- 2. 华为云ModelArts Studio主要特点
- 3. 华为云ModelArts Studio主要使用场景
- 二、项目与介绍
- 1. 项目简介
- 2. 主要特点
- 三、部署WeChat Markdown Editor项目
- 1. 创建容器工作
- 2. 查看容器状态
- 3. 本地访问服务
- 四、访问WeChat Markdown Editor服务
- 五、ModelArts Studio平台开通DeepSeek商用服务
- 1. 进入ModelArts Studio控制台
- 2. 在线推理各服务介绍
- 3. 开通DeepSeek商用服务
- 4. 保存API信息
- 六、WeChat Markdown Editor的配置与使用
- 1. AI配置流程
- 2. 对话测试
- 3. 写作生产力
- 七、总结
前言
在人工智能与内容创作深度融合的当下,高效的工具成为创作者的“数字利器”。华为云ModelArts Studio以强大的AI开发能力与便捷的部署环境,为开发者搭建智能应用提供了理想平台。本文将分享如何基于华为云ModelArts Studio平台,结合DeepSeek技术,搭建一款功能强大的AI Markdown编辑器,解锁内容创作新体验。
一、ModelArts Studio介绍
1. 华为云ModelArts Studio简介
华为云ModelArts Studio
是基于ModelArts的一站式大模型即服务平台(MaaS),提供从模型开发、训练到部署的全流程能力,支持主流开源大模型的快速适配与优化,助力企业高效构建AI应用。
- 华为云ModelArts Studio平台官网:https://www.huaweicloud.com/product/modelarts/studio.html
2. 华为云ModelArts Studio主要特点
模型全面
:集成Llama、Baichuan、Yi、Qwen、DeepSeek等主流开源大模型,并基于昇腾AI云服务进行性能与精度优化。免配置、免调优
:提供一键式训练、自动超参调优功能,降低模型开发门槛,显著缩短开发周期。性能优异
:通过昇腾算子优化与显存管理,实现大模型训练与推理性能大幅提升。资源灵活易获取
:支持按需开通、弹性扩缩容,保障高性价比的算力使用,同时支持断点续训与故障恢复。一站式工具链
:涵盖模型调优、压缩、评测、部署等全生命周期工具,开箱即用,低门槛上手。多组件集成能力强
:支持LangChain、RAG、Agent、Guard等多种AI组件即插即用,快速构建复杂AI应用系统。
3. 华为云ModelArts Studio主要使用场景
- 智能问答系统:基于预训练大模型快速构建知识库驱动的问答系统,提升信息检索效率。
- 企业级AI助手开发:利用平台提供的Prompt模板和智能Agent能力,打造能理解任务并自主决策的企业AI助手。
- 个性化内容生成:适用于新闻撰写、营销文案、客服回复等内容创作类任务,提升内容生产效率。
- 多模态AI应用构建:结合图像、语音、文本等多模态数据,开发智能客服、虚拟主播等综合型AI产品。
二、项目与介绍
1. 项目简介
WeChat Markdown Editor 是一款专为微信内容创作者打造的高度简洁、功能强大的 Markdown 编辑器。它不仅支持标准的 Markdown 语法,还集成了多种实用功能与 AI 智能辅助能力,帮助用户高效撰写和美化公众号文章、图文消息等内容,提升写作效率与排版体验。
2. 主要特点
- ✅ 全面的 Markdown 支持:涵盖所有基础语法、数学公式(LaTeX)、Mermaid 图表渲染及 GFM 警告块等高级特性。
- 🎨 代码高亮与主题定制:提供丰富的代码块高亮主题,支持自定义主题色和 CSS 样式,轻松实现个性化展示效果。
- 🖼️ 多图床与图片管理:支持多图上传功能,并可灵活配置图床服务,满足多样化图片存储需求。
- 📁 高效文件管理:提供便捷的内容导入与导出功能,支持本地内容管理与草稿自动保存,保障数据安全与连续性。
- 💡 AI 智能助手集成:内置对主流大模型平台的支持,如 DeepSeek、OpenAI、通义千问、腾讯混元、火山方舟等,助力内容创作智能化升级。
三、部署WeChat Markdown Editor项目
1. 创建容器工作
请下载镜像名称为doocs/md,版本标签为 latest 的最新版本。
docker pull doocs/md:latest
本次实践所使用的操作系统为 openEuler 24.03 (LTS),需提前完成 Docker 环境的部署。可以通过 Docker 命令行方式进行部署,也可选择使用 Docker Compose 进行部署,推荐采用 Docker Compose 方式以提升部署效率和管理便捷性。
- Docker命令行方式:使用以下命令快速创建容器。
docker run -d --name docsmd --restart always -p 8080:80 doocs/md:latest
- Docker compose方式:创建以下部署文件docker-compose.yaml,内容如下所示。
vim docker-compose.yaml
version: '3.9'
services:md:image: 'doocs/md:latest'ports:- '8080:80'restart: alwayscontainer_name: docsmd
开始创建MD容器,推荐使用以下 Docker Compose 命令快速启动并后台运行容器:
docker compose up -d
2. 查看容器状态
检查我们刚才创建的MD容器状态,可以看到该容器已经正常运行了。
[root@node01-server docsmd]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b5e7d6acb8fa doocs/md:latest "md" 4 minutes ago Up 4 minutes 0.0.0.0:8080->80/tcp, :::8080->80/tcp docsmd
3. 本地访问服务
在完成部署后,可通过本机访问 WeChat Markdown Editor 服务,以确认服务是否正常运行。在部署服务器上,可使用 curl
命令测试访问服务接口,确保能够成功获取响应,从而验证服务的可用性。
curl 127.0.0.1:8080
四、访问WeChat Markdown Editor服务
在本地浏览器中输入 http://【本地IP地址】:8080
,即可访问 WeChat Markdown Editor 的服务界面。首次进入后,可以直观感受到该工具简洁友好的操作界面与流畅的使用体验。
五、ModelArts Studio平台开通DeepSeek商用服务
1. 进入ModelArts Studio控制台
访问华为云官网并点击“ModelArts Studio控制台”后,即可直接进入ModelArts Studio控制台,开启我们的AI开发与管理之旅。
- 官网地址:https://www.huaweicloud.com/product/modelarts/studio.html)
2. 在线推理各服务介绍
🚀 在线推理服务说明
在线推理是指模型通过API接口对外提供服务,支持实时调用和体验,并可通过控制台监控面板查看运行状态和服务性能。
🔍 服务类型概览
类型 | 描述 | 计费方式 | 特点说明 |
---|---|---|---|
预置服务 | 平台已部署完成的服务,可立即使用,无需等待模型加载 | 按Token计费 | 快速测试、无等待时间 |
我的服务 | 用户自定义部署的服务,支持调优、压缩或自研模型 | 按算力计费 | 自主控制、灵活适配业务需求 |
免费服务 | 提供基础模型体验功能,适用于学习和初步测试 | 免费 | 存在速率限制,平台不定期调整 |
商用服务 | 面向企业级应用,提供稳定、高性能的API服务 | 按Token计费 | 支持高并发、适合生产环境部署使用 |
💰 计费规则说明
- 免费服务额度:每个模型提供 200万token推理额度,额度耗尽后可:
- 开通商用级别的推理API服务(仅限区域:贵阳一)
- 或将模型部署为“我的服务”后按需付费使用
✅ 提示:模型服务的优惠折扣信息请前往【费用中心】查看。
💬 推理服务计费详情(单位:元 / 千 tokens)
模型名称 | 状态 | 输入价格(¥) | 输出价格(¥) | 备注 |
---|---|---|---|---|
Qwen3-235B-A22B-32K | 未开通 | 0.002 | 0.008 | 商用服务模型 |
DeepSeek-V3-32K | 已开通 | 0.002 | 0.008 | 商用服务模型 |
DeepSeek-R1-32K | 已开通 | 0.004 | 0.016 | 商用服务模型 |
Qwen3-32B-32K | 已开通 | 0.002 | 0.008 | 商用服务模型 |
DeepSeek-R1-32K-0528 | 已开通 | 0.004 | 0.016 | 商用服务模型 |
3. 开通DeepSeek商用服务
在ModelArts Studio控制台首页左侧菜单栏中,选择 模型推理 > 在线推理,然后依次选中所需的商用服务模型 —— DeepSeek-R1-0528、DeepSeek-V3-32K 或 DeepSeek-R1-32K,点击“开通服务”即可完成配置。
4. 保存API信息
我们以DeepSeek-V3-32K商用服务为例,点击【调用说明】,查看其OpenAI SDK信息。
将OpenAI SDK信息的接口信息保存在本地,如下所示:
在 API Key 管理页面中,点击【创建 API Key】按钮,生成所需的 API 密钥。创建完成后,将生成的 API Key 与 OpenAI SDK 的接口信息一并保存,以便后续调用和配置使用。
六、WeChat Markdown Editor的配置与使用
1. AI配置流程
点击编辑器界面的AI对话小图标,进入AI助手配置界面。
AI对话配置,可参考如下:
- 服务类型:自定义兼容的OpenAI API服务
- API端点:https://api.modelarts-maas.com/v1
- API密钥:刚才注册的申请的华为云API key
- 模型名称:DeepSeek-V3
- 其余默认,点击保存。
2. 对话测试
在 AI 对话页面进行简单的提问测试后,可以看到模型能够正常返回回答,这表明 AI 模型已成功配置并正常运行。
3. 写作生产力
在日常写作中,当我们需要对外部材料中的某段信息进行概括时,可以将该段文字复制到AI对话框中,借助AI助手快速完成总结。可以看到,在编辑器的AI对话框内,AI已高效地帮助我们提炼出核心内容。这种方式不仅提升了写作效率,也增强了信息处理的准确性,对于日常写作和研究工作具有很高的实用价值。
七、总结
通过本次基于华为云ModelArts Studio平台搭建AI Markdown编辑器的实践,华为云的综合优势得到充分验证。其提供的一站式AI开发环境,借助ModelArts Studio的可视化界面,将数据处理、模型训练、服务部署等复杂流程化繁为简,开发者如同拥有“智能向导”,轻松驾驭开发全链路;弹性算力调度功能,可根据任务需求灵活分配资源,确保编辑器的高效运行与实时响应。同时,平台对DeepSeek等前沿模型的无缝集成,赋予编辑器强大的语义理解与文本生成能力,真正实现了技术与应用的深度融合,彰显华为云“以技术赋能创新”的硬核实力。 🌟
此次项目的成功落地,不仅是AI Markdown编辑器的一次技术突破,更是华为云生态协同能力的有力证明。从项目部署的便捷性到模型服务的稳定性,华为云以全方位的技术支持与服务保障,大幅降低开发门槛,加速应用落地周期。未来,依托华为云持续升级的技术体系与开放生态,开发者将获得更丰富的工具与资源,推动AI与各领域应用的创新结合,为数字时代的技术变革注入源源不断的动能。 🚀