
教程
文章平均质量分 95
卓普云
DigitalOcean 成立于 2012 年,为开发者易用、平价的云计算解决方案,从虚拟机、Kubernetes托管,到 GPU 云服务。QQ交流群:611945524
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
利用HuggingFace一键模型部署功能,快速构建语音助手
1-Click Models(即一键模型部署功能)是由DigitalOcean与Hugging Face联合推出的新方案,旨在通过云端最强大的GPU轻松调用顶尖开源大语言模型(LLMs)。用户无需复杂配置即可直接使用最佳模型。本教程将指导您开发一个支持语音功能的个人助手应用,该应用基于Gradio框架并集成FastAPI。您将学习如何:wp:list/wp:list。原创 2025-06-18 15:51:36 · 1586 阅读 · 0 评论 -
巧用 MCP 服务器,让你几分钟从 Prompt 到应用部署
MCP 是 Model Context Protocol(模型上下文协议)的缩写。它是一种让基于大语言模型(LLM)的工具(如 Claude 或 Cursor)能够安全地与外部服务通信并执行实际操作的方法。LLM 擅长处理“文字”——它可以总结、解释、改写文本。但如果没有帮助,它自己是无法“做事”的。比如它不能自动帮你部署应用、查询数据库,或者回滚失败的版本。而 MCP 就是这个“帮助”。它是一个开放协议,定义了工具如何以一种可预测、结构化的方式向 AI 模型暴露能力。原创 2025-05-21 15:35:46 · 3301 阅读 · 0 评论 -
Qwen3 不同版本需要什么 GPU?以及如何部署?
Qwen3是一个特别令人兴奋的模型,因为它能够在思考和非思考模式之间无缝切换,并具有创新的代理能力。我们期待看到越来越多像Qwen3这样的模型发布,以进一步推动大型语言模型的发展。最后,如果你在寻找价格实惠、计费透明、性能稳定且开发者友好的GPU服务器, 欢迎进一步了解DigitalOcean GPU Droplet,详情可点击下方链接咨询DigitalOcean中国区独家战略合作伙伴卓普云AI Droplet。。原创 2025-05-12 09:36:50 · 5267 阅读 · 0 评论 -
从7B到671B:DeepSeek R1大模型微调的GPU选型终极指南
当 DeepSeek R1 系列以 7B 到 671B的参数跨度构建起完整技术栈时,微调场景的硬件选择已演变为一场精密的数学游戏。以 FP16 精度计算,7B 模型微调需要至少 14GB显存(含优化器状态),而 671B 版本则需要惊人的 3TB 级存储空间。这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错 GPU 的代价,远不止于训练失败——轻则增加 30% 推理延迟,重则造成百万级硬件成本的浪费。原创 2025-05-08 17:13:04 · 3321 阅读 · 0 评论 -
企业出海降本:如何将应用从 AWS EC2 快速无缝迁移至DigitalOcean Droplet
在本教程中,我们已经带着你一步步将运行中的应用从 AWS EC2 迁移到 DigitalOcean Droplet —— 从评估现有环境、创建和配置 Droplet,到传输文件和数据库、测试和更新 DNS,实现最小化停机时间的平滑切换。此过程能帮助你降低云成本、简化基础设施管理,并获得更灵活的部署环境。无论是独立项目还是生产级应用,迁移到 DigitalOcean 都能让你享受面向开发者的简洁定价和现代化体验。每个应用栈各有差异,可能需要根据具体情况添加额外步骤。原创 2025-04-29 10:08:25 · 3172 阅读 · 0 评论 -
DeepSeek结合MCP Server与Cursor,实现服务器资源的自动化管理
MCP Server是最近AI圈子中又一个新的热门话题。很多用户都通过结合大语言模型、MCP Server,实现了一些工具流的自动化,例如,你只需要给出文字指令,就可以让Blender自动化完成建模的工作。你有没有想过,利用MCP来让AI Agent根据目前的项目情况,自动管理服务器资源的扩展呢?本文我们就以DigitalOcean服务器为例,来做一个示例。因为DigitalOcean 提供了简单易用的API,而且价格实惠。本文的 MCP 服务器会通过 DigitalOcean 集成,实现对服务器的管理。原创 2025-03-27 15:06:38 · 2175 阅读 · 0 评论 -
H100/A100如何选?90%人忽略的选型关键:GPU内存带宽决定AI模型性能!
GPU 的内存带宽决定了它能多快地将数据从内存(VRAM)移动到计算核心。它比 GPU 内存速度更具代表性。它由内存和计算核心之间的数据传输速度以及这两部分之间总线中的并行链接数量决定。自20世纪80年代初以来,家用电脑的内存带宽绝对值约为1 MB/s,消费设备的带宽显著增加——增加了几个数量级。然而,可用计算资源的增长速度超过了带宽的增加。为了避免频繁达到带宽限制,确保工作负载和资源在内存大小和带宽方面匹配至关重要。让我们来看看最先进的面向 ML 的 GPU 之一,NVIDIA RTX A4000。原创 2025-03-27 14:25:30 · 1155 阅读 · 0 评论 -
如何在DigitalOcean的H100 GPU服务器上运行DeepSeek R1 模型
在 DigitalOcean,我们一直在关注开源大语言模型(LLMs)和商业封闭模型之间差距的不断缩小。其中一个最关键的能力就是“推理”,也就是用合乎逻辑、讲得通的方式思考问题。以前,大语言模型的表现比较单一。只要给它们一个提示,它们就会直接给出答案,根本没有什么“二次思考”的过程,也没有什么机制能让模型在出错时自己纠正。这就让它们在遇到那些指令本身就可能有问题的情况时,很难进行深入推理、提出疑问或做出调整。原创 2025-03-07 09:58:50 · 2798 阅读 · 0 评论 -
跨境电商独立站怎么做 | 教你建立全球都能低延时访问的跨境电商网站
前端:Next.js 应用程序。后端:Node.js 应用程序。数据库:托管的 MySQL 数据库,配置为高可用性,位于新加坡。服务器位置:两个 DigitalOcean Droplets 云服务器分别位于法兰克福和旧金山。网络架构:通过 VPC 对等连接实现安全通信,通过 GLB 实现跨区域的流量分配。原创 2024-12-06 09:37:31 · 4410 阅读 · 0 评论 -
如何构建一个可扩展、全球可访问的 GenAI 架构?
这次,我们的目标是创建一个可扩展、安全、全球可访问(且价格合理)的 GenAI 架构。同时,你还将在本文中了解,如何在同一块 H100 GPU 上同时运行 Flux 和 Llamma3 两个模型。原创 2024-11-26 17:22:36 · 1722 阅读 · 0 评论 -
教程:只需四步,用openAI搭建自己的实时语音翻译应用
随着多语言交流的需求的增加,实时语音翻译正迅速受到关注。在本教程中,你将学习如何使用 DigitalOcean 提供的H100 GPU Droplet 上的 OpenAI API 在 Open WebUI 上部署实时语音翻译应用。我们马上开始吧。原创 2024-11-20 15:59:35 · 4833 阅读 · 0 评论 -
一文学会,利用LLaMA 3.2打造能“识图断字”的个人AI助理
LLaMA 3.2的性能令人难以置信。在开源发布方面,它代表了向过去一年主导市场的流行封闭源代码模型的质量迈出了具体一步。它几乎能够做它们能做的任何事情,包括从代码生成到视觉理解再到长篇故事写作。我们鼓励所有读者在DigitalOcean GPU Droplet上尝试HuggingFace项目demo。Digitalocean 也上线了一键部署 HUGS 的功能,可以进一步简化你的AI项目开发工作。大语言模型应用仍然具有无穷的可能性。原创 2024-11-13 15:47:15 · 1593 阅读 · 0 评论 -
如何从头开始构建神经网络?(附教程)
人工神经网络通常被称为神经网络、神经网或 NNs。这些网络受到生物神经元的启发。需要再次强调的是,实际上,生物神经元与用于构建神经网络架构的“神经元”之间几乎没有直接关联。尽管两者的基本工作方式截然不同,但它们的共同点在于,结合在一起时,这些“神经元”可以相对容易地解决复杂任务。为了理解神经网络的基本工作原理,线性方程“y = mx + c”是帮助理解神经网络的关键数学概念之一。方程中的“y = mx”部分帮助操控线条,获得所需的形状和数值。原创 2024-11-13 13:46:35 · 1995 阅读 · 0 评论 -
教程:FFmpeg结合GPU实现720p至4K视频转换
将一个 720p 的视频放大编码到 4K,这样的视频处理在很多业务场景中都会用到。很多视频社交、短视频、视频点播等应用,都会需要通过服务器来处理大量的视频编辑需求。本文我们会探讨一下做这样的视频处理,最低的 GPU 指标应该是多少。利用开源的 FFmpeg 放大视频的原理和基本步骤是怎样的。然后,我们通过一个简单的示例教程,一步步带领你利用带有 CUDA 支持的 FFmpeg 将一个视频从 720p 分辨率放大并编码到 4K 分辨率。原创 2024-11-08 12:04:50 · 2549 阅读 · 0 评论 -
想快速启动大语言模型推理模型?5 步教你解锁 Hugging Face HUGS 的一键部署
让部署和管理大语言模型(LLMs)变得更加简单和快捷。现在,借助 DigitalOcean 免费的一键部署功能,你可以在上轻松设置、扩展和优化 LLMs,这些 Droplet (DigitalOcean 的云主机)专门针对高性能业务场景进行了优化。本文将一步步带领你完成在 DigitalOcean GPU Droplet 上部署 HUGS 并集成 Open WebUI 的步骤,过程只需要 5 步,完成后你就能理解为什么说一键部署可以让 LLM 推理模型的使用更流畅、可扩展。原创 2024-11-05 14:58:22 · 2724 阅读 · 0 评论 -
在 Ubuntu 上使用 acme-dns-certbot 获取 Let‘s Encrypt 证书
我们之前分享过。大多数证书使用 HTTP 验证颁发,这样可以轻松地在单个服务器上安装证书。然而,HTTP 验证并不总是适合为负载均衡网站颁发证书,也不能用于的颁发。DNS 验证通过 DNS 记录来验证证书请求,而不是通过 HTTP 提供内容。这意味着可以为负载均衡器后的 Web 服务器集群,或无法直接通过互联网访问的系统颁发证书。使用 DNS 验证同样支持通配符证书。工具可以将连接到第三方 DNS 服务器,当你请求证书时,通过 API 自动设置证书验证记录。原创 2024-10-31 16:26:43 · 1129 阅读 · 0 评论 -
中小企业和初创公司如何在 Kubernetes 上扩展的最佳实践(三):可靠性的挑战与提升
确保 DigitalOcean Kubernetes 上应用程序的可靠性涉及在各个方面实施最佳实践,如上所述。这包括正确调整节点和 pod 的大小、为 pod 定义适当的服务质量 (QoS)、利用探测器进行健康监控、采用合适的部署策略、优化 pod 调度、增强升级弹性以及使用唯一的容器镜像标签。通过遵循本指南中的清单和建议,你可以构建可靠且具有弹性的应用程序,能够在故障中恢复并保持 Kubernetes 集群中的最佳性能。原创 2024-10-29 16:14:24 · 1017 阅读 · 0 评论 -
文本摘要的 BART 模型
研究人员或记者往往需要花费大量时间筛选互联网上的长篇信息,以找到所需内容。使用摘要或释义提要,可以快速浏览长篇文献的重点内容,从而节省时间和精力。借助 Transformer 模型,可以自动完成文本摘要这一 NLP 任务。实现这一目标有两种方法:提取式和抽象式摘要。提取式摘要是指从文本中找到最重要的陈述并将其提取出来,这可以看作是一种信息检索。相比之下,抽象式摘要更具挑战性,它试图理解整个材料,并通过释义文本来概括其要点。抽象式摘要任务通常由像 BART 这样的 Transformer 模型执行。原创 2024-10-29 14:39:39 · 1114 阅读 · 0 评论 -
如何优化批处理策略,最大限度地“压榨”GPU性能
在机器学习和深度学习的训练过程中,GPU 利用率是需要密切关注的重要指标之一。我们可以通过一些知名的第三方工具以及内置的 GPU 工具来监控它。GPU 利用率可以定义为单个或多个 GPU 核心在过去一秒中的运行速度,深度学习程序会并行地使用这些 GPU 资源。换句话说,GPU 利用率反映了 GPU 的工作负载情况。如何判断是否需要更多GPU计算资源?让我们来看一个实际的场景。在典型的一天里,数据科学家可能拥有两块 GPU 供他/她使用,这些资源“应该”足够应对大部分任务。原创 2024-10-16 10:03:01 · 1571 阅读 · 0 评论 -
中小企业的 Kubernetes 最佳实践(二):应对可观察性的挑战
来记录 Grafana 的日志。DigitalOcean Kubernetes (DOKS)以其简单易用的用户体验、稳定且可预测的定价模型、几乎免费的出站流量和多功能的云主机,成为 Kubernetes 托管服务的理想选择。通过将可观察性基础设施外包给托管服务提供商,你可以减少运营开销,降低对专业知识的需求,并确保可观察性堆栈的可扩展性和可靠性。通过利用指标、日志、跟踪和事件,并关联这些数据来源,你可以深入了解应用程序的行为,找出性能问题或故障的根本原因,从而实现更快的问题解决和更好的用户体验。原创 2024-10-11 10:34:58 · 1288 阅读 · 0 评论 -
AI 文生图快速入门教程:让 Stable Diffusion 更易于上手
Stable Diffusion 是一个强大的 AI 图像生成工具,但它可能会消耗大量资源。在本指南中,我们将学习如何使用来设置它。同时,我们将在上运行它,通过 H100 GPU 来提供最好的计算性能。而且通过 DIgitalOcean 的 GPU 云服务器可以让这个开发过程变得足够简单,即使你不是技术专家,也不用担心——只需跟随操作即可轻松实现!原创 2024-09-24 15:43:35 · 1129 阅读 · 0 评论 -
新手向教学,分分钟搭建个人定制化的 ChatgptGPT 聊天机器人
在本教程结束时,你将拥有一个功能齐全的 GPT 机器人,可以直接从终端处理用户需求,提供实时互动的用户体验。无论你是经验丰富的开发者还是初学者,本教程都将帮助你掌握在项目中利用 ChatGPT 的能力,并构建你自己的定制 AI 机器人。原创 2024-09-11 11:19:20 · 2757 阅读 · 0 评论 -
如何在 DigitalOcean Droplet 云服务器上部署 Next.js 应用
Next.js 是一个流行的 React 框架,可轻松构建服务器渲染的 React 应用程序。在本教程中,我们将介绍如何使用 Nginx 作为反向代理,在上部署 Next.js 应用程序。以下是逐步指南,假设你已经准备好部署 Next.js 应用程序并且拥有一个 DigitalOcean 帐户。以下是一些你可能需要的关键资源概述:/wp:list。原创 2024-09-09 15:19:53 · 1443 阅读 · 1 评论 -
AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX
上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。自 FLUX 模型发布以来,我们还看到了用户工作流程中的许多重要进展。原创 2024-09-09 14:35:39 · 1622 阅读 · 0 评论 -
在 H100 GPU 上使用 Hugging Face Quanto 优化 AI 模型
在本文中,你将发现 Quanto 是一种强大的量化技术,旨在优化深度学习模型的性能,而不影响模型的效果。原创 2024-08-28 15:44:12 · 955 阅读 · 0 评论 -
使用 Prometheus 和 Grafana 为 DigitalOcean 托管数据库设置监控功能
监控对于确保数据库的性能、稳定性和安全性至关重要。通过实施 Prometheus 和 Grafana 等监控解决方案,你可以深入了解数据库集群的健康状况和性能指标,从而实现主动管理和故障排除。你可以通过指标端点(metrics endpoint)以编程方式访问数据库集群的指标数据,相比云控制面板中的“洞察”选项卡,可访问的指标多出 20 多倍。原创 2024-08-02 11:14:30 · 896 阅读 · 0 评论 -
使用s3cmd 2.x 与 Cyberduck 管理在 DigitalOcean Spaces 对象存储中的数据
有很多用户在使用云存储的过程中,还没有找到一个合适的数据管理工具。其实目前有很多开源工具都可以使用,比如 s3cmd、Cyberduck。本文将讲解如何使用它们。原创 2024-08-02 11:11:55 · 1193 阅读 · 0 评论 -
如何为 DigitalOcean 上的托管数据库收集可观测指标
DigitalOcean 在 2024 年 5 月开始支持在托管数据库(和)中。我们将在本偏内容中,告诉大家如何使用部署在上的网络应用程序,为 DigitalOcean 上的 PostgreSQL 托管数据库收集可观测指标。你将在这次demo中使用一个 Node.js 应用程序示例,并将其连接到你将在本教程中创建的 DigitalOcean PostgreSQL 托管数据库。原创 2024-07-25 17:37:13 · 933 阅读 · 0 评论 -
只需三步,即可使用 Kafka 托管服务快速部署微服务架构应用
微服务架构的应用程序的特点是将其组件组织得能够独立地进行开发、测试、部署和扩展。的目标是通过允许用户在,简化这一架构模型,使其更加平滑和易于管理。一个简单的微服务架构应用程序可能有两个组件:/wp:list/wp:image这种类型的微服务架构允许开发者分别根据应用需求来扩展网络服务API(生产者)和后端处理服务(消费者)。例如,后端服务处理可能需要大量CPU资源,因此可以从基于需求自动扩展的专用CPU()实例中获益。另一方面,网络服务API可能在具有固定2个规模的共享CPU(原创 2024-07-22 16:54:21 · 1042 阅读 · 0 评论 -
最佳实践:中小型企业如何提升 Kubernetes 的可靠性?
在上周举行的 DigitalOcean Deploy 大会上,DigitalOcean Kubernetes团队高级软件工程师 Oliver Love分享了中小型企业的 Kubernetes 可靠性最佳实践。中小型企业往往资源相对有限,部署规模较小,这在确保其 Kubernetes 系统的可靠性方面构成了独特的挑战。而Oliver Love这次分享的重点是中小型企业在集群上面临的可靠性挑战。原创 2024-07-19 10:48:58 · 891 阅读 · 0 评论 -
用LangGraph、 Ollama,构建个人的 AI Agent
事实上,AI Agent 的研究还处于早期阶段,该领域还没有明确的定义。但是 Astra 和 GPT-4o 已经可以成为一个很好的早期示例了。NVIDIA 高级研究员、AI Agent 项目负责人 Jim Fan表示我们距离出现一个有实体的 AI Agent 或者说以 ChatGPT 作为内核的机器人,还有大约 3 年的时间。如果用他话来解释什么是 AI Agent,简单来说,AI Agent 就是能够在动态世界中自主决策的 AI 模型和算法。原创 2024-07-09 17:39:43 · 4448 阅读 · 0 评论 -
一键安装部署,在 Ubuntu 服务器上快速搭建基于 Ghost CMS的网站
我们在上一篇内容中讲过,。而这次我们将基于另一个流行的内容管理系统 Ghost CMS 在进行建站。也是开源的内容管理系统(CMS),用于发布博客和其他内容。它基于 Node.js 技术栈构建,可高度定制。与其他管理系统一样,Ghost 附带预建模板,你可以在创建博客时使用或扩展。本教程将指导你启动预装了 Ghost 的 DigitalOcean Droplet。你可以创建一个免费的来使用可用于一键启动的Marketplace App。安装应用程序后,你就可以开始通过 Ghost CMS 创建帖子了。原创 2024-07-04 17:54:18 · 1578 阅读 · 0 评论 -
教程:在 Kubernetes 集群上部署 WordPress 网站
WordPress 是专为每个人设计的开源软件,强调创建网站、博客或应用程序的可访问性、性能、安全性和易用性。WordPress 是一个基于 PHP 的内容管理系统(CMS),使用 MySQL 作为数据存储,目前很多网站、电商独立站、个人博客都采用了WordPress。不过,当用户访问量变多的时候,单一服务器很容易出现可用性问题。所以为了补足这一点,就需要建立集群。本教程面向不熟悉 Kubernetes 的入门级用户。原创 2024-06-27 15:34:18 · 1999 阅读 · 0 评论 -
如何在Paperspace中使用 H100 单 GPU 和多 GPU 机器
本文将介绍如何在 DigitalOcean 的 Paperspace 平台上运行 NVIDIA H100 单卡 GPU 和 8 卡 GPU。原创 2024-06-25 11:32:07 · 1070 阅读 · 0 评论 -
教程:A5000 GPU 上运行阿里最新开源大模型 Qwen2
在本文中,我们将展示使用 Ollama 运行下一代大语言模型阿里 Qwen2 的最简单方法。你将会发现,这个模型在性能上已经超越了 Mistral 和 Llama3。原创 2024-06-13 11:33:48 · 2759 阅读 · 0 评论 -
Kubernetes 基础架构最佳实践:从架构设计到平台自动化
wp:list为 Kubernetes 建立生产级云基础设施需要周密的规划和设计。规划基础设施与建设基础设施同样重要。第一次可能会出错,但可以改进,并随着需求的增长而不断发展。花时间与工程师和架构师讨论网络基础架构。不要重新建造架构,将繁重的工作留给托管的 Kubernetes 服务,如 DigitalOcean Kubernetes,它具有内置的弹性和高可用性。IaC 应该是管理云基础设施的唯一策略。采用 GitOps 等现代最佳实践实现平台自动化,如本指南所述。原创 2024-06-07 16:26:57 · 1292 阅读 · 0 评论 -
只需三步,使用 KRaft 建立多节点 Kafka 集群
在本教程中,你将创建一个 Kafka 集群,使用 KRaft共识协议的 Kafka 集群。你将学习如何配置节点成为集群的一部分,并观察主题分区是如何分配给不同节点的。你还将学习如何将主题分配给集群中的特定代理。原创 2024-05-29 14:50:50 · 1977 阅读 · 0 评论 -
如何在 DigitalOcean Droplet 云主机上创建 Ubuntu 服务器
在本文中,你将通过 DigitalOcean 的管理面板创建一个 Ubuntu 服务器,并将其配置为使用你的 SSH 密钥。设置好服务器后,你可以在其上部署应用程序和网站。的一部分,它指导用户完成将应用程序安全地部署到云的所有步骤。如果你正在搜索有关 DigitalOcean Droplet 云主机的文档,请访问我们的产品文档。另外,我们也会在Bilibili的官方账号中,持续更新。原创 2024-05-24 12:10:57 · 1108 阅读 · 0 评论 -
10 分钟,教你如何用 LLama-Factory 训练和微调 LLama3 模型
在本文中,我们将了解如何使用 LLama Index 对 LLama3 进行微调。更重要的是,你只需要通过非常简单的步骤和几行代码,就能实现这一点。原创 2024-05-21 15:55:02 · 10079 阅读 · 0 评论 -
只需 6 行代码,打造个人 AI 编程助手
在 Paperspace Gradient 上使用像 Code Llama 这样的人工智能助手探索编程的未来,改变开发者创建、调试和部署软件的方式。原创 2024-05-09 16:45:59 · 1842 阅读 · 0 评论