登录社区云,与社区用户共同成长
邀请您加入社区
2025 年,AI Agentic 基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen 等开源大模型的突破为 Agent 提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”——据 IDC 预测,全球 80% 企业将在年内部署 Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级:Agent Infra 成为技术攻坚的核
聚焦 LoongSuite 生态核心组件 LoongCollector,深度解析 LoongCollector 在智算服务中的技术突破,涵盖多租户观测隔离、GPU 集群性能追踪及事件驱动型数据管道设计,通过零侵入采集、智能预处理与自适应扩缩容机制,构建面向云原生 AI 场景的全栈可观测性基础设施,重新定义高并发、强异构环境下的可观测性能力边界。
本篇文章结合一个垂类领域的 Agentic 应用由浅入深的讲解了当下 Agent 落地的效果与问题,我们已经切实感受到了 Agent 时代已经到来,不管是价值,可行性都已经非常的清晰。其中的问题都在随着 AI 发展的过程中被慢慢解决,接下来对于企业或者独立个体而言,创意和执行效率或许才是最重要的。
摘要: Kubernetes Device Plugin 是连接容器与特殊硬件(如 GPU、FPGA)的关键机制。它通过设备发现与注册、资源分配调度以及容器资源注入三大功能,解决容器因隔离性无法直接访问硬件的问题。工作流程包括插件注册、资源上报和动态分配,使 Kubernetes 能像管理 CPU 一样调度特殊硬件。该机制为 AI、边缘计算等场景提供了标准化硬件访问方案,拓展了容器技术的应用边界。
无论是编码方式构建 AI Agent,还是可视化流程式构建 AI Agent,一旦脱离了 LLM,就不存在 AI 一说了。所以 AI Agent 如何合理地、生产级地与 LLM 结合,将是我们今天文章的核心内容。
在算法领域,数据始终是最基础且不可或缺的关键要素,它与算法性能紧密相连,直接影响着算法的表现。像视觉数据、时间序列数据、结构化状态数据等,都是算法处理的重要对象。实际上,算法本身并无绝对的高级与低级之分,其本质在于适配特定类型的数据。不同的算法适用于不同批次、不同种类的数据,这就导致算法在一些数据上可能表现出色,而在另一些数据上的表现则不尽如人意。算法的难点就在于此,如何采用节省资源、提升性能且能
Apache RocketMQ for AI 的增强能力已在阿里巴巴集团内部以及阿里云大模型服务平台百炼、通义灵码等产品中经过大规模生产环境的验证,充分证明了其在高并发、复杂的 AI 场景下的成熟度与可靠性。
基于上下文感知的动态配置热更新策略,不仅提升了微服务架构的灵活性与稳定性,还显著降低了运维成本。未来,随着 AIOps 的发展,结合机器学习的自适应配置策略将成为重要方向。
随着大模型技术的广泛应用,大语言模型(LLM)在对话系统、检索增强生成(RAG)、智能体(Agent)等场景中展现出无限的想象力与创造力。
AI模型的"生命周期"不是"训练→部署"就结束——上线后的"健康管理"才是考验架构师能力的关键。性能瓶颈、数据漂移、精度衰退;如何用K8s+Prometheus+Grafana搭建可扩展、可观测、可报警的监控体系;如何将监控数据转化为"行动指令"(比如自动扩缩容、触发重新训练)。范围覆盖:单K8s集群内的模型服务监控,支持TensorFlow/PyTorch等常见框架。故事引入:用"AI外卖店"的
容器化与云原生架构如何解决企业虚拟经济生态的核心痛点(如扩容慢、资源浪费、维护复杂);如何用容器化打包虚拟经济应用(如数字商品服务、AI推荐系统);如何用云原生架构(如Kubernetes)管理这些应用,实现弹性伸缩、自愈、可观察性;容器化与云原生在虚拟经济生态中的实践案例与未来趋势。范围覆盖企业级虚拟经济应用的架构设计、部署运维、优化迭代全流程,不涉及底层硬件或基础网络的深入讲解。本文采用"故事
设置了污点的 Node 将根据 taint 的 effect: Noschedule、PreferNoSchedule、NoExecute 和 Pod之间产生互斥的关系,Pod 将在一定程度上不会被调度到 Node 上。但我们可以在 Pod 上设置容忍(Toleration),意思是设置了容忍的 Pod 将可以容忍污点的存在,可以被调度到存在污点的 Node 上。
Serverless架构为前端应用提供了强大的扩展性和成本优势,但其性能和成本优化需要系统性设计。通过冷启动缓解、资源动态调整和安全监控,开发者能够构建高效、低成本的前端服务。未来,随着AI和边缘计算的进一步发展,Serverless架构将在更多场景中释放潜力。
无服务器架构(Function as a Service, FaaS)凭借“按需付费、自动扩缩容”的优势,成为AI应用(尤其是提示工程)的热门部署选择。但冷启动问题(Cold Start)却像一颗“定时炸弹”——当用户请求触发一个未运行的函数时,需要等待容器初始化、代码加载、依赖安装等一系列步骤,导致延迟飙升(从几百毫秒到几秒不等)。而提示工程(如大模型对话、文本生成)对低延迟的要求极高(用户容忍
本方案是基于 Serverless 架构搭建的超实用 VibeCoding 解决方案,托管于 Function AI 之上,主要目标是帮助企业或者个人解决一些长尾开发需求的问题,比如构建一个网站或者是一个收集数据的表单页面等,方案践行“创意到上线”的理念。
随着远程办公与AI增强型协作需求的爆发,传统单体架构的AI虚拟会议系统逐渐暴露** scalability 不足、资源利用率低、迭代效率慢等致命问题。本文以某互联网公司的架构升级实践为案例,从第一性原理出发拆解单体架构的本质局限,系统阐述云原生架构(微服务+容器+K8s+服务网格)如何解决AI虚拟会议的高并发、低延迟、智能计算需求。通过理论框架推导、架构设计落地、实现机制优化**的全流程分析,总结
通过这个小项目,我们搭建了一个完整的 Serverless API 环境,从本地开发,到云端部署,再到 CI/CD 自动化流程,每一步都清晰直观。这不仅能为你今后的实际项目提供模板,也能帮你理解 Amazon Serverless 架构的核心理念。当然,这只是起点。如果你有更多功能需求,比如数据库连接、权限控制、多环境部署等,SAM 和 GitCode Actions 都能灵活支持。欢迎你在这个基
本文详细讲解了如何从零开始搭建一个 Kubernetes 集群。希望本文对您的学习和工作有所帮助。
在 Agent 技术架构加速进化之际,函数计算“五年磨一剑”将理论瓶颈转化为经过大规模实践验证的企业级解决方案。未来的 Serverless 架构必须遵循三大基本原则 —— 开源开放、组装式设计、灵活定制。这不是技术空想,而是业务驱动、市场淘沙的生存法则。开源开放是赋予客户自由进化的选择权。以模型服务演进为例:PoC 阶段借力商业模型快速验证;规模扩张时采用混合架构,核心业务拥抱开源模型自主可控,
摘要: 云原生运维基于容器、微服务等技术,强调敏捷性但学习成本高;混合云运维兼顾传统架构与公有云优势,但复杂度更高。Wisdom SSH工具能显著提升两种场景下的运维效率:在云原生环境中简化Kubernetes操作,自动执行和分析命令;在混合云中智能处理跨平台任务,如安全传输文件、优化不同云平台的配置命令。该工具通过AI交互降低技术门槛,帮助运维人员高效应对数字化转型挑战。
一、概念HAProxy(High Availability Proxy)是一款开源的高性能 TCP/HTTP 负载均衡器 和 反向代理 软件,被广泛应用于构建高可用、高并发的现代网络架构。1.核心功能:负载均衡(Load Balancing)支持四层(TCP)和七层(HTTP/HTTPS)流量分发。提供多种调度算法:轮询(roundrobin)、最少连接(leastconn)、源IP哈希(sour
openFuyao社区发布v25.06版本,重点推出众核高密调度特性,优化256核以上场景的容器部署密度10%。同时增强在离线混部功能,新增三级QoS保障,实现资源利用率提升40%+;改进Cluster-API工具,安装耗时缩减40%并扩展操作系统兼容性。该版本还新增Ray监控面板和NPUOperator离线支持,持续优化异构算力管理能力,为AI/大数据场景提供更高效的云原生解决方案。
本文介绍了三种快速集成TraceId的微服务解决方案:1)Spring Cloud Sleuth(5分钟零侵入集成,适合Spring Cloud体系);2)网关+MDC过滤器(10分钟轻侵入,支持自定义Header传递);3)SkyWalking Agent(1分钟全功能接入,提供可视化链路追踪)。各方案特点鲜明,可根据团队技术栈和需求选择,都能在10分钟内完成集成,显著提升分布式系统问题排查效率
本文模拟互联网大厂Java面试场景,涵盖从Java基础到云原生的技术栈,结合电商、AIGC等业务场景,通过幽默对话与详细答案解析帮助读者掌握核心知识点。
在Kubernetes集群中,当Pod长时间处于Pending状态而无法调度时,意味着系统无法为该Pod找到合适的节点进行部署。这种情况通常由资源不足、节点选择器不匹配、Taints/Tolerations配置问题、存储限制或调度器策略等多种因素导致。在K8s 1.18和1.24版本中,虽然调度核心逻辑保持相对稳定,但在一些细节和特性上存在差异,这会影响我们定位问题的方法和步骤。
基于上下文感知的动态配置更新与回滚机制,通过实时性、一致性与灵活性的结合,显著提升了微服务架构的稳定性与可维护性。未来,随着 AIOps 和 Serverless 技术的发展,动态配置管理将进一步向自动化与智能化演进。参考文献[1] CSDN《基于上下文感知的动态配置管理策略在微服务架构中的实现与优化》[2] Nacos 官方文档[3] Rainbond 5.1.4 发布说明。
本文产品专家三桥君深入解析大模型如何赋能智慧风电场,涵盖故障预测、风险评估、电力优化等核心模块,助力风电行业智能化升级,迈向清洁能源未来。
微调(Fine-tuning)大模型,就像是给一个已经学富五车的大脑(预训练的基础大模型),
云原生技术创新发展呈现八大关键要素:底层技术持续突破(容器编排、Serverless、服务网格优化);活跃开源生态(CNCF标准化、厂商社区协作);企业实践驱动(垂直场景需求、大规模集群挑战);安全合规升级(供应链防护、合规工具适配);智能运维融合(AIOps、GitOps自动化);人才培养体系(复合型人才、认证体系);跨领域技术融合(边缘计算、AI集成);标准统一化(接口协议、多云兼容)。这些要
摘要:AIOps正加速云原生技术创新,典型案例包括:工商银行通过智能故障管理实现分钟级自愈,资源利用率提升至32%;阿里巴巴利用大模型实现双11百万级节点自动运维,故障定位效率提升40%;某电商通过强化学习动态调度,服务器成本降低22%;联想边缘云智能调度使生产效率提升20%;华为云为金融客户提供数字免疫系统,容灾切换效率提升30%。AIOps通过数据整合、自动化和行业适配,从辅助工具升级为云原生
AIOps赋能云原生创新:通过智能数据分析打破数据孤岛,实现全栈监控与自动化故障修复;利用预测性分析优化资源调度,保障业务稳定性;深度集成DevOps流程加速迭代验证,降低创新试错成本;聚焦电商、金融等场景需求,实现从技术突破到业务价值的闭环。最终构建"技术创新-业务增长"的正向循环,释放云原生技术的最大潜力。
设置了污点的 Node 将根据 taint 的 effect: Noschedule、PreferNoschedule、NoExecute 和 Pod之间产生互斥的关系,Pod 将在一定程度上不会被调度到 Node 上。但我们可以在 Pod 上设置容忍(Toleration),意思是设置了容忍的 Pod 将可以容忍污点的存在,可以被调度到存在污点的 Node 上。
企业云原生转型需构建系统性能力,从战略规划到技术落地,实现业务与技术深度融合。关键路径包括:分阶段业务驱动转型(非核心到核心系统)、构建"云原生+"融合架构(容器化/K8s深度应用、混合云协同、AI融合)、组织敏捷化变革(跨职能团队建设)、内置式安全体系(零信任架构/机密计算)。行业差异化落地需结合金融、制造、医疗等场景需求,通过生态合作降低转型成本。最终实现从资源优化到业务创
本方案针对企业数字化转型中的流程断点、数据孤岛等问题,提出CSG-EAF2.0统一架构框架,整合TOGAF与DDD方法,从价值流出发构建覆盖战略、流程、数据、应用、技术的五层架构。通过35个标准制品清单和七步设计法实现业务与IT对齐,确保数据同源共享,同时建立持续改进机制,最终支撑战略目标落地。方案重点解决业务可视、系统互联、数据共享等核心痛点,避免重复投资。
【代码】在线公有云服务器-云原生边缘计算KubeEdge安装配置(一)
支持 Docker、Helm Chart、云服务等多种部署方式
PTC Kepware工业连接解决方案升级怎么做?SIMATIC IOT2050能够提供新的思路:除了可将PTC负责的数据采集切换至SIMATIC IOT250完成之外,还可对接现有的可视化系统,进一步开发和部署生产管理所需的各种边缘计算,构建面向未来的“云-边-端”先进工业物联网信息系统构架。
KubeEdge是一个开源系统,用于将容器化应用程序编排功能扩展到Edge的主机。它基于kubernetes构建,并为网络应用程序提供基础架构支持。云和边缘之间的部署和元数据同步。完全开放 - Edge Core和Cloud Core都是开源的。 离线模式 - 即使与云断开连接,Edge也可以运行。基于Kubernetes - 节点,群集,应用程序和设备管理。 可扩展 - 容器化,微服务 资源优化
云原生边缘计算助力人机物融合泛在计算作者简介:彭鑫, 复旦大学计算机科学技术学院副院长、软件学院副院长、教授、博士生导师。中国计算机学会(CCF)杰出会员、软件工程专委会副主任、开源发展委员会常务委员,IEEE高级会员,《Journal of Software: Evolution and Process》联合主编,《ACM Transactions on Software Engineering
Nuclio是一个高性能的“无服务器”框架,专注于数据、I/O和计算密集型工作负载。它很好地集成了流行的数据科学工具,如Jupyter和Kubeflow;支持多种数据和流媒体源;并支持在cpu和gpu上执行。实时处理,CPU/GPU和I/O开销最小,并行性最大与大量数据源、触发器、处理模型和ML框架的本地集成带有数据路径加速的有状态函数跨低功耗设备、笔记本电脑、边缘和预置集群以及公共云的可移植性开
Amazon Athena是一种基于开源框架的无服务器分析服务。它构建在开源的Trino和Presto引擎以及Apache Spark框架之上,支持多种开放表格和文件格式。用户无需进行配置,只需使用标准的SQL查询即可分析数据。Amazon Athena提供了一种高效的方式来处理大规模数据分析任务。通过使用无服务器架构,开发者能够专注于数据分析而非基础设施管理。AWS Athena 官方文档Bot
前不久看到朋友圈有网友在转发一些连接,其中提到OceanBase分布式数据库近期推出了free-trail计划。简单的讲,就是个人用户可以在云上免费体验OceanBase 365天。作为一个数据库重度爱好者,自然是不能错过的,那必须要体验一番,这个羊毛必须要褥的呀!
开源云原生数据库PolarDB PostgreSQL 15兼容版正式发布上线,该版本100%兼容开源PostgreSQL 15。PolarDB是阿里云自研云原生关系型数据库,基于共享存储的存算分离架构使其具备灵活弹性和高性价比的特性,在开源PostgreSQL很好的性能表现的基础上极大增强了可扩展性和弹性。
云原生
——云原生
联系我们(工作时间:8:30-22:00)
400-660-0108 [email protected]