Skip to content

技术方案

方案|100% 开源边缘智能引擎:OpenVINO 与 EdgeX Foundry 完美结合,零代码即插即用实践(GitHub开源)

在边缘计算的浪潮中,人工智能(AI)推理从云端向边缘设备的迁移已成为趋势,带来更低的延迟、更高的隐私保护和更优的资源效率。Intel 的 OpenVINO™ 工具包及其 Model Server (OVMS),结合 EdgeX Foundry 的开源框架,提供了一个强大的边缘智能引擎。我们公司自豪地贡献了 GitHub 开源仓库 edgexfoundry-holding/device-ai-openvino-ovms,展示如何通过零代码、即插即用的方式,在 Intel CPU、GPU 和 NPU 上实现高效边缘 AI 推理。这一仓库是我们对开源社区的承诺,旨在推动边缘智能的广泛应用。

技术分享|The Next Generation Internet of Things 下一代物联网 曾经描述过:远端和物联网智能设备:遥远的、偏远的或网络资源匮乏的地方将是边缘计算的用武之地,不仅是减少了数据传输的时间和效率问题,还解决了现场智能设备的数据处理问题。

方案|登临 KS20 GPGPU 优化巅峰之作:YOLOv8n 与 Triton Server 在海光/曙光边缘计算设备上的终极性能调教(5倍性能)

国产AI加速的瓶颈破解之道,从后处理迁移到生产余量规划

概要介绍:本文基于项目经验,系统阐述 YOLOv8n 在登临 KS20 上的优化策略,焦点包括 Triton 调度改进、gRPC 通信优化和 Prometheus 指标收集。结合搜索到的最佳实践和代码示例,分析G PU/CPU 利用率提升路径,帮助您避免常见坑点。展望未来 INT8 量化潜力,提供完整 Helm Chart 和测试方案,助力高效 AI 部署。

方案|YOLOv8 + Triton Server:Python后处理管道,让目标检测部署更快、更稳!

今天,我们来聊聊一个超级实用的开源项目:YOLOv8-TritonServer-Python-Post-Processing-Pipeline。如果你是计算机视觉工程师,或者正在折腾YOLO模型的服务器端部署,这个仓库绝对值得一试。它用NVIDIA Triton Inference Server把YOLOv8的推理和后处理无缝融合,极大降低了延迟和I/O开销。别急,我来一步步拆解给你听,顺便教你怎么上手。走起!