发布于 3 天前
摘要
在 Jetson Orin Nano 上从源码编译并运行 Immich 深度学习模块的全过程,介绍了如何构建支持 CUDA 的 ONNX Runtime。
在 Jetson Orin Nano 上从源码编译并运行 Immich 深度学习模块的全过程,介绍了如何构建支持 CUDA 的 ONNX Runtime。
在Ubuntu 20.04系统中安装配置XRDP远程桌面使用默认桌面的方法。
国内雨云宁波节点 Headscale 0.26.1 组网教程:含 Docker 部署、HeadPlane 面板与反向代理。
生成专用YOLOv8二进制文件并在RDK-x5平台上部署模型以实现摄像头视频流的实时量化推理。
本地编译ImmortalWrt固件,包括环境配置、代码拉取、菜单配置、自定义软件源添加及固件编译方法。
在Linux系统上编译llama.cpp源码部署gpt-oss-20b-Q8_0.gguf模型,并可通过Cherry Studio接入服务。
本教程详细指导在Windows系统安装并配置Anaconda搭建包含CUDA的YOLO环境。
基于TensorRT-LLM,在A100环境下对QwQ-32B模型进行int4量化推理。通过转换检查点并构建TensorRT引擎,成功运行吞吐基准测试,使用合成数据集评估性能。
在 Ubuntu 中安装并运行 stable-diffusion-webui 的秋叶整合包,内容包括下载、虚拟环境创建、依赖安装以及路径修复等操作步骤,适合深度学习爱好者探索。
在 Ubuntu 24.04 上安装和配置多版本 CUDA 工具包。内容涵盖了下载安装包到设置环境变量、验证安装的全过程。以及如何通过别名管理不同版本的 CUDA,便于开发者灵活切换。