- 博客(1152)
- 资源 (2)
- 收藏
- 关注
原创 【报错】E: The repository ‘https://repo.radeon.com/rocm/apt/debian jammy InRelease‘ is not signed.
E: The repository 'https://repo.radeon.com/rocm/apt/debian jammy InRelease' is not signed.
2025-09-02 20:15:04
8
原创 【大模型】使用MLC-LLM转换和部署Qwen2.5 0.5B模型
■准备工作下载模型;安装依赖■权重转换■生成配置文件■模型编译GPU版本编译;CPU版本编译■启动服务启动GPU服务;启动CPU服务■服务测试■扩展
2025-09-02 19:44:31
22
原创 【报错】RuntimeError: HIP error: invalid device function
RuntimeError: HIP error: invalid device functionHIP kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
2025-08-29 12:55:20
173
原创 【报错】ValueError( ValueError: state_dict cannot be passed together with a model name or a gguf_file. U
ValueError( ValueError: state_dict cannot be passed together with a model name or a gguf_file. Use one of the two loading strategies.
2025-08-29 12:46:17
286
原创 【报错】gguf parsing GGUF Error: invalid file magic
gguf parsing GGUF Error: invalid file magic
2025-08-29 12:40:23
28
原创 【报错】from transformers import (ImportError: cannot import name ‘Qwen2_5_VLConfig‘ from ‘transformers
init_contexts = [no_init_weights(), init_empty_weights()] NameError: name 'init_empty_weights' is not defined
2025-08-29 12:31:34
26
原创 【大模型】ollama运行自己量化后的qwen2.5vL-3B(实践版,保留多模态能力)
■安装Ollama■量化模型■创建Ollma Modelfile■构建Ollama模型■验证转换结果
2025-08-29 12:24:19
32
原创 【大模型】Qwen2.5-VL-3B模型量化以及运行测试,保留多模态能力(实践版)
■获取原始模型■构建llama.cpp■转换模型到GGUF▲视觉模块转换▲llm模块转换▲llm模块量化▲推理测试■报错处理
2025-08-27 18:59:42
375
原创 【大模型】ollama运行自己量化后的qwen2.5vL实践
■安装 Ollama■量化模型■创建 Ollama Modelfile■构建 Ollama 模型■验证转换结果■扩展■问题
2025-08-26 12:56:53
56
原创 【Android】升级安装ADB | listening on specified hostname currently unsupporte
listening on specified hostname currently unsupporte
2025-08-25 12:15:28
235
原创 【报错】Please do not run this script with sudo bash
Please do not run this script with sudo bash:showHelp: command not found
2025-08-20 12:39:15
122
1
原创 【论文阅读笔记】CVPR 2025 | 清华团队打造轻量级网络新范式:LSNet 2025.3.29 | 模型小巧却更精确 | See Large, Focus Small
【摘要】【轻量视觉网络LSNet】Large Kernel Perception (LKP)大尺寸核感知;Small Kernel Aggrgation(SKA)小尺寸核聚合【实验结果】【结论】
2025-08-13 18:48:41
718
原创 【YOLOv13[基础]】热力图可视化实践 | 脚本升级 | 优化可视化效果 | 论文必备 | GradCAMPlusPlus, GradCAM, XGradCAM, EigenCAM等
本文将进行添加YOLOv13版本的升级版热力图可视化功能的实践,支持图像热力图可视化、优化可视化效果、 可以选择使用GradCAMPlusPlus, GradCAM, XGradCAM, EigenCAM, HiResCAM, LayerCAM, RandomCAM, EigenGradCAM。一个参数即可设置是否显示检测框等。
2025-08-11 18:21:23
207
原创 【论文复现】YOLOv13的使用 | 训练、验证、预测以及导出模型等
■Yolov13架构■主要结果▲MS COCO Benchmark▲可视化■Yolov13的使用▲安装依赖▲验证▲训练▲预测▲导出模型
2025-08-11 17:16:13
100
原创 【大模型】(实践版)Qwen2.5-VL-7B-Instruct模型量化以及运行测试
■获取原始模型■构建 llama.cpp 工具■转换模型到 GGUF 格式■量化和运行
2025-08-08 16:49:43
127
原创 【报错】postman: /lib/x86_64-linux-gnu/libc.so.6: version `GLIBC_2.34‘ not found (required by postman)
postman: /lib/x86_64-linux-gnu/libc.so.6: version `GLIBC_2.34' not found (required by postman)
2025-08-04 12:16:24
219
原创 【报错】ERROR: ld.so: object ‘libeagleaudithook.so‘ from /etc/ld.so.preload cannot be preloaded (cannot
ERROR: ld.so: object 'libeagleaudithook.so' from /etc/ld.so.preload cannot be preloaded (cannot open shared object file): ignored.
2025-08-04 12:12:47
82
原创 [报错]ValueError: numpy.dtype size changed, may indicate binary incompatibility. Expected 96 from C he
ValueError: numpy.dtype size changed, may indicate binary incompatibility. Expected 96 from C header, got 88 from PyObject
2025-08-01 13:31:07
333
原创 【AMD | Docker】超级全面版本:在Docker中验证AMD GPU移动显卡可用性的方法
1. 安装ROCm Docker支持■AMD GPU驱动■ROCM■Docker2. 配置Docker使用ROCm3. 使用官方ROCm Docker镜像4. 使用Docker CLI参数访问GPU
2025-08-01 13:27:09
202
原创 【报错】raise pickle.UnpicklingError(_get_wo_message(str(e))) from None_pickle.UnpicklingError: Weigh
File "/opt/conda/envs/py_3.12/lib/python3.12/site-packages/torch/serialization.py", line 1470, in load raise pickle.UnpicklingError(_get_wo_message(str(e))) from None _pickle.UnpicklingError: Weights only load failed.
2025-08-01 13:04:40
172
原创 【报错】W: No sandbox user ‘_apt‘ on the system, can not drop privileges
W: No sandbox user '_apt' on the system, can not drop privileges
2025-07-30 18:34:54
63
原创 【ROCM】rocm-core、 rocminfo、rocm-hip-runtime、rocm-dev等
1. rocm-core2. rocminfo3. rocm-hip-runtime4. rocm-utils5. rocm-dev
2025-07-30 18:30:51
87
原创 【报错】 rocm-hip-runtime : Depends: rocminfo (= 1.0.0.60304-76~22.04) but 5.0.0-1 is to be instal
The following packages have unmet dependencies: rocm-hip-runtime : Depends: rocminfo (= 1.0.0.60304-76~22.04) but 5.0.0-1 is to be installed rocm-utils : Depends: rocminfo (= 1.0.0.60304-76~22.04) but 5.0.0-1 is to be installedE: Unable to correct pr
2025-07-30 18:20:05
192
原创 【AMD平台】编译llama.cpp
■环境准备■CPU 版本编译■GPU 加速编译(ROCm)■针对特定 AMD GPU 架构优化■使用 CMake 的详细配置■验证编译结果■常见问题和解决方案■运行测试
2025-07-25 12:27:05
399
原创 【论文|复现】YOLOFuse:面向多模态目标检测的双流融合框架
■技术特性■LLVIP基准测试结果■数据输入规范■快速部署指南①环境初始化②模型训练③推理验证④代码■数据集结构■扩展▲常见模态组合与应用场景▲融合方式
2025-07-24 18:16:07
1373
原创 【docker | 部署 】Jetson Orin与AMD平台容器化部署概述
■平台概述■架构差异■软件环境依赖■运行时适配GPU后端■基础镜像■自定义构建镜像■扩展
2025-07-24 18:11:29
411
原创 【faiss】用于高效相似性搜索和聚类的C++库 | 源码详解与编译安装
●Faiss■faiss::Index■faiss::read_index■faiss::write_index■faiss::IndexFlatIP■faiss::Index::idx_t■完整代码示例■总结●Faiss库源码详解●Faiss库编译安装
2025-07-23 18:01:23
786
原创 【Android】交叉编译faiss库 | 问题解决
一 解决 FAISS 交叉编译到 Android 时的 BLAS/MKL 依赖问题二 交叉编译faiss■禁用 BLAS并交叉编译faiss■使用 OpenBLAS 的 Android 移植版本并交叉编译faiss三 报错处理■报错■SWIG
2025-07-21 18:58:33
273
1
原创 【SentencePiece】用于神经网络文本处理的一种简单的、语言无关的子词切分器和切分器
一 用于神经网络文本处理的一种简单的、语言无关的子词切分器和切分器二 SentencePiece■技术亮点■与其他实现的比较■概览▲What is SentencePiece?▲The number of unique tokens is predetermined▲Trains from raw sentences▲Whitespace is treated as a basic symbol▲Subword regularization and BPE-dropout
2025-07-21 12:08:57
942
原创 【easytokenizer】高性能文本 Tokenizer库 | 源码详解与编译安装
■easytokenizer简介■C++1 编译2 DEMO3 速度4 代码详解(1)src/tokenizer.h(2)src/tokenizer.cc(3)examples/cpp/demo.cc■Python1 Requirements2 Demo3 Speed■Links
2025-07-18 18:28:05
910
原创 【报错】交叉编译库 到 Android 平台报错:ld: error: unable to find library -lpthreadclang++: error: linker command
报错ld: error: unable to find library -lpthread ;分析;解决方法;
2025-07-10 19:00:28
76
原创 【报错】Could not find a package configuration file provided by ‘glog’”
源码安装新版;ls: 无法访问 '/usr/local/lib/cmake/glog/': 没有那个文件或目录;原因分析;解决方法;
2025-07-10 18:52:01
81
原创 【ubuntu|报错|Cmake】安装Cmake3.20.0后,验证报错CMake Error: Could not find CMAKE_ROOT !!! CMake has most likely
1 安装Cmake2 报错处理3 CMake 3.234 CMake 3.24
2025-07-10 18:45:56
108
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人