- 博客(7)
- 收藏
- 关注
原创 Mysql编程基础
答:delete orders, lineitem from orders, lineitem where orders.orderid = lineitem.orderid and orders.orderid = 'u0004';例:现有类别表(category)和商品表(product),为product创建外键,当删除category中id时,如果product中还有category的id时,则不允许删除。说明:修改表结构->添加约束->约束名->外键->外键名->参考表(外键)->级联删除。
2025-08-26 21:34:14
865
原创 深入浅出BEVFusion
实验部分环境配置# 说明:在服务器上请求访问下载链接,出现连接失败的情况——无法正确连接SSH。下面,安装BEVFusion。
2025-08-21 21:11:12
834
原创 利用Streamlit打造Web前端交互的Ollama大模型(已实现)
可以看到,生成了两个网页,分别是local和network,我这里没有自动跳转,也知道怎么回事,这里需要手动点击,按住Contrl+鼠标点击,就可以实现页面跳转。这里的streamlit_test.py,就是刚刚在PyCharm中新寄建立的文件。介绍:本次博客分享的内容是通过Streamlit使用基本的API,打造前端可视化的交互式ai大模型。打开Ubuntu,博主这里用到了虚拟环境,也切换到了自建的目录,大家按需操作。:本文介绍的内容需要观看前几篇博客,作为基础,具体请翻阅主页,这里就不超链接了~
2025-07-24 17:24:37
464
原创 Ollama+Python打造聊天ai对话大模型(已实现)
本次博客介绍通过Python程序运行Ollama,这里提供了4个访问接口,分别是list、show、ps和chat,方便大家与模型展开对话。
2025-07-22 08:00:00
358
原创 Linux部署Python开发环境开发Ollama【从0->1保姆级分享】(已实现)
本文介绍了在Linux系统(Ubuntu/WSL)中配置Python开发环境的方法。主要内容包括:1)通过sudo apt install python3-pip安装pip;2)使用虚拟环境解决"externally-managed-environment"错误;3)PyCharm连接WSL环境的配置步骤,包括创建项目、配置Python解释器路径;4)两种运行Python程序的方法:通过IDE配置解释器或终端激活虚拟环境后执行。
2025-07-21 20:18:54
858
原创 Ollama创建与部署deepseek-r1大模型【从0->1保姆级分享】(已实现)
本文介绍了Ollama大语言模型部署工具的安装与使用指南,包含Windows和Linux系统两种环境配置方案。Windows部分详细讲解了Ollama的下载安装、模型选择运行(以deepseek-r1:7b为例)及前端chatbox应用;Linux部分则通过WSL子系统安装Ubuntu,并完整演示了Ollama的环境部署、用户组配置、服务管理及模型运行全流程。文中针对不同硬件配置提供模型选择建议,并附有常见问题解决方案。该教程适合开发者本地部署AI模型参考使用。
2025-07-08 20:16:14
544
原创 torch.cuda.OutofMemoryError: CUDA out of memory. Tried to allocate 100.90 MiB (GPU0;23.68 GiB total
文章摘要:遇到PyTorch CUDA内存不足问题(24G显存被占用10G+),使用nvidia-smi和ps aux命令发现后台有隐藏进程。通过kill命令终止相应进程ID后成功释放显存。解决方案包含:1)查看显存占用情况;2)检查后台进程;3)终止占用进程。适用于服务器运行YOLO等项目时出现的类似问题,实测有效恢复显存正常分配。
2025-06-18 12:16:05
337
1
pycharm 二值化 双峰法
2024-04-25
TA创建的收藏夹 TA关注的收藏夹
TA关注的人