最新发布第2页
DeepSeek云部署API调用方式-语义熔炉网

DeepSeek云部署API调用方式

DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepS...
小风车动态忒片-语义熔炉网

小风车动态忒片

 
管理员的头像-语义熔炉网管理员7个月前
0613
DeepSeek本地部署教程+可视化界面+入门操作指南-语义熔炉网

DeepSeek本地部署教程+可视化界面+入门操作指南

教程说明1、大家可以根据本文档步骤安装使用。2、看不懂文档的,可以看安装教程视频,跟着视频里一步一步操作。deepseek本地部署视频教程:https://26794125.s21v.faiusr.com/58/ABUIABA6GAAg5L...
管理员的头像-语义熔炉网管理员11个月前
053312
宝塔面板部署DeepSeek教程-语义熔炉网

宝塔面板部署DeepSeek教程

前提条件 已安装宝塔面板 在服务器部署DeepSeek多用户可以注册去使用 操作步骤 DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。 登录宝塔面板...
管理员的头像-语义熔炉网管理员11个月前
01442
LM studio部署本地Deepseek精度模型包-语义熔炉网

LM studio部署本地Deepseek精度模型包

DeepSeek模型选择和下载根据博主的提供的参数,先清楚自己能够使用多大的模型,再进行下载。根据自己电脑的显卡配置和需求选择合适的模型下载,可以先下载1个尝试,模型是可以下载多个并灵活切...
Ollama、docker、chatbox、Cherry Studio、Visual Studio工具包-语义熔炉网

Ollama、docker、chatbox、Cherry Studio、Visual Studio工具包

【免费】提供官方下载地址(比较慢),下方链接自行下载。 【收费】的是提前下载好的,购买之后有网盘链接下载。 付费内容有Ollama、docker、chatbox、Cherry Studio、VsCode、AnythingLLM、Off...
Lm studio本地部署DeepSeek 及 部署后的性能调节-语义熔炉网

Lm studio本地部署DeepSeek 及 部署后的性能调节

0. 前言 上一节内容讲到Ollama部署deepseek的方法,会有下面几方面问题: Ollama官网访问安装包下载失败 下载deepseek模型文件过慢或失败 在不进行环境配置的情况下,默认安装至C盘,导致空间不...
管理员的头像-语义熔炉网管理员11个月前
018310
本地Deepseek添加个人知识库(Page Assist/AnythingLLM)-语义熔炉网

本地Deepseek添加个人知识库(Page Assist/AnythingLLM)

本地Deepseek两种方法建立知识库前言 (及个人测试结论)法一、在Page Assist建立知识库step1 下载nomic-embed-textollama官网->models->nomic-embed-textcmd进终端输入(依然默认进了系...
管理员的头像-语义熔炉网管理员11个月前
03062
视频剪辑发展方向指导-语义熔炉网

视频剪辑发展方向指导

作为一个过来人,学会我给你的指引,轻轻松松每月5k,记住,肯学,就一定能拿这些钱。
管理员的头像-语义熔炉网管理员7个月前
0592
局域网内其他设备访问本地部署的deepseek,实现手机畅快问答-语义熔炉网

局域网内其他设备访问本地部署的deepseek,实现手机畅快问答

目的 使用ollama + pageassist + deepseek大模型,实现局域网内访问本地部署的大模型,手机也能畅快问答。 使用LmStudio + deepseek + vscode(continue) ,实现低配置电脑也可快速生成代码。 1....
管理员的头像-语义熔炉网管理员10个月前
015012