红方窑

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
123
返回列表 发新帖
楼主: 宏发饰业

开源ChatGPT、Stable Diffusion本地部署,及关于国产AI ...

[复制链接]

0

主题

6

帖子

10

积分

新手上路

Rank: 1

积分
10
发表于 2023-4-17 09:42:44 | 显示全部楼层
你的想法是用内存替代显存,有两种实现方法:
1、把一部分模型放在内存里用cpu计算;
2、把模型切成好几块,把暂时用不到的块放在内存,需要的时候再把内存里的块加载到显存里用gpu计算。

第一种方法慢是因为cpu不适合拿来计算模型,第二种方法慢是因为需要反复移动模型。不如直接买个显存足够的计算卡。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|红方窑

GMT+8, 2025-4-9 11:41 , Processed in 0.124902 second(s), 20 queries .

Powered by Discuz! X3.4

© 2001-2013 Comsenz Inc. Templated By 【未来科技 www.veikei.com】设计

快速回复 返回顶部 返回列表