V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  iorilu  ›  全部回复第 4 页 / 共 66 页
回复总数  1307
1  2  3  4  5  6  7  8  9  10 ... 66  
太多了, 最近 python 冒出一堆所谓的 不用懂前端的框架

pysimplegui
nicegui

还有一大堆, 有兴趣自己找找

但是, 我个人觉得如果你是真想开发卖钱的软件, 还是用 pyside, 这样也不用担心授权问题, 不要用 pyqt
20 天前
回复了 zhwguest 创建的主题 Android flutter 会烂尾么
flutter 问题是非要弄个新语言

发明框架可以, 不要随便发明新语言
搞这么麻烦干啥

我想到个方法

系统启动时候需要输入口令, 这口令和当前日期有关系, 每次启动时候需要对方找你, 你根据日期生成口令
给他, 这样就不存在启动的时候修改日期

这样就解决了客户单独启动的问题, 反正服务器也不可能经常重启把

至于运行时候到期判断, 这就记录数据时间阿 , 每天记录第一笔数据之前查找下系统内是否有更新的数据, 如果有必然是当前时间被改到了过去
21 天前
回复了 jefferyH 创建的主题 程序员 最新 Mac mini 选购建议
只写写代码肯定够了

用 ps 剪视频肯定没问题

说白了, 除了本来跑 N 个容器服务器那种, 都可以的

买丐版加个硬盘盒性价比最高
21 天前
回复了 Rust2015 创建的主题 GitHub Copilot 想订阅 Cursor 到 Pro:
@zchengb 18 人民币一个月?

不错阿, 有链接或关键字码
21 天前
回复了 xxss0903 创建的主题 Mac mini 如何实用教育优惠购买苹果的 MacMini
@Saika00 当然省钱重要, 除非你是买很贵的定制配置, 必须用分期
总算彻底干掉 8g 垃圾了
22 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@babyedi31996 我是想有什么人有需求必须本地跑 70b 的模型呢, 毕竟本地模型再强也不可能有 gpt4 或 claude 的模型强把, 如果是为了训练还说的过去


现在一般大家本地玩玩也就量化过的, 一般 16g 显存都能跑了, 买个 4060ti 16g 版也就 3000 多

但我估计就 mac 这性能训练模型可能也不太可行把, 哪得多久
22 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
mac 跑 70b 模型速度如何

不可能有 gpu 跑的快把
很多的

比如我开发的 v2sub

www.aizimuji.com
@dfkjgklfdjg copilot 也可以起一个 fork 阿, 有啥不行的

而且看来不起 fork 不行, 赶不上 cursor 基本生意都得被抢
copilot 便宜一半阿
首先问你写了多少笔记

先有大量笔记在考虑啥工具的, 你随便用任何工具, 哪怕 vscode 或者什么 markdown 写 100 个笔记再说

我用 obsidian 也写了几百个了
22 天前
回复了 Johnnysx 创建的主题 Apple Mac mini M4 怎样选
盖板+2t 硬盘盒
22 天前
回复了 Rorysky 创建的主题 Apple mac mini m4 配置怎么选?
别加, 盖板, 配个 2T ssd 硬盘盒
应该彻底消灭 8g 的垃圾了
真 16g 起步了? 有这好事阿, 老款都砸手里了
23 天前
回复了 ggp1ot2 创建的主题 GitHub Copilot Cursor 崩了吗?
@ggp1ot2 我是指 cursor 的服务器 api, 现在用 cursor 访问 api 都不用翻墙, 本来用 claude 或者 gpt 可是都要翻墙的
23 天前
回复了 ggp1ot2 创建的主题 GitHub Copilot Cursor 崩了吗?
早晚封掉的

道理很简单, 假设某国内公司想做类似业务, 第一件事就是举报现在能用的国外相关服务
1  2  3  4  5  6  7  8  9  10 ... 66  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2937 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 48ms · UTC 14:22 · PVG 22:22 · LAX 06:22 · JFK 09:22
Developed with CodeLauncher
♥ Do have faith in what you're doing.