V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  dandankele  ›  全部回复第 1 页 / 共 6 页
回复总数  118
1  2  3  4  5  6  
7 天前
回复了 young1 创建的主题 程序员 用户体系
权限常见的两大类做法,一类是在技术层面、资源层面做的,例如 1 楼所说的,对 api 路径、rpc 路径做权限控制,还有一类是在业务层面的,例如 xx 操作只允许 xx 级别的会员用户才能操作。。。不过这两类做法不是相互代替的,可以同时兼有。。具体问问 AI 吧
AI 范围很广啊,只是近几年火起来的是语言模型,token 消耗量作为计费项也只针对语言模型。。以前的机器学习还可能还会用在风控(爬虫检测等)、产品质检等各种应用方向,那些可能会按次数、时间等其他维度作为消耗量的指标。而且针对企业自身独有领域的 AI 应用,更是需要掌握算法的人的
13 天前
回复了 edg 创建的主题 程序员 Java 端怎么弄大模型的长期记忆
你的问题核心应该是知识检索吧,用户提问,但你不知道去拿哪些数据来喂给大模型?
看你的描述像是围绕个人画像数据方面做的检索,身高、体重、血糖,如果个人的数据量不大、字段不多的话,考虑整体扔给大模型。。。
如果个人数据量比较大,那么就要考虑你的问题了,如何抽取出所需的信息给大模型。。

我目前有两种想法:
1. 将个人画像数据做简单处理,将大量维度数据按小维度扔进向量库,然后根据用户提问做相似性检索取出扔给大模型。
2. 调整应用编排,多次调用大模型,每次调用针对不同关注点做处理。例如首次调用主要是引入意图识别,让大模型根据用户问题帮你识别出可能需要什么 category 下的哪个 key 的个人信息,然后你再去 es 检索。这种缺陷可能会增加响应时间。
18 天前
回复了 cj323 创建的主题 PHP 未来属于 PHP
这要是发到小某书我还以为是起号的。。。
用 whois 命令查也行吧,不知道限不限制频率,而且你的客户也不多,查询间隔时间长一点,然后存储起来就行

root@localhost:~# whois nmc.cn
Domain Name: nmc.cn
ROID: 20030310s10001s00013947-cn
Domain Status: ok
Registrant: 国家气象中心(中央气象台)
Registrant Contact Email: [email protected]
Sponsoring Registrar: 北京国科云计算技术有限公司(原北京中科三方网络技术有限公司)
Name Server: ns1.sfn.cn
Name Server: ns2.sfn.cn
Registration Time: 2003-03-10 19:14:55
Expiration Time: 2026-12-08 13:45:51
DNSSEC: unsigned
26 天前
回复了 julyclyde 创建的主题 云计算 腾讯云这几个功能是不是重复了
@liuleixxxx 完了你,举报了
You got 6 out of 25 correct!
28 天前
回复了 boneyao 创建的主题 程序员 隐私号码保护的企业服务
这玩意儿运营商管的很严。。要看使用场景的。。大多数都是用来做陌拜的。。全是骚扰电话
34 天前
回复了 monway 创建的主题 云计算 关于全球性的网站加速问题
你这个慢你有没有分析大概是慢在哪些环节?服务器上创建新环境、应用启动初始化慢?还是服务器处理用户请求的复杂逻辑的慢?还是服务器响应后返回到终端用户的网络慢?

另外你这“下载 5M 的 js 文件”,指的是你临时环境中拉取这个 js 到你服务器上?还是用户从你服务器拉这个 js 到他们自己电脑上?
才发现 dromara 社区有那么多熟悉的项目..这是个什么神奇的组织
你这要是发在小某书,我还以为是起号的。。
这玩意儿容易被封吧。。
@lasuar 有个问题想咨询下大佬。。有的 db migration 迁移工具中,提供的都是基于.sql 文件方式去做数据库表结构变更的。这样对于纯 DDL 基本是有效的,但是不知有没有这样的场景,例如在做了 DDL 之后还要做一些数据处理工作,如原有 A 字段可能因早期设计不合理,现在需要新增一个 B 字段,这是 DDL 部分,但是还需要将 A 字段中已有的数据通过脚本提取、处理、转换并更新到 B 字段上。这时数据处理的逻辑就不太好放在.sql 中编写了吧。

我的做法都是引入第三方工具库,然后自己写脚本的,在脚本中调用库的 DDL 方法,然后再写一些额外的数据处理逻辑的。不知大佬这种抛开第三方工具独立维护的方案中,如何处理这样的需求的
@hetal 好的感谢,大致的参照了下上面老哥的处理方式做了调整。。好像是 json 类型字段并没有做 utf8 解码,问题在于 perl 的 DBI 的库 https://github.com/perl5-dbi/DBD-mysql/issues/309 ,希望给后人留下一些有用信息
@zhanglintc 老哥。。pt-archiver 也有类似问题,能否照这思路帮忙改一下,官方都 5 年没动静了。。原问题: https://forums.percona.com/t/when-pt-archiver-archives-mysql-json-fields-garbled-characters-appear/39307
主要是各位有没有具体的实践啊,选了多模态模型之后,开源的 AI 工作流平台选哪个,coze 貌似还不支持多模态模型,dify 好像仅能用 gemini ? ragflow 中添加了工具之后就无法分析上传的图片。。。
1. 知识库的源文档可以是任何形式的文件,如 docx 、ppt 、pdf 等等,那么此时需要做第一步,将这些多种形式的、非结构化的数据转化为结构化的数据结构,如都统一转化为 markdown

2. 分段问题是整个工程里比较重要的且棘手的一项问题。要考虑分段大小是否匹配模型窗口、分段后上下文如何不丢失、语义不丢失等。。应该没有固定的一种手段。。要保证上下文的话,可以分段是保留一些重叠,或者构建知识图谱(这个又引入了复杂性)。。分段策略可以网上搜一下,一大堆资料,一些 rag 框架里也会自带的

3. 多模态的还没尝试过,也在研究。可以将图片也转化为文本描述,那么入库的都是文本了,后续检索也只需要根据文本检索,但这严重依赖文本的准确性,可能导致检索精度丢失。。另一种就是用多模态模型了,让图片向量与文本向量存储在同一空间里,直接做图文检索。。
@coolcoffee registry 不行啊,我部署后使用 s3 协议存在阿里云 oss 上有问题,网上找了一大圈都没看到解决办法。。。
1  2  3  4  5  6  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3358 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 05:03 · PVG 13:03 · LAX 21:03 · JFK 00:03
♥ Do have faith in what you're doing.