V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Apol1oBelvedere  ›  全部回复第 4 页 / 共 33 页
回复总数  660
1  2  3  4  5  6  7  8  9  10 ... 33  
@alfawei 处于某些考虑,不想把不相关的文件夹放进 Drive 里面去。
143 天前
回复了 WorldWideWeb 创建的主题 问与答 V 友们推荐几个电子书下载网站
@Nerv 这个如果没有充值金钱,下载时间间隔是 8 分钟左右,太长了。
150 天前
回复了 VersionGod1 创建的主题 生活 有没有合适的小生意推荐
学个做烧饼的手艺,人力场地都完美。做那种传统多层油面香酥的。我观察过几家,都是 50-60 岁,不累,1-2 元一个,一天就早晚能卖几百个。你开其他的店也就是早晚生意,还能流动找最大客流经营点,成本也低烧饼炉几千块钱。
@jlz52z #7 此处只是探讨 AI 的一个用法探索。文献不多自己搜索就能准确认定 doi 了。网上有现成的工具只是非批量化的。
@zhz 偏向于内容总结和问答,没有直接给出 doi ,技术层面也是基于 GPT 的,准确性尚不明确。
@jlz52z 用 10 篇论文信息测试了 ChatGPT 的 GPTs 下面“研究与分析”类别靠前的 3 个 GPTs ,例如 Scholar AI 等都写研究了 200M+的文献,但是出来的 doi 仍有错误的。不知道是不是方法不对。目前看还是找确定性的数据库去检索更好。
@gpt5 20 篇是打个比方一篇文章,综合量比这个多。主要探讨一种方式方法。
@statusbar #4 请问如何更改,调用这些资源速度慢很影响体验,有无魔改后的镜像?
@Davic1 目前没有好的方案,后来才去一次选这个季度要看的几十本书放到 iPad ,每天事情变多了看书时间也少了。
请问类似这样的 prompt “纯线条,淡色线条,无背景色加变色提示,简单轮廓”这种如何编写提示语?涂色画就是要简简单单的,类似这样的( https://cute-coloringpages.com/_next/image?url=https%3A%2F%2Fpub-0f231e48a54f4fc8b93506f3e890cb64.r2.dev%2F4592a8b11a8b2432f1b5819967d400b3.jpg&w=384&q=75
@YaD2x #33 中医中的“湿气”是一种描述体内湿邪过盛状态的概念,为一种黏腻、沉重的感觉,影响人体的脾胃功能,肠胃不适、关节疼痛和水肿等。中国人和外国人不一样,外国人长期肉食可以和冰冷抵冲,中国人主食蔬果易受冰冷影响。
长期早上喝冰的会不会造成身体湿气太重?
170 天前
回复了 ohyeahhh 创建的主题 问与答 有大佬知道好用的云电脑吗?
请问:1 、为什么没用 MSRDP 方案? 2 、3ms 延迟是和带宽有关还是什么有关,怎么能这么低延迟?
2024-06-15 更新:
1. gedkeeper 软件汉化很好,功能也很强,俄罗斯程序员在积极升版,但是不支持全家族直接间接亲戚完整显示,老外对亲戚称呼支持也很差,老外关系简单,完全不能用于国内亲戚称呼。我选择了整这个凑活用用。
2. Family Historian v7.0.7 和谐的支持全家族直接间接亲戚完整显示,但是界面英语的,且很多最终输出图标上都是英语不好用。
@googlefans 这个软件功能多更新快,但不满足要求,有两个不足:1 、不能点人名显示所有人称呼,只能用内置关系计算器逐个算。2 、不能展开所有子线关系,只能一个一个选择显示。
@vacker 打电话给客服,客服说他亲自测试没有问题,什么场景下会出现一部分人能用,一部分人不能用?
@sagaxu #61 逻辑清晰,答复内容有用。再推荐:护理、机电,并不推荐理发、厨房。
@KoiEric 这九年分别是怎么调整的?
@googlefans 谢谢,调试通过可用的代码:

```
# 原先安装 pip install requests beautifulsoup4

import os
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin

# 提示用户输入要抓取的网页 URL
url = input('请输入要抓取的网页 URL: ')

# 创建一个目录来保存下载的 PDF 文件
download_dir = 'pdf_downloads'
os.makedirs(download_dir, exist_ok=True)

# 获取网页内容,并显式指定编码为 UTF-8
response = requests.get(url)
response.encoding = 'utf-8'
response.raise_for_status()

# 解析网页内容
soup = BeautifulSoup(response.text, 'html.parser')

# 查找所有的 PDF 链接
pdf_links = soup.find_all('a', href=True)

for link in pdf_links:
href = link['href']
if href.lower().endswith('.pdf'):
# 获取超链接文本作为文件名
file_name = link.get_text(strip=True) + '.pdf'
# 处理文件名中的非法字符
file_name = "".join(x for x in file_name if x.isalnum() or x in " ._-")

# 拼接完整的下载 URL
download_url = urljoin(url, href)

# 下载 PDF 文件
pdf_response = requests.get(download_url)
pdf_response.raise_for_status()

# 保存文件
file_path = os.path.join(download_dir, file_name)
with open(file_path, 'wb') as f:
f.write(pdf_response.content)

# 打印下载信息,确保控制台输出使用 UTF-8 编码
print(f"Downloaded: {file_name}")

print("All PDF files have been downloaded.")


```
在 NAS 上不要完整解压,手工打开文件按 20%分阶段解压,尽最大可能挽救一些数据。
1  2  3  4  5  6  7  8  9  10 ... 33  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1618 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 27ms · UTC 16:55 · PVG 00:55 · LAX 08:55 · JFK 11:55
Developed with CodeLauncher
♥ Do have faith in what you're doing.