V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。
gadore
V2EX  ›  NAS

买了第二台群晖,发现远程数据同步挺难的

  •  
  •   gadore · 2023-07-31 15:01:35 +08:00 · 3676 次点击
    这是一个创建于 418 天前的主题,其中的信息可能已经有所发展或是发生改变。
    之前的 920+放老家了,因为能拿到公网 IP ,然后还有更高的上传速度( 4MB/s )。
    但 NAS 这东西不在身边的时候,各种 4K 片源的实时观看体验就差了很多。
    遂又买了台 220+作为从机,把老家的 920+上边的数据都同步到我身边,方便读取。

    结果发现问题来了:跨公网的数据同步居然没有很好的解决方案
    我有公网 IP ,所以用 openvpn 组网了,网络 IP 不是问题。
    但这些群晖自带的数据同步套件使用起来限制条件挺苛刻。

    1 、迁移助手只提供迁移,迁移完数据还是不同步的,而且跨公网有很大概率迁移失败(网络稳定性);
    2 、HightAvaliable 看起来很香,但人家需要插网线做心跳包,我这跨了公网的环境没办法;
    3 、HyperBackup 这个套件类似 iPhone 的备份到 PC ,备份的东西就是一个加密的压缩包,根本就不是给我用的;

    试来试去结果还是用 Cloud Sync 手动同步自己的一些共享文件夹的数据,还有一些套件的没法同步;

    唉,难受

    不知道各位有没有碰到这个痛点,以及有没有更加优雅的解决方案

    更详细的迁移相关的我记录了一下,感兴趣可以瞅瞅
    https://gadore.top/archives/1689128493165
    第 1 条附言  ·  2023-07-31 16:00:34 +08:00
    看到有几位老哥推荐 Drive Sync ,翻了一下官方文档,发现 DriveSync 的确也能实现当前我用 CloudSync 的功能,但套件数据暂时还是无解。
    如果有任何理解不到位的地方,可以再讨论,望大佬翻牌。。。
    第 2 条附言  ·  2023-08-01 09:05:45 +08:00
    感谢各位,我接下来会尝试使用 rsync 进行目录级别的同步
    32 条回复    2023-08-04 15:11:51 +08:00
    oneshad
        1
    oneshad  
       2023-07-31 15:05:30 +08:00
    用 Drive 可以同步
    T0m008
        2
    T0m008  
       2023-07-31 15:05:57 +08:00
    为什么不用自带的快照复制?
    JoeoooLAI
        3
    JoeoooLAI  
       2023-07-31 15:08:35 +08:00
    Drive sync 完美解决你这个问题
    yjim
        4
    yjim  
       2023-07-31 15:16:30 +08:00   ❤️ 1
    HyperBackup 可以用 ssh 的方式登录到远程服务器,然后选择同步文件夹的,我都是这么备份 Linux 上的文件,还有群晖自身对外共享的文件夹,备份也不是什么加密文件就是一个普通的文件夹,你没用对吧
    kenny9572
        5
    kenny9572  
       2023-07-31 15:17:43 +08:00   ❤️ 1
    HyperBackup 可以选择单一版本选项,出来的数据就是源数据了。
    xunandotme
        6
    xunandotme  
       2023-07-31 15:29:13 +08:00
    6690
    Ericality
        7
    Ericality  
       2023-07-31 15:31:04 +08:00
    那个 有个东西叫做 Drive sync
    还不用限制网络环境 可以用 quickconnectid 直接连接 可以双向同步
    gadore
        8
    gadore  
    OP
       2023-07-31 15:41:58 +08:00
    @kenny9572 他有一个导入跟导出的手动的动作呀,他指定的备份位置是唯一的,我想要的是完全自动的数据同步,不要定期人为干预的那种。。。
    gadore
        9
    gadore  
    OP
       2023-07-31 15:45:14 +08:00
    @kenny9572 感谢,源文件这一点儿的确没注意(在使用途中发现不合适),他会让我选择导出地址,那我如果需要恢复的时候是不是还得。。。手动重新指定这里,重新等待机器读取恢复的数据。
    jason20
        10
    jason20  
       2023-07-31 16:27:26 +08:00
    可以试一下群晖自带的 Rsync
    jason20
        11
    jason20  
       2023-07-31 17:01:22 +08:00
    在此也提出一个类似的问题。不同地方的两台群晖跑一些相同的 docker ,怎么同步 docker 的数据,使得远程连接两个 nas 的相同 docker ,读取到的数据是一样的,也就是说使用起来没有差别。
    harttle
        12
    harttle  
       2023-07-31 17:46:32 +08:00 via iPhone
    非主流方案:试试 syncthing 类似 torrent 没公网 ip 有时候也能同步
    hamsterbase
        13
    hamsterbase  
       2023-07-31 17:51:38 +08:00 via Android
    试试看 tailscale ? 两台群晖都安装以后,就变成局域网同步了。

    tailscale 的免费 plan 很良心,打洞成功率也很高。
    vmebeh
        14
    vmebeh  
       2023-07-31 18:28:59 +08:00 via iPhone
    设计是独立使用的
    tsutomu
        15
    tsutomu  
       2023-07-31 18:30:00 +08:00
    tailscale 之后当做内网机器直接同步就好
    vmebeh
        16
    vmebeh  
       2023-07-31 18:30:53 +08:00 via iPhone
    其实我也想要一个这样的“为远程数据做一份本地缓存”
    alfawei
        17
    alfawei  
       2023-07-31 20:34:20 +08:00 via iPhone
    有公玩 IP 直接 webdav 同步就行了,直接跑满上行带宽复制文件夹到本地
    serafin
        18
    serafin  
       2023-07-31 20:58:45 +08:00
    套件数据同步应该无解。类似跨机房部署主从服务器( Master-Slave )。
    hicdn
        19
    hicdn  
       2023-07-31 20:58:52 +08:00
    Hyper Backup 可以备份和恢复套件数据及目录,备份能自动,恢复需要手动执行。
    serafin
        20
    serafin  
       2023-07-31 21:00:55 +08:00
    Synology High Availability 也只是強烈建議使用主伺服器與副伺服器間的直接連線作為 Heartbeat 連線
    ambition117
        21
    ambition117  
       2023-07-31 21:55:13 +08:00 via iPhone
    同步本来就是难题,你这网络还不稳定怎么整…试想 A 跟 B 都做了改动,然后因为网络波动中间没同步,准备怎么自动合并…
    mokiki
        22
    mokiki  
       2023-07-31 22:03:22 +08:00
    @ambition117 syncthing 不会合并,会有两个文件名字带个后缀
    neroxps
        23
    neroxps  
       2023-07-31 22:06:30 +08:00 via iPhone
    额 群晖自带 rsync 走 ssh 隧道。网络稳定情况下速度还是可以的。只是 4MB/s 4k 资源,就看你需求了。
    Cambrian07
        24
    Cambrian07  
       2023-07-31 23:58:45 +08:00 via iPhone
    差不多的需求,我是希望 pve 备份到异地群晖上面的 pbs 中,数据量应该比你的大,之前试了一下小的虚拟机,大约 10 来 g ,备份了 4 个小时…
    tzheng
        25
    tzheng  
       2023-08-01 02:40:36 +08:00
    我在网上看见有的同步方法,一边被加密勒索了,另一边也不会受影响,请问要使用什么技术同步?
    bao3
        26
    bao3  
       2023-08-01 02:52:22 +08:00
    其实 10# 、23# 的方法是对的,系统自带的 rsync ,你就新建一个 task ,rsync 你的旧 ip 那台数据就行,实时同步,完全一样的目录结构。
    liuwei889
        27
    liuwei889  
       2023-08-01 09:15:27 +08:00
    可以在老家的 nas 部署一个接口,返回目录文件,然后将单文件切分为 10M 分片传输,客户端全部 get 完之后在本地合并,合并成功给服务端 post 一个完成文件,服务端将该文件标记为已完成.接下来就交给时间
    beijiaoff
        28
    beijiaoff  
       2023-08-01 10:20:25 +08:00
    @tzheng 那你这个就不是同步了,是备份
    mohumohu
        29
    mohumohu  
       2023-08-01 16:29:41 +08:00
    gadore
        30
    gadore  
    OP
       2023-08-02 10:17:47 +08:00
    @mohumohu 我已经有组网了。不过感谢建议~
    mohumohu
        31
    mohumohu  
       2023-08-02 10:20:39 +08:00
    @gadore 我其实打的是 resilio sync ,粘贴板粘贴错了
    kenny9572
        32
    kenny9572  
       2023-08-04 15:11:51 +08:00
    @gadore 单一版本我之前测试不用恢复,对端的群晖可以直接看到数据,其实也是 rsync 同步
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2366 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 11:03 · PVG 19:03 · LAX 04:03 · JFK 07:03
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.