正在查看 9 个帖子:1-9 (共 9 个帖子)
  • 作者
    帖子
  • @45210 回复

    老杨
    游客

    复制黏贴一上午,手指头废了,写了个特简单的批处理,跑起来轻松许多

    发布在github上,已经开源,大家可以自己下载使用,上面有使用说明

    github.com/jyoun...atchScript

     

    多年书格老用户,之前一直是浏览,这是第一次发言,感谢未曾先生创建书格,开放共享是推动文化进步的力量

    @45213 回复

    未曾
    管理员

    @老杨 #45210

    感谢分享,0 level 不一定是最大哦,有时是最小的(例如Google art的网址)。
    建议使用  dezoomify-rs -l

    @45217 回复

    未曾
    管理员

    而且这个还要套python啊,我感觉没必要。我大致写了一个bat脚本,仅供参考

    @echo off
    setlocal enabledelayedexpansion
    set /a a=1
    set downdir="download"
    if not exist %downdir% md %downdir%
    for /f "delims=" %%i in (urls.txt) do (
    dezoomify-rs -l --accept-invalid-certs -H "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36" %%i %downdir%/!a!.jpg
    set /a a+=1
    ) 
    pause
    @45218 回复

    老杨
    游客

    @未曾 #45213

    头一回用,不知道其他规则是什么样的:)就按测试那个地址写的

    @未曾 #45217

    这下全了,哪个平台都能用:)

    @45228 回复

    未曾
    管理员

    @老杨 #45218

    借鉴了任务延迟,升级了一下,测试脚本参见

    new.shuge.org/meet/topic/45227/

    @45277 回复

    张飞白
    游客

    感谢分享。

    个人有两个建议:一是把这个源码打包成工具,大家就能直接用了,第二建议可以增加多线程,下载更快。

    我个人也有类似的工具,后面考虑放出来。

    @45329 回复

    tigershuai
    游客

    @张飞白 #45277

    感謝,書閣里的活雷鋒越來越多了,書友之幸事啊。

    @45422 回复

    老杨
    游客

    @张飞白 #45277

    我个人提个建议啊,所有的网站可能都不希望有大批量下载,这几乎可以等同于网络攻击,尤其是我看不少朋友希望能下载飞快,所以提个建议,不光给飞白同学,也是给喜爱古籍的大家。

    网站一般带宽都比较有限,就好比长安街有5条车道,但二环路只有三条,每个网站的带宽就像车道一样,如果我们开满下载,就相当于我们在车道线上开车,占了两条车道,就会影像其他车辆通行。当咱们下载时候也是这样,如果非常频繁的占用带宽,势必影响其他人正常浏览,大部分网站都会有对访问行为的监控,建议大家使用批量下载最好设置时间间隔,这样即保证了下载,也不会影像其他人浏览,更不会影像网站的正常运行,这才更利于有更多的人看到我们的文明。

    @45423 回复

    未曾
    管理员

    @老杨 #45422

    赞~

正在查看 9 个帖子:1-9 (共 9 个帖子)
正在查看 9 个帖子:1-9 (共 9 个帖子)
回复至:分享:dezoomify-rs 批量下载的脚本
您的信息:



初次发帖前:建议先阅读