通过 nginx 搞了一个反代,整合 谷歌学术, V2EX ,知乎等搜索的页面

2015-09-01 18:26:48 +08:00
 arnofeng

原由

网址和注意事项

一些无所谓的说明

1.Use SSL/https to ensure safety;
2.Forbid popular spiders like Google 、 Baidu;
3.Forbid any illegal refer;
4.Forbid any illegal robot;
5.Limit frequency of the same IP at 10 times in 1 second;
6.Can only access this site by typing the domian or using bookmarks;
7.If pages show "403 Forbid",try to delete "cookies" in your browser;

16287 次点击
所在节点    互联网
141 条回复
wkl17
2017-01-21 18:46:30 +08:00
看完描述 第一反应 就想到了应该是用了 refer 判断的方式。
不知道楼主是否有研究过 屏蔽 360 云盾之类的检测的想法?
我之前观察了一下,只要用 360 浏览器访问过,
接着就会看到至少 2 个 IP 的来访,而且 UserAgent 跟普通用户无异,
不像 spider 的 UserAgent 。所以无法通过判断 UserAgent 的方式屏蔽。
可有什么好的方法屏蔽它的抓取、检测?
我之前想到的方式是,默认访问时 弹出一个确认框,让用户手动点提交,然后生成 cookie 或 session ,接下来以它作为凭证。但还未去实践过。看到此帖,抛出来探讨一下。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/217643

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX