新人写博客,前天刚把删除功能做出来,今天一看被 google 爬虫全删掉了

2017-01-22 15:08:41 +08:00
 Cabana
还以为是谁发现我的地址了,恶作剧给删了呢,一看 nginx 日志才发现
![]( )
应为正在搭也没人知道,就暂时没有做登陆权限什么的,结果被 Google 坑了一把,还好大多都是测试数据只有几篇自己写的。
30276 次点击
所在节点    分享发现
202 条回复
Cabana
2017-01-22 16:49:00 +08:00
@1OF7G 哈哈,特地去看了下,记住了涉及数据操作的链接用表单来做 0.0
kappa
2017-01-22 16:49:06 +08:00
这博客系统写出来恐怕也没人敢用吧。。
iannil
2017-01-22 16:50:25 +08:00
这是一个耿直的删除功能
quericy
2017-01-22 16:53:07 +08:00
这个段子我好多年前看过。。。。。

啥?这是真事啊?
jotsai
2017-01-22 16:55:40 +08:00
这是一个没有戒备心的删除功能
JackyBao
2017-01-22 16:57:31 +08:00
爬虫表示:怪我咯?
loading
2017-01-22 17:00:05 +08:00
get 版本删除……
HowardMei
2017-01-22 17:02:08 +08:00
谷歌爬虫出名的眼亮脚快,这下懵逼了吧? 哈哈哈哈,乐成🐶了。
artandlol
2017-01-22 17:13:56 +08:00
2333
luluuulu4848
2017-01-22 17:14:06 +08:00
楼主 6
lj0014
2017-01-22 17:17:16 +08:00
真心笑了。。。
jelinet
2017-01-22 17:17:41 +08:00
今日最佳
xrlin
2017-01-22 17:19:12 +08:00
涉及到数据更改的请求 url ,为何不设置下 robots.txt
yetone
2017-01-22 17:20:10 +08:00
楼主犯了几个常识性的(可能会被笑掉大牙的)错误:
1. 用 GET 方法进行 D(Delete) 操作: GET 方法只能进行 R(Read) 操作,用 GET 方法进行 CUD 操作就是作死
2. Delete 操作不验证权限:无法吐槽,过于蠢了
3. 把自己犯的这些过于羞耻的错误写在网上:脸皮厚或者做事不考虑后果

总结:活该!
gonglexin
2017-01-22 17:20:43 +08:00
今日最佳
v2exhehehehe
2017-01-22 17:21:00 +08:00
需要补补基础了,楼主也是半路出家的吧
yetone
2017-01-22 17:21:23 +08:00
@xrlin

这跟是否设置 robots.txt 没任何关系,是楼主的代码写得过于搓了
onionisi
2017-01-22 17:22:56 +08:00
对不起,我也笑了
SakuraKuma
2017-01-22 17:24:03 +08:00
在公司笑出了声.
yywudi
2017-01-22 17:24:19 +08:00
笑出声...

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/336226

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX