今天我们第一个主数据库挂了,是的,我们完全没有任何预期,它就挂了。
由于在定期维护工作时发生了人为的失误,我们同时失去了两台数据库服务器(主、从服务器)以及上面的数据。
数据的备份放在另一个地方,它并没受到干扰,但是由于其庞大的数据量以及一些原因,我们需要时间来进行恢复。
此次事故影响范围:
- 3天前的文章将暂时不能访问,这将包括「已保存网页」以及「mail2tag」里面的内容
此次事故没被影响范围:
- 你的凭据,包括已连接的社交账号
- 你的偏好设置,包括具体到每一个订阅源的设置
- 文件夹
- 订阅源集合,包括Twitter、Facebook、Google+以及VK订阅源
- 规则
- 组合包
- OPML订阅源
- 动态搜素
- 团队
- 高亮内容
- 邮件通讯录
- 阅读数据
现在服务器已经恢复了最近3天的数据,而且最新的文章也可以正常在Inoreader中进行阅读。动态搜索、规则等功能也一样可以正常使用。在接下来的几天中,我们会尽快恢复3天前的数据。
作为补偿,所有免费、基本、入门、高级版的用户,我们已经将你的套餐升级成了专业版(有效期两个月,直到2016年8月1日)!
而现有的专业版用户,我们将会延长你两个月的套餐有效期。
我们真诚地向你道歉。我们保证,我们将采取一切必要的预防措施,以确保不让这种情况再次发生。
我们将持续更新这篇文章,当此次恢复有进展的时候。
2016年5月28日23:30更新:
我们预计在6月1日恢复第一批数据,第一批的数据包括从2005年到2015年8月的所有文章及相关衍生数据,包括加星、加标签的数据。然后我们接下来会恢复更新一批的文章。
我们将把「未读文章期限限制」从30天暂时延长到45天,这样你就能赶上当前你的阅读进度了。
2016年5月30日17:00更新:
恢复工程在正常进行,我们非常有信心可以恢复丢失的数据。但现在依然有一些问题,导致无法给大家一个准确的恢复时间,我们初步估计是6.4完成恢复。如果有任何变化,我们将会陆续在这篇文章中更新。
关于承诺的补偿:
- 对于现在的月付用户,你们将会收到一封包含两个月时长的专业版套餐优惠码的邮件,你可以自由激活使用;
- 对于现有的年付用户(入门、高级、专业、团队),你们的套餐期限将会在明天的时候,自动延长两个月。
Inoreader团队,Yordan Yordanov撰写,阡陌翻译
竟然还补偿所以用户两个月,真是天地良心。
是呀,非常非常大气:)
2016年5月28日23:30更新:
我们预计在6月1日恢复第一批数据,第一批的数据包括从2005年到2015年8月的所有文章及相关衍生数据,包括加星、加标签的数据。然后我们接下来会恢复更新一批的文章。
我们将把「未读文章期限限制」从30天暂时延长到45天,这样你就能赶上当前你的阅读进度了。
感謝翻譯!用inoreader幾年,頭一次遇到這麼大問題
确实是个灾难,还好官方表现得很棒。刚刚官方更新了,给你贴一下:
2016年5月28日23:30更新:
我们预计在6月1日恢复第一批数据,第一批的数据包括从2005年到2015年8月的所有文章及相关衍生数据,包括加星、加标签的数据。然后我们接下来会恢复更新一批的文章。
我们将把「未读文章期限限制」从30天暂时延长到45天,这样你就能赶上当前你的阅读进度了。
业界良心
「未读文章期限限制」 是啥意思呢?
意思是:「超过一定时间未读的文章,Inoreader将自动将其标记为已读」
解释起来好麻烦-_-b………
能否关闭这个功能呢?毕竟有些我是故意攒一些文章再读的,而且 inoreader 竟然没有这方面的提示……
我也想关啊,问题是它不是一个「功能」,而是一个特性,我专门问过Inoreader,他们说因为服务器压力太大,扛不住,只能自动标为已读。
Feedly也有类似的问题,没法了,只好强迫自己一个月内处理完订阅源。
这个会有什么资源占用呢?有没有标记已读文章都得在数据库里面啊?
这我就不清楚细节了,估计要维持「未读」这个状态需要耗费的服务器资源非常巨大吧,我猜测。
阡陌,能否和官方提一个建议,就是有一些站点是没有RSS订阅源的,那么,如果我直接输入这个网站的域名,就可以直接订阅呢,我觉得做一个这个功能也不是太难,能否和官方建议一下?
我虽然不是开发者,但我多少了解过一些爬虫方面的东西,你说的这个功能其实难度一点都不小,在没有公开API提供支持的情况下通过自动分析页面结构来创建RSS,其技术难度及产品设计难度都是很有挑战性的。
其次,Inoreader作为一个阅读器,如果公然对不提供RSS输出的网站采取这种「强制掠夺」式的行为,时间久了,有可能会引来大规模的屏蔽,届时会导致整个RSS生态链崩坏,所以主观意愿上他们也不太意愿做这种东西。
换位思考下,你作为网站方,在自己不愿意提供内容输出的前提下被其他人强制拿去了,你心里会不会不爽?
如果说是少数几个人自己用爬虫抓了也就算了不影响大局,如果上升到工具主观行为上,是会极大地影响内容生产方的利益的。
换句话说,现在的微广场、即刻都是存在一定的法律风险的。
好的,知道了。谢谢回复!
有很多网站,没有标注 RSS,实际都可订阅
博客类不用说,论坛类输入各分区域名,还可分区订阅
(⊙v⊙)嗯,是的,我就是这么做的,但是这种技能对一般爱好者来说也算「黑科技」的范畴了……
最担心的是星标文章会不会丢失。
这倒是应该不用太担心,官方说了,这些数据都会往后陆续恢复的
反正就是用户名所述,业界良心咯。我也了解到,好些明面上没有标识出rss的网址,其实也隐藏着rss地址的,只是有时候要费功夫去寻找。不知道大伙有什么好的查找经验可以分享呢?
可以看看我的总结贴:https://www.zhihu.com/question/19738470/answer/85139363
好啊,好久不折腾这些技巧了。先回复,再去拜读。
刚转到InoReader就看到了这条消息,心塞
现在官方已经修好啦,不用担心。
同时欢迎你入坑:)
所以送两个月专业账户,为啥我的帐户未读文章还是1000+,没有具体显示呢
这个你要问官方了,我只是翻译的……….