代码之家  ›  专栏  ›  技术社区  ›  mway

衡量高容量数据库服务器

  •  0
  • mway  · 技术社区  · 14 年前

    我认为这部分是主观的,因为它可能取决于每个人对“高容量”的解释,但为了讨论,我想用一种假设的方式来处理这个问题。另外,如果这是ServerFault独有的内容,请告诉我,我会很乐意在那里重新发布。

    显然,有许多著名的数据库服务器-其中最受称赞的可能是MySQL。很多人对SQLite、PostgreSQL甚至MSSQL都信誓旦旦(我承认我只使用过MySQL和SQLite)。我在处理中低流量(<=1000000次/月)的MySQL(其中数据库交互是最小的或中等的(例如,没有复杂的子查询、宽连接等)和中高流量的MySQL集群方面取得了很多成功。也就是说,我想知道基于文件系统的系统对于极高流量(假设为100000个并发连接)的有效性。

    我知道,使用MySQL Cluster之类的工具可以在一个从属服务器出现故障时跨工作从属服务器重新分配查询,但是如果您有一个单一的应用程序,在逻辑上不可能将使用情况分成不同的服务器,那么有没有一个解决方案比仅仅增加cpu更有效?可能使用文件系统存储 挂载点?我想了解一下利弊。

    1 回复  |  直到 14 年前
        1
  •  1
  •   Jonathan Leffler    14 年前

    参见维基百科关于 C10K 因为维基百科页面上的内容太少了。可以说,C10K指的是拥有10000个并发客户机的问题。你问的是一个数量级更大的问题——这在实践中相应地更难,也更难实现。你正在迅速侵占谷歌的搜索领域,需要谷歌规模的基础设施来应对。