scalability

    -1热度

    1回答

    我有一些问题,我希望有人能够为我解答。 我们的情况是,我们正在考虑对现有系统进行全面替代。首先我要描述我们现有的系统。 我们目前正在纯粹的对象堆栈上运行。环境是面向对象,数据库是面向对象。我们目前有2-3百万行代码,由2-3人开发,目前我们有一个6人的开发团队,这个团队继续发展。最初的发展始于1997年,我们安装了许多客户。环境是64位,语言和数据库,多语言,并且是UNICODE。我们使用的操作系

    0热度

    1回答

    试图仅使用HTML/CSS制作可缩放的字体大小。它会起作用吗?

    0热度

    1回答

    我们在windows server 2012上部署了一个简单的express节点服务器,它只接收3个参数的GET请求。它对这些参数做了一些小的处理,有一个非常简单的内存节点缓存用于缓存这些参数组合中的一些,与外部许可证服务器的接口为请求用户提取许可证并将其设置在cookie中,随后是,它通过负载平衡器(使用zmq运行)与一些工作人员进行交互,以下载一些大文件(分块,解压并提取它们,将它们写入某些目

    0热度

    2回答

    我们要在改造一个CMS为基础的网站的,我们希望服务至少10+万独立用户/月的电视频道,约400多万个请求/月,平均带宽40兆兆字节的工作/月这是他们的旧网站的CloudFlare统计数据,他们期待更多。我们正在计划将后端作为rest API来构建,作为前端响应和另一个响应cms管理员面板的应用程序API,我们之间争论不休。 Ruby和节点,还有一些人说节点更快,在资源消耗方面会更便宜,Ruby对节

    2热度

    1回答

    假设我可以在带有张量流的GTX 1070卡上训练样本大小为N,批次大小为M,网络深度为L。现在,假设我想要训练更大的样本2N和/或更深的网络2L并解决内存错误。 插入额外的GPU卡会自动解决这个问题(假设所有GPU卡的内存总量足以容纳批次和它的渐变)?或者纯张量流不可能? 我读过,有比特币或etherium的矿工,可以用多张GPU卡建立采矿场,而且这个矿场的采矿速度会更快。 采矿农场是否也能更好地

    0热度

    4回答

    这听起来像一个愚蠢的问题,但我仍然希望有人/专家接听/证实了这一点。 可以说我有一个3节点集群卡桑德拉。可以说我有一个数据库和一个表。对于这个单独的表可以说我得到了3个节点cassandra的1K写/秒的吞吐量。如果明天我在这张表上的写入负载增加/缩放到10K或20K,我能通过增加10倍或20倍的簇大小来处理这种写入负载吗? 我卡桑德拉的理解说,这是可能的(如Cassandra是读写可扩展),但希

    1热度

    1回答

    正在尝试运行mesos火花作业集群查询弹性数据,使用esJsonRDD查询是这样的: Fetching esJsonRDD from elasticsearch with complex filtering in Spark ,并为多跑细小于32个节点的节点弹性群集。作为弹性节点的增加,作业失败下面的例外: org.elasticsearch.hadoop.EsHadoopIllegalArgum

    1热度

    2回答

    的数千我想与数百个测试的上传服务,如果不是数千,慢 HTTPS连接 同时。 我想有很多,比如3G质量的连接, ,每个节点都有低带宽和高延迟,每个发送几兆字节的数据直到服务器, 导致大量的并发的长期请求由服务器处理。 有许多负载生成工具可以生成数千个同时发生的请求。 (我目前使用Locust,主要是让我可以 优势,用Python写的我现有的客户端库。) 这类工具通常通过共享网络链路尽可能快地 运行每

    0热度

    3回答

    我拥有数百万个文档(接近1亿个),每个文档都有诸如skills,hobbies,certification和education的字段。我想找出每个文档与评分之间的相似度。 下面是一个数据的例子。 skills hobbies certification education Java fishing PMP MS Python reading novel SCM BS C#

    2热度

    1回答

    我们有用户数据库,用于创建/更新用户以及识别(读取)用户。我们阅读的次数比我们写的更多。写约100万/天,阅读大约1亿多。我们可以分开读写,但是AFAIK需要很强的一致性。 如果我们从读取副本开始读取,它将最终保持一致。用户创建时可能会出现一些情况,但尚未在只读副本中提供。或者,用户已经更新了一些信息(名称),并且这种改变在其他地区尚未出现。仅从一个地区服务意味着其他地区的更高延迟。 我们目前正在