distributed

    1热度

    1回答

    我有一个包含40名工作人员的计算网络,但我只需要在特定主机上执行计算。是否可以限制或重建仅使用指定工作人员的网络?

    0热度

    1回答

    我正在尝试编写代码,将从名为my_file_*.csv的一组CSV中读取到Dask数据框中。 然后我想根据CSV的长度设置分区。我试图在每个分区上映射一个函数,为了做到这一点,每个分区必须是整个CSV。 我试过重置索引,然后根据每个CSV的长度设置分区,但它看起来像Dask数据帧的索引不是唯一的。 根据每个CSV的长度是否有更好的分区方法?

    1热度

    1回答

    我试图做一个分布式程序做一个简单的工作(检查素数),显然程序正在一个阻塞的等待下降,我不知道为什么。它是一个生产者 - 消费者程序并且必须为每个生产者呼叫或消费者呼叫创建一个线程。任何人都可以帮我吗? Ps:问题是间歇性的。 我的代码是波纹管: #include <pthread.h> #include <iostream> #include <atomic> #include <time.

    0热度

    1回答

    在分布式Tensorflow中,我们可以运行多个在Parameter-Server体系结构中与工作人员一起工作的客户机,这就是所谓的“图间复制”。根据该文件, 之间-图形复制。在此方法中,每个/作业:工作任务都有一个单独的 客户端,通常与工作任务 的进程相同。 它说在客户端和工人通常是在同一个进程。但是,如果它们不在同一个过程中,客户数量是否可以不等于工人数量?另外,多个客户可以共享并在同一个CP

    1热度

    1回答

    我的应用程序基于Java的Play Framework。我只是通过将相同的应用程序部署到多个服务器上并在它们之间分配Web请求来进行分发。每个节点将连接到同一个数据库。 Play Framework已经使用Netty,所以我可以选择使用HTTP请求进行节点之间的通信,但我不确定如何保护这些请求中的一部分,以便其中一些可以从浏览器中调用,即我正在使用该框架的网站仍然可以调用某些路由/ API端点,而

    0热度

    1回答

    我在centOS 8上为CPU构建TF 1.0二进制文件。如果Supervisor的logdir位于本地磁盘中,我的分布式MNIST数据训练代码可以正常工作。但是,如果我改变监督员LOGDIR到HDFS,代码将停留在主管的初始化: sv = tf.train.Supervisor(is_chief=(FLAGS.task_index == 0), logdir='hdfs://c

    0热度

    1回答

    我正在学习分布式Tensorflow。 https://www.tensorflow.org/deploy/distributed # Create and start a server for the local task. server = tf.train.Server(cluster, job_name=FLAGS.job_name, task_index=FLA

    0热度

    1回答

    我已经设法使用JMeter和最多400个虚拟线程进行简单测试,然后笔记本电脑被冻结。它具有8千兆字节的RAM和一个2.4 GHz处理器的英特尔酷睿i5处理器。 然后,我通过使用Oracle Virtual Box和一个主节点在我的笔记本电脑上创建了两个从节点。我在非GUI模式下运行测试,并且在我的笔记本电脑被冻结之前,我可以运行的最大虚拟线程数也是400,通过将200设置为JMX文件上的线程数(每

    0热度

    1回答

    Code这里显示了如何设置每个具有使用一个GPU的塔的副本。 我目前用于在工作机上使用所有GPU的方式是启动等于GPU数量的工作人员数量。那么工人们可以相互沟通,就好像他们不在一台机器上一样。这比我能开始控制多个GPU的工作慢。 我想知道是否有办法改变这个代码一点点,以利用像这样的例子在一台机器上的多个GPU。

    2热度

    1回答

    当与后端multiprocessing一起使用时,进度条的运行非常漂亮,但使用distributed调度程序作为后端时看起来完全不起作用。 有没有办法解决这个问题?还是另一种解决方案distributed包本身有一些进度条,但它们都需要一个未来的工作列表。