查看两个带有参数的函数签名
tf.train.shuffle_batch_join(
tensors_list,
batch_size,
capacity,
min_after_dequeue,
seed=None,
enqueue_many=False,
shapes=None,
allow_smaller_final_batch=False,
shared_name=None,
name=None
)
和
tf.train.shuffle_batch(
tensors,
batch_size,
capacity,
min_after_dequeue,
num_threads=1,
seed=None,
enqueue_many=False,
shapes=None,
allow_smaller_final_batch=False,
shared_name=None,
name=None
)
唯一的区别是不同的人
num_threads
从直觉上来说
tf.train.shuffle_batch
可以用多个线程或进程进行处理,但它们似乎做了几乎相同的工作。
我在想,除了批处理的多处理之外,是否有一个基本的区别可以让人选择其中一个。