作者:流行天王MJ | 来源:互联网 | 2023-09-03 17:56
我正在尝试模仿以下在PyTorch中完成的操作:
vol = Variable(torch.FloatTensor(A, B*2, C, D, E).zero_()).cuda()
for i in range(C):
if i > 0 :
vol[:, :B, i, :,i:] = input0[:,:,:,i:]
vol[:, B:, i, :,i:] = input1[:,:,:,:-i]
else:
vol[:, :B, i, :,:] = input0
vol[:, B:, i, :,:] = input1
到目前为止,我已经尝试在TF中使用以下切片分配并将其包装在Keras Lambda层中:
vol = tf.Variable(K.zeros((A, D, E, C, B*2)))
for i in range(C):
if i > 0:
vol[:, :, i:, i, :B].assign(input0[:,:,i:,:])
vol[:, :, i:, i, B:].assign(input1[:,:,:-i,:])
else:
vol[:, :, :, i, :B].assign(input0)
vol[:, :, :, i, B:].assign(input1)
return vol
我也尝试过vol = vol […].assign(…).
这将值正确分配给vol变量,然后我可以将其转换为张量以在图的其余部分中使用.但是,此操作的梯度未在TF中定义(LookupError:未为操作’strided_slice / _assign'(操作类型:StridedSliceAssign)定义梯度),并且该梯度不会传播到生成input0和input1的先前图层,尽管它们似乎确实在PyTorch实现中被转移了.有没有一种方法可以在TF中构造相同的变量,从而定义渐变并且我之前的操作没有None渐变?
解决方法:
您需要“手动”构造张量.假设input0和input1都具有形状(A,D,E,B),则可以执行以下操作:
# Make the indexing mask with TensorFlow
in_shape = tf.shape(input0)
in_dims = 4
idx = tf.meshgrid(*[tf.range(in_shape[i]) for i in range(in_dims)], indexing='ij')[2]
idx = tf.expand_dims(idx, axis=3)
r = tf.range(C)[tf.newaxis, tf.newaxis, tf.newaxis, :, tf.newaxis]
mask = idx >= r
# If all dimensions are known at graph construction time, you can instead
# make the mask with NumPy like this to save graph computation time
idx = np.meshgrid(*[np.arange(d) for d in (A, D, E, B)], indexing='ij')[2]
idx = np.expand_dims(idx, 3)
r = np.arange(C)[np.newaxis, np.newaxis, np.newaxis, :, np.newaxis]
mask = idx >= r
# Make the tensor
input0_tile = tf.tile(tf.expand_dims(input0, 3), (1, 1, 1, C, 1))
input1_tile = tf.tile(tf.expand_dims(input1, 3), (1, 1, 1, C, 1))
zero_tile = tf.zeros_like(input0_tile)
vol0 = np.where(mask, input0_tile, zero_tile)
vol1 = np.where(mask, input1_tile, zero_tile)
vol = tf.concat([vol0, vol1], axis=-1)
请注意,您需要第一个或第二个块,然后是第三个块,而不是三个块(请参见注释).该代码使用tf.meshgrid和索引tf.range构建一个二进制掩码,然后使用tf.where从输入或零中选择值.