如何解决如何对分解的张量运算执行 einsum?
我正在尝试衡量 np.einsum('bcd,bce,bef->df' tensor1,tensor2,tensor1)
和 np.einsum('...->...',decomposed_tensor1,decomposed_tensor1)
操作之间的加速性能。我使用的分解方法是tensorly.decomposition.tucker
然而,对于deposited_tensor,张量操作,遵循我应该总结的索引是很混乱的。
以下是张量和分解张量的维度。
from tensorly.decomposition import tucker
import numpy as np
d1,d2,d3 = 256,4,12
# the tensor of interest
tensor1 = np.random.rand(d1,d3)
# a tensor with appropriate dimensions to perform operations
tensor2 = np.random.rand(d1,d2)
# tensor1,tensor1 operation
tens1Tens2tens1 = np.einsum('ilk,ilm,imp->kp',tensor1,optimize='optimal')
# tucker decomposition of the tensor1
rank_tucker = (8,2)
core,factors = tucker(tensor1,rank_tucker)
print("Core Dimension:\t\t",core.shape)
print("Factors Dimensions:\t",[f.shape for f in factors])
# decomposed_tensor1,decomposed_tensor1
# decTens1tens2decTens1 = np.einsum('...->...',core,factors,factors)
出:
Core Dimension: (8,2)
Factors Dimensions: [(256,8),(4,4),(12,2)]
有人可以指导我应该如何执行这个分解的张量和张量操作吗?
谢谢。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。