🎉 Protenix v0.7.0 发布:扩散模型推理速度大提升!🚀
Protenix v0.7.0聚焦于扩散模型(Diffusion Inference)推理性能优化,加速3-6倍!
引入了三个可选的推理加速选项(默认开启)
- enable_cache :通过预计算并缓存可跨 N_sample 和 N_step 维度共享的中间变量(如 pair_z, p_lm, c_l),消除冗余计算。
- enable_fusion :运行时,将 24 层扩散 Transformer块中的偏置(bias)计算和归一化操作进行融合及共享,提升效率,消除冗余计算。
- enable_tf32 :在使用 FP32 浮点计算时,启用 TF32 精度进行矩阵乘法。以极小的数值精度损失为代价,换取显著的速度提升。

🎉 Protenix v0.7.0 发布:扩散模型推理速度大提升!🚀
Protenix v0.7.0聚焦于扩散模型(Diffusion Inference)推理性能优化,加速3-6倍!
引入了三个可选的推理加速选项(默认开启)