Privacy Computing Technology Based on Homomorphic Encryption
Published:
基于同态加密的隐私计算
同态加密(HE)用于计算控制密文数据。其特性是计算过程中无需解密密文,且使得密文计算结果等于明文计算结果,运算中不会泄漏任何数据和计算结果的隐私信息,这也是同态加密最吸引人之处。依据HE方案所支持的操作与对方案设计的电路限制可分为如下类别:
- 部分同态加密 (Partially Homomorphic Encryption, PHE) 只能支持一种运算的的HE方案,比如Pallier HE只支持加法同态
- 另一种部分同态加密(Somewhat Homomorphic Encryption, SHE) 只能支持一定次数加法和乘法运算,即不支持任意深度的电路计算。
- 分级同态加密(Leveled Homomorphic Encryption, LHE) 与SHE非常类似,在一些论文中将两着归为一类。仅有的与SHE不同之处在于实例化LHE方案中,对控制参数$d$的选取范围。
- 全同态(Fully Homomorphic Encryption, FHE)
论文 | 主题 | 年份 | 来源 | 源代码 |
---|---|---|---|---|
When Homomorphic Encryption Marries Secret Sharing: Secure Large-Scale Sparse Logistic Regression and Applications in Risk Control | Homomorphic Encryption, Secret Sharing, Machine Learning | 2021 | Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining | — |
MP-SPDZ: A Versatile Framework for Multi-Party Computation | Homomorphic Encryption, Secure Multi-Party Computation | 2020 | Proceedings of the 2020 ACM SIGSAC Conference on Computer and Communications | https://github.com/data61/MP-SPDZ |
Sphinx: Enabling Privacy-Preserving Online Learning over the Cloud[1] | Homomorphic Encryption, Differential Privacy, Machine Training | 2022 | S & P | – |
GALA: Greedy ComputAtion for Linear Algebra in Privacy-Preserved Neural Networks | Machine Learning, Secure Multiparty Computation | 2021 | The Network and Distributed System Security Symposium | – |
BatchCrypt: Efficient Homomorphic Encryption for Cross-Silo Federated Learning | Homomorphic Encryption, Machine Learning | 2020 | In 2020 USENIX Annual Technical Conference | https://github.com/marcoszh/BatchCrypt |
Homomorphic Secret Sharing: Optimizations and Applications | Homomorphic Encryption, Secret Sharing | 2017 | Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security | — |
Multiparty computation from somewhat homomorphic encryption | Homomorphic Encryption, Secure Multiparty Computation | 2012 | In Annual Cryptology Conference | — |
论文1中描述了一下场景,用户将数据和模型都存储在云端,并且把关于训练和打标签的计算都依托在云服务器上。在公有云计算的场景下,已经存在许多隐私保护机器学习的技术,比如混淆和加密等。这些加密技术都在试图寻求训练和预测过程中计算成本和安全强弱之间的平衡,抑或是寻求第三方可信中心的存在。一般在PPML方案中都会在模型性能、计算复杂度、通信复杂度和安全性几维度进行平衡。上文将HE和DP结合,将模型参数用明文的形式保存在服务器,这部分训练和预测计算同明文实现一样,不会增加加密出现的负担。
- — 模型 —
方案是服务器-客户端模型:服务器向用户端提供保密数据训练和预测服务,并保证用户数据的安全性和隐私性。模型分为训练阶段和预测阶段,训练阶段用户向服务器提供密文数据,服务器通过迭代更新模型。模型运行遵循隐私保护训练协议,服务器得到最后的训练模型,该模型可以发送回用户或者存储在服务器上。在预测阶段,用户输入预测数据,根据模型的到预测结果。在训练和预测过程中,服务器无法获取用户任何敏感信息。
- — ML操作 —
线性层,神经网络中的卷积层和全联接层 非线性层,最大池化,激活函数,比如ReLU,Sigmoid函数,
非线性层,神经网络中的