Tensorflow Federated(本地 DP)中的客户端级差分隐私

Client level differential privacy in Tensorflow Federated (Local DP)

我想用TFF实现本地DP模型,也就是说,每个客户端训练自己的差分隐私模型并向服务器发送噪声梯度,而服务器只是以标准的FL方式聚合和分发。我尝试将客户端优化器更改为 keras DP 优化器,但这没有用。任何建议表示赞赏。

首先,或许可以查看 Differential Privacy in TFF 教程,其中介绍了如何在 TFF 中进行中央 DP 训练。一旦你理解了这一点,我可以看到两种不同的方法来改变它以提供一些本地 DP 保证。

  1. 看看tff.learning.dp_aggregator is implemented. Instead of the pre-packaged tff.aggregators.DifferentiallyPrivateFactory, instantiate it with a tfp.DPQuery对象是如何实现你感兴趣的本地DP机制的,也许你需要的实现已经存在于某处。
  2. 完全按照您的需要从头开始实施自定义聚合器。请参阅 Implementing Custom Aggregations 教程作为起点。