(メモを読む)SecureML:スケーラブルなプライバシー保護機械学習のためのシステム



Secureml



SecureML

  • プライバシー保護のためのアウトソーシング推論とトレーニングに関する先駆的な研究であり、線形回帰、ロジスティック回帰、ニューラルネットワークの実装プロセスを詳細に分析します。加算は独立して計算でき、乗算プロトコルはオフライン乗算トリプルを使用して設計されています。どちらも単純な直線性を実現します。 ReLU活性化関数、Softmax正規化関数などの非線形関数の組み合わせ計算と、近似またはテイラー級数展開のための低次線形多項式の使用との比較、この論文では、活性化関数を実現するための新しい単純なピースワイズ活性化関数を具体的に設計します。正規化関数は、指数単位を置き換えることによって実現されます。この記事では、多くの効率と安全性の分析が提供され、C ++プラットフォームで多くの実験が実行されます。
  • ただし、この記事にはいくつかの欠陥があります。
  1. 安全な非線形関数の設計は比較的単純であり、普遍的ではありません。非線形関数の共有に対する完璧なソリューションを提案するにはどうすればよいですか?たとえば、非線形と線形の間の変換は安全に実現できますか?
  2. 浅いパーセプトロンまたはニューラルネットワーク(機械学習)にのみ適用できます。高い計算効率を維持しながらプライバシー保護ディープニューラルネットワークを実現するために、どのように拡張できますか?つまり、平文計算と暗号文計算の間のギャップを狭める方法はありますか?
  3. 高密度状態のニューラルネットワークトレーニングには、計算の精度要件が高くなります。エラーの伝播と派生を制御する方法は?