首页 > 其他分享 >算子

算子

时间:2022-09-03 15:23:07浏览次数:72  
标签:求交 PSI 计算 联合 算子 PIR

本文学习文章 “隐私计算中的算子是个啥?可视化组合配置的算子解决方案了解下”,并记录笔记。

算子

image-20220903144640023

  • 算子,一个计算函数,一个计算单元。

image-20220903144832317

  • 通过不同的算子组合可以完成既定的任务,比如加法和乘法可以作为算子,就可以完成\(f=2x+1\)的计算。
  • 在隐私计算中,各类算子可以构成一定的功能,比如PIR、PSI等,其中包含大量算子的管理、执行和调度。

image-20220903145243116

  • 平台将算法封装为算子,比如:逻辑回归、XGBoost、朴素贝叶斯、支持向量机、深度学习、聚类算法等。

image-20220903150247435

  • PSI和PIR也封装为算子。
  • PSI分为:(1)静态PSI,即样本安全对齐,指参与方数据不变的前提下求交;(2)动态PSI,即样本回溯对齐,值可以在参与方数据变动的情况下完成求交

image-20220903150709931

  • Tusita好像并未开源。
  • MPC可以用于:多方安全计算(MPC)在基础运算、联合统计、隐匿查询(PIR)、安全求交(PSI)、特征工程、联合建模、联合预测等。
  • FL可用于安全求交(PSI)、特征工程、联合建模、联合预测等

标签:求交,PSI,计算,联合,算子,PIR
From: https://www.cnblogs.com/pam-sh/p/16652668.html

相关文章

  • sparkstreaming行动算子
    查看//默认是前10条print(num)保存数据一批次产生一个文件packageSparkStreaming.actionimportorg.apache.spark.SparkConfimportorg.apache.spark.streami......
  • sparkstreaming转换算子--窗口函数
    window画图理解说明countByWindow对每个滑动窗口的数据执行count操作reduceByWindow对每个滑动窗口的数据执行reduce操作reduceByKeyAndWindow对每个滑动窗口的......
  • SparkStreaming中的转换算子2--有状态的转换算子updateStateByKey
    将之前批次的状态保存,packageSparkStreaming.transimportorg.apache.spark.SparkConfimportorg.apache.spark.storage.StorageLevelimportorg.apache.spark.str......
  • SparkStreaming中的转换算子1
    转换算子1---map,flatMapRDD支持的转换算子DStream大部分都是支持的map、flatMap、filter、distinct、union、join、reduceByKey......RDD中部分行动算子DStream会当作......
  • DataFrame中的行动算子操作2
    ##修改hdfs-site.xml<property><name>hive.metastore.warehouse.dir</name><value>hdfs://node1:9000/user/hive/warehouse</value><description>locationof......
  • DataFrame中的行动算子操作1
    valconf=newSparkConf().setAppName("action").setMaster("local[*]")valsession=SparkSession.builder().config(conf).getOrCreate()valseq:Seq[(String,In......
  • DataFrame中的转换算子操作1
    valsparkConf=newSparkConf().setMaster("local[2]").setAppName("tran")valsparkSession=SparkSession.builder().config(sparkConf).getOrCreate()valseq:Seq......
  • DataFrame中的转换算子2
    valsparkConf=newSparkConf().setMaster("local[2]").setAppName("tran")valsparkSession=SparkSession.builder().config(sparkConf).getOrCreate()valseq:Seq......
  • 分区器算子--转换算子
    1.HashPartitioner定义:HashPartitioner----按照key值的hashcode的不同分到不同分区里面弊端:可能会造成数据倾斜问题(每一个分区分配的数据可能差别很多)objectWordCo......
  • 键值对行动算子
    1.countByKey定义:countByKey():scala.collection.Map(K,Long)按照key值计算每一个key出现的总次数案例:valrdd:RDD[(String,Int)]=sc.makeRDD(Array(("zs",60),("zs",70)......