首页 > 其他分享 >【HDP】jupyter配置pyspark

【HDP】jupyter配置pyspark

时间:2023-08-24 13:22:53浏览次数:40  
标签:jupyter HDP -- 0.0 pyspark log4j


source /usr/hdp/3.3.1.0-002/spark2/bin/load-spark-env.sh

nohup jupyter notebook --no-browser --port 18888 --ip 0.0.0.0 --allow-root --NotebookApp.token=root > jupyter.log 2>&1 &

 

关闭INFO级别日志

$SPARK_HOME/conf/log4j.properties

log4j.rootCategory=WARN, console

 

 

 

标签:jupyter,HDP,--,0.0,pyspark,log4j
From: https://www.cnblogs.com/startnow/p/17653904.html

相关文章

  • jupyter的nginx配置
    一、背景有多台服务器都有部署jupyternotebook服务或者jupyterlab服务,可采用nginx进行配置,采用统一的入口,通过不同路由将请求分发到不同机器上例如分别在10.10.10.10,10.10.10.11,10.10.10.12有部署jupyter服务,现在需要统一入口从10机器进入,通过nginx配置转发到11和12机器上二......
  • 使用PySpark计算AUC,KS与PSI
    当特征数量或者模型数量很多的时候,使用PySpark去计算相关指标会节省很多的时间。网上关于使用PySpark计算相关指标的资料较少,这里抛砖引玉,写了三个风控常用的指标AUC,KS和PSI相关的计算方法,供参考。AUCAUC的相关概念网上已经有很多的很好的文章,这里不在赘述,AUC使用的到的计算公式......
  • win10 搭建pyspark环境
    1、环境配置教程:地址 2、测试代码示例importosimportfindsparkos.environ['JAVA_HOME']='D:\Java\jdk1.8.0_311'#这里的路径为java的bin目录所在路径spark_home="D:\spark-3.0.3-bin-hadoop2.7"python_path="D:\Anaconda3\bin\python"f......
  • 开启Jupyter的远程访问
    环境ubuntu22,JupyternotebookJupyternotebook装到服务器上,每次都跑机房开Jupyternotebook实在不方便,遂开启远程访问步骤安装并配置Jupyter。确保您已经安装了JupyterNotebook或JupyterLab,并且它们已经正确配置。打开终端或命令提示符,并使用以下命令进入Jupyter的配置目......
  • 改大蟒蛇Anaconda中Jupyter Notebook默认工作路径
    先用大蟒蛇的终端生成配置文件输入jupyternotebook--generate-config然后会告诉你生成文件的地址。文本模式打开该文件搜索“Thedirectorytousefornotebooks”,把下面的取消注释,写好文件目录重启即可......
  • pyspark写入文件
    ##py_spark_rdd2py.py#py_learn##CreatedbyZ.Steveon2023/8/1311:39.##1.rdd.collect()将rdd变为list#2.rdd.reduce()不分组,对rdd数据做两两聚合frompysparkimportSparkConf,SparkContextconf=SparkConf().setMaster("local[*]")......
  • pyspark小demo2
    ##py_pyspark_demo2.py#py_learn##CreatedbyZ.Steveon2023/8/1310:55.#importjson#1.导入库frompysparkimportSparkConf,SparkContext#2.创建SparkConf和SparkContext对象conf=SparkConf().setMaster("local[*]").setAppName(&q......
  • pyspark的filter()、distinct()、sortBy() 函数
    ##py_pyspark_test.py#py_learn##CreatedbyZ.Steveon2023/8/1217:38.#frompysparkimportSparkConf,SparkContextconf=SparkConf().setMaster("local[*]").setAppName("rdd_test")sc=SparkContext(conf=conf)#rdd=......
  • pyspark小案例
    ##py_pyspark_demo.py#py_learn##CreatedbyZ.Steveon2023/8/1215:33.##统计文件中各个单词出现的次数#1.导入库frompysparkimportSparkConf,SparkContext#2.创建SparkConf对象和SparkContext对象conf=SparkConf().setMaster("local......
  • pyspark使用
    ##py_pyspark.py#py_learn##CreatedbyZ.Steveon2023/8/1017:51.##pyspark编程主要分三步:1.数据输入。2.数据处理。3.数据输出。#RDD:ResilientDistributedDatasets弹性分布式数据集#1.安装pyspark库#pip3installpyspark#2.导入p......