首页 > 其他分享 >MapReduce实战之过滤日志及自定义日志输出路径案例(自定义OutputFormat)

MapReduce实战之过滤日志及自定义日志输出路径案例(自定义OutputFormat)

时间:2022-12-26 16:33:59浏览次数:61  
标签:OutputFormat http 自定义 hadoop org apache import 日志 com


1)需求

       过滤输入的log日志中是否包含atguigu

       (1)包含atguigu的网站输出到e:/atguigu.log

       (2)不包含atguigu的网站输出到e:/other.log

2)输入数据

​http://www.baidu.com​​​ http://www.google.com
http://cn.bing.com
http://www.atguigu.com
http://www.sohu.com
http://www.sina.com
http://www.sin2a.com
http://www.sin2desa.com
http://www.sindsafa.com

输出预期:

1:http://www.atguigu.com

2:

​http://cn.bing.com​​​ http://www.baidu.com
http://www.google.com
http://www.sin2a.com
http://www.sin2desa.com
http://www.sina.com
http://www.sindsafa.com
http://www.sohu.com

3)具体程序:

(1)自定义一个outputformat

package com.atguigu.mapreduce.outputformat;

import java.io.IOException;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.RecordWriter;

import org.apache.hadoop.mapreduce.TaskAttemptContext;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

 

public class FilterOutputFormat extends FileOutputFormat<Text, NullWritable>{

 

       @Override

       public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext job)

                     throws IOException, InterruptedException {

 

              // 创建一个RecordWriter

              return new FilterRecordWriter(job);

       }

}

(2)具体的写数据RecordWriter

package com.atguigu.mapreduce.outputformat;

import java.io.IOException;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.RecordWriter;

import org.apache.hadoop.mapreduce.TaskAttemptContext;

 

public class FilterRecordWriter extends RecordWriter<Text, NullWritable> {

       FSDataOutputStream atguiguOut = null;

       FSDataOutputStream otherOut = null;

 

       public FilterRecordWriter(TaskAttemptContext job) {

              // 1 获取文件系统

              FileSystem fs;

 

              try {

                     fs = FileSystem.get(job.getConfiguration());

 

                     // 2 创建输出文件路径

                     Path atguiguPath = new Path("e:/atguigu.log");

                     Path otherPath = new Path("e:/other.log");

 

                     // 3 创建输出流

                     atguiguOut = fs.create(atguiguPath);

                     otherOut = fs.create(otherPath);

              } catch (IOException e) {

                     e.printStackTrace();

              }

       }

 

       @Override

       public void write(Text key, NullWritable value) throws IOException, InterruptedException {

 

              // 判断是否包含“atguigu”输出到不同文件

              if (key.toString().contains("atguigu")) {

                     atguiguOut.write(key.toString().getBytes());

              } else {

                     otherOut.write(key.toString().getBytes());

              }

       }

 

       @Override

       public void close(TaskAttemptContext context) throws IOException, InterruptedException {

              // 关闭资源

              if (atguiguOut != null) {

                     atguiguOut.close();

              }

             

              if (otherOut != null) {

                     otherOut.close();

              }

       }

}

(3)编写FilterMapper

package com.atguigu.mapreduce.outputformat;

import java.io.IOException;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

 

public class FilterMapper extends Mapper<LongWritable, Text, Text, NullWritable>{

      

       Text k = new Text();

      

       @Override

       protected void map(LongWritable key, Text value, Context context)

                     throws IOException, InterruptedException {

              // 1 获取一行

              String line = value.toString();

             

              k.set(line);

             

              // 3 写出

              context.write(k, NullWritable.get());

       }

}

(4)编写FilterReducer

package com.atguigu.mapreduce.outputformat;

import java.io.IOException;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Reducer;

 

public class FilterReducer extends Reducer<Text, NullWritable, Text, NullWritable> {

 

       @Override

       protected void reduce(Text key, Iterable<NullWritable> values, Context context)

                     throws IOException, InterruptedException {

 

              String k = key.toString();

              k = k + "\r\n";

 

              context.write(new Text(k), NullWritable.get());

       }

}

(5)编写FilterDriver

package com.atguigu.mapreduce.outputformat;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

 

public class FilterDriver {

       public static void main(String[] args) throws Exception {

 

args = new String[] { "e:/input/inputoutputformat", "e:/output2" };

 

              Configuration conf = new Configuration();

 

              Job job = Job.getInstance(conf);

 

              job.setJarByClass(FilterDriver.class);

              job.setMapperClass(FilterMapper.class);

              job.setReducerClass(FilterReducer.class);

 

              job.setMapOutputKeyClass(Text.class);

              job.setMapOutputValueClass(NullWritable.class);

             

              job.setOutputKeyClass(Text.class);

              job.setOutputValueClass(NullWritable.class);

 

              // 要将自定义的输出格式组件设置到job中

              job.setOutputFormatClass(FilterOutputFormat.class);

 

              FileInputFormat.setInputPaths(job, new Path(args[0]));

 

              // 虽然我们自定义了outputformat,但是因为我们的outputformat继承自fileoutputformat

              // 而fileoutputformat要输出一个_SUCCESS文件,所以,在这还得指定一个输出目录

              FileOutputFormat.setOutputPath(job, new Path(args[1]));

 

              boolean result = job.waitForCompletion(true);

              System.exit(result ? 0 : 1);

       }

}

标签:OutputFormat,http,自定义,hadoop,org,apache,import,日志,com
From: https://blog.51cto.com/u_12654321/5969331

相关文章

  • Azure ARM (24) 自定义Azure Policy
    《WindowsAzurePlatform系列文章目录》 我们可以自定义policy,来符合公司的IT策略。我们这里演示的场景是,增加一个自定义policy,需要用户在创建vnet,或者......
  • 一个简单的c++写日志类
    在开发当中有的直接调试很方便,有的就不太好调试,所以我经常使用写日志以及输出Debug信息来进行开发。尽管我比较喜欢使用以输出Debug的信息的方式来跟踪程序。因为直接一句......
  • 实现JNI的另一种方法:使用RegisterNatives方法传递和使用Java自定义类
    除了使用传统方法实现JNI外,也可以使用RegisterNatives实现JNI。和传统方法相比,使用RegisterNatives的好处有三点:1、C++中函数命名自由,不必像javah自动生成的函数声明那样,拘......
  • Sql Server 压缩数据库日志文件的方法解析
    SqlServer日志_log.ldf文件太大,数据库文件有500g,日志文件也达到了500g,占用磁盘空间过大,且可能影响程序性能,需要压缩日志文件,下面小编给大家讲解下SqlServer压缩数据......
  • 基于AD Event日志监测域内信息探测行为
    01、简介当攻击者获得内网某台域内服务器的权限,就会以此为起始攻击点,尽可能地去收集域的信息,以获取域控权限作为内网的终极目标。例如,攻击者会在内网中收集域管理员用户列......
  • 001 自定义QuerySet
    1、为什么会有自定义QuerySet?       这里举一个我们公司出现的情景,我们公司最新增加了广告投放,因此需要基于广告投放做一个分析,广告投放有5个utm参数,不知道可以自......
  • django,多对多,序列化组件,ORM批量操作数据,自定义分页器
    django,多对多,序列化组件,ORM批量操作数据,自定义分页器多对多三种创建方式1.全自动classBook(models.Model):title=models.CharField(max_length=32)authors......
  • Vue 自定义菜单组件
    第一步:创建组件  数源 子组件接收父页面传值用的是props props:['menuList']; 第二部使用组件 1.使用import导入组件 importtreeMenufrom'........
  • QT实现异步日志
    #include<QCoreApplication>#include<QDateTime>#include<QDir>#include<QFile>#include<QProcess>#include<QTextStream>#include<QTimer>#defineROLLSIZE1000*......
  • CMFCShellList和自定义ShellList结合使用,达到“直接浏览缩略图,双击打开图片”...
    在GOPaint的设计研究过程中,我一直希望能够实现这样的结果(ABC3个步骤)在我之前的博客里面,曾经有过缩略图显示的现就,也应用到了实际的项目中。但是现在过了一......