首页 > 其他分享 >九月二十四日

九月二十四日

时间:2024-10-28 08:51:40浏览次数:1  
标签:String resultSet 二十四日 public sql import 九月 id

IDEA连接Hadoop

因为一些学习的需要,用到了idea连接hadoop,并对它进行一些相关的读写操作,总结一下大概的流程。

一、使hadoop集群可以被远程访问,配置一些文件,可以参考一些其它博主的教程,记住配置的URL或者IP地址以及远程访问用到的端口号。

二、在idea中建一个连接,测试一下是否可以连接hadoop

注意URL、密码、用户,URL写jdbc:hive2://IP:端口,ip可以写成自己配的映射

三、新建测试类

package com.hua;

import org.junit.Test;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;

public class test {

@Test
public void select()
{
String url = "jdbc:hive2://node1:10000/default";
String username = "root";
String password = "hadoop";

// 建立数据库连接
try {
Connection connection = DriverManager.getConnection(url, username, password);
System.out.println("连接成功!");

// 执行查询
Statement statement = connection.createStatement();
String sql = "SELECT * FROM me";
ResultSet resultSet = statement.executeQuery(sql);

// 处理查询结果
while (resultSet.next()) {
// 获取结果集中的数据
int empId = resultSet.getInt("id");
String empName = resultSet.getString("name");

// 输出结果
System.out.println("Employee ID: " + empId);
System.out.println("Employee Name: " + empName);
}

// 关闭连接
resultSet.close();
statement.close();
connection.close();
} catch (Exception e) {
e.printStackTrace();
}
}

public void delete()
{

}

public void add()
{

}

public void update()
{

}

}
连接成功

四、对数据库的修改以及删除操作,不用用sql中的delete以及update,hadoop不允许,可以搜一搜insert overwrite尝试一下,下面有相关的实例,大家可以了解一下

  1. 更新操作:

假设有一个名为employees的表,其中包含员工的信息(id、name、salary等)。要更新表中id为1的员工的薪水为5000,可以使用以下语句:

sql
  INSERT OVERWRITE TABLE employees
  SELECT
  id,
  name,
  CASE
  WHEN id = 1 THEN 5000
  ELSE salary
  END AS salary
  FROM employees;

上述语句将从employees表中选择所有字段,并使用CASE语句将id为1的员工的薪水更新为5000,其他员工的薪水保持不变。然后,将结果写回到原始表employees,实现了更新操作。

  1. 删除操作:

假设有一个名为sales的表,其中记录了销售数据。要删除表中所有销售额小于100的记录,可以使用以下语句:

 
  INSERT OVERWRITE TABLE sales
  SELECT *
  FROM sales
  WHERE amount >= 100;

原文作者:杳无音讯

原文链接:https://www.cnblogs.com/130-gzh/p/17694143.html

标签:String,resultSet,二十四日,public,sql,import,九月,id
From: https://www.cnblogs.com/binglinll/p/18509548

相关文章

  • 九月二十五日
    在Hadoop生态系统中,有以下几个重要的角色:NameNode(NN):NameNode是Hadoop分布式文件系统(HDFS)的主节点,负责管理文件系统的元数据。它维护文件和目录的层次结构、权限、块的位置等信息,并处理客户端的文件系统请求。DataNode(DN):DataNode是HDFS的数据节点,负责存储和管理实际的文件数......
  • 九月二十六日
    花时间编写了课上要求完成的企业erp系统原型,写出了其基本流程并且画了流程图内容如下1)基于企业进销存管理系统分析后得到的基本流程: 需求分析和规划:详细了解企业的运营模式、业务流程和管理需求,与相关部门和相关人员进行沟通和讨论,确定系统需求和目标。这一步包括对现有系统......
  • 九月二十七日
    面向对象程序设计中,类与类之间可以有多种关系,这些关系有助于描述类之间的相互作用和依赖。以下是一些常见的类与类之间的关系:继承(Inheritance): 继承是一种“是一个”关系,其中一个类可以从另一个类派生,继承其属性和方法。派生类(子类)可以重用父类的功能,并可以添加新功能或修改继......
  • 10月10日微语报,星期四,农历九月初八
     10月10日微语报,星期四,农历九月初八,工作愉快,生活喜乐!一份微语报,众览天下事!1、从严处置!网信部门曝光“毒视频”“开盒挂人”等涉未成年人乱象。2、A股新纪录诞生!东方财富成交额突破700亿,创个股单日历史成交天量。3、杭州:商业性个人房贷不再区分首套、二套住房,最低首付比......
  • 九月阅读有感(一)
    在这个快速迭代的软件开发时代,每一位软件工程系的学生都仿佛置身于一场没有硝烟的战争之中,面对着项目周期的紧迫、技术难题的挑战以及团队协作的复杂性。正是在这样的背景下,我有幸在老师的推荐下,阅读了被誉为“软件工程领域的圣经”——《人月神话》。这本书不仅是一次对软件项目......
  • 九月十六日
    9.168. 使用Hive进行大数据查询概述Hive是构建在Hadoop之上的数据仓库工具,用于处理大数据查询分析。本文将介绍如何使用Hive进行基本的SQL查询操作。内容Hive的基本概念和架构创建Hive表加载数据到Hive表执行SQL查询代码示例--创建表 CREATE T......
  • 九月九日
    1. Hadoop集群搭建与配置概述Hadoop是大数据处理框架,适用于分布式存储和处理大规模数据。本文将介绍如何搭建一个简单的Hadoop集群,包含基本的配置步骤和注意事项。内容Hadoop架构概述:HDFS、YARN、MapReduce环境要求:Java、SSH、Linux配置步骤:格式化NameNode,启动Hadoo......
  • 九月十一日
    3. 使用MapReduce实现词频统计概述MapReduce是Hadoop用于处理大规模数据的核心编程模型。本文将通过MapReduce代码实现简单的词频统计任务。内容MapReduce工作原理:Mapper和ReducerHadoop项目结构MapReduce程序代码代码示例public class WordCount{ publ......
  • 九月二十八
    以下代码的输出结果是什么?intX=100;intY=200;System.out.println("X+Y="+X+Y);System.out.println(X+Y+"=X+Y");为什么会有这样的输出结果?输出结果是:X+Y=100200100200=X+Y出现这样的输出结果是因为在Java中,当多个值连接在一起时,会根据操作符的优先级进行计算。在第一......
  • 九月二十六
    在计算机系统中,整数的表示通常使用原码、反码或补码这三种形式。以下是这三种码的定义和使用场景:原码:原码是最直观的表示方法,其中第一位是符号位(0表示正数,1表示负数),其余位表示数值的绝对值。例如,整数5的原码是00000101,而-5的原码是1000101。反码:反码是为了简化减法运算而设计的......