首页 > 其他分享 >删除elasticsearch数据

删除elasticsearch数据

时间:2024-06-12 12:44:15浏览次数:28  
标签:127.0 9201 删除 0.1 segment sw elasticsearch http 数据

删除elasticsearch数据分为两种:一种是删除索引(数据和表结构同时删除,作用同sql server 中 drop table "表格名"),另一种是删除数据(不删除表结构,作用同 sql server中delete 语句)

1、查询索引

curl -XGET http://127.0.0.1:9201/_cat/indices?v

curl -u user:passwd  -XGET http://127.0.0.1:9201/_cat/indices?v
curl -XGET 'http://127.0.0.1:9201/_cat/indices' |awk '{print $3}' | awk -F'-' '{print $1}' |sort |uniq -c

得出占空间较大的索引的名称:

sw_log-20240609
sw_log-20240608
sw_log-20240607
sw_segment-20240610
sw_segment-20240611
sw_segment-20240609
sw_segment-20240608
sw_segment-20240607
sw_segment-20240606

2、手工删除
curl -XDELETE http://127.0.0.1:9201/sw_log-20240607
curl -XDELETE http://127.0.0.1:9201/sw_log-20240608
curl -XDELETE http://127.0.0.1:9201/sw_log-20240609

curl -XDELETE http://127.0.0.1:9201/sw_segment-20240606
curl -XDELETE http://127.0.0.1:9201/sw_segment-20240607
curl -XDELETE http://127.0.0.1:9201/sw_segment-20240608
curl -XDELETE http://127.0.0.1:9201/sw_segment-20240609
curl -XDELETE http://127.0.0.1:9201/sw_segment-20240610
curl -XDELETE http://127.0.0.1:9201/sw_segment-20240611

标签:127.0,9201,删除,0.1,segment,sw,elasticsearch,http,数据
From: https://www.cnblogs.com/walkersss/p/18243711

相关文章

  • 数据分享 I 1970-2021年各区县碳排放总量
    基本信息.数据名称:  1970-2021年各区县碳排放总量数据格式: Shp+excel数据几何类型: 面数据坐标系:  WGS84数据来源:网络公开数据......
  • 【龙溪系统docker 安装Oracle ,并连接本地数据库】
    安装docker(龙蜥系统)/安装docker/[root@localhostdockers]#cd/etc/yum.repos.d/查看配置文件/sudoyumupdate-y/更新YUM包/[root@localhostdockers]#sudofirewall-cmd--zone=public--permanent--add-port=443/tcp[root@localhostdockers]#sudofirewal......
  • 【龙溪系统docker 安装Oracle ,并连接本地数据库】(下)
    win10系统设置找到tnsnames.ora文件,然后写入:ORCL_DOCKER=(DESCRIPTION=(ADDRESS=(PROTOCOL=TCP)(HOST=本机IP地址)(PORT=1521))(CONNECT_DATA=(SERVER=DEDICATED)(SERVICE_NAME=helowin)))创建数据库角色Oracle/创建用户和角色/SELECT*FROM......
  • 金地集团:性能考量为首要,核心系统的数据库选型|OceanBase 《DB大咖说》(七)
    OLTP是关系型数据库的典型使用场景。然而,在实际应用中,除了OLTP外,OLAP能力也至关重要,因此催生了HTAP技术的发展。金地集团的核心系统,新一代预算管理系统,凭借OceanBase的HTAP能力,仅花费一年便实现了从研发到投入使用,其测算的性能效率显著提升,达到了90倍的飞跃,成功满足了集团整体......
  • 常见的数据寻址方式
    寄存器间接寻址:想象一下,你有一个信使(寄存器),他知道你想要的东西(操作数)放在哪里。你告诉信使去拿,但他得先看看地址本(寄存器里的地址信息)才知道东西具体在哪。这种方式挺快的,但信使可能要跑几趟,因为他得先查地址本,再去拿东西。相对寻址:这就像是你告诉信使,从当前位置(程序计数器......
  • DophinScheduler 如何定期删除日志实例?
    转载自东华果汁哥ApacheDophinScheduler运行一段时间后,实例调度日志越来越多,需要定期清理。SQL错误[1701][42000]:Cannottruncateatablereferencedinaforeignkeyconstraint(`dolphinscheduler`.`t_ds_task_instance`,CONSTRAINT`foreign_key_instance_id`)......
  • 50.基于SSM的停车场管理系统的设计与实现|基于SSM+ Mysql+Java设计与实现(可运行源码+
    内容概要:全套项目源码+详尽文档,一站式解决您的学习与项目需求。适用人群:计算机、通信、人工智能、自动化等专业的学生、老师及从业者。使用场景及目标:无论是毕设、期末大作业还是课程设计,一键下载,轻松部署,助您轻松完成项目。项目代码经过调试测试,确保直接运行,节省您的时......
  • spark读取Kafka数据写入postgreSQL
    Java代码importorg.apache.spark.SparkConf;importorg.apache.spark.api.java.function.VoidFunction;importorg.apache.spark.streaming.api.java.JavaInputDStream;importorg.apache.spark.streaming.api.java.JavaStreamingContext;importorg.apache.spark.stream......
  • MySql 增、删、改、查数据库
    前言之前几天写了MySql的GROUPBY语句和JOIN语句,今天补一下创建数据库、表的语句。首先假设已经暗转好MySQL数据库,然后创建数据库、表。创建数据库createdatabase[ifnotexists]数据库名;[CHARACTERSETcharset_name][COLLATEcollation_name];ifnote......
  • 数据预处理之基于聚类的TOD异常值检测#matlab
    1.基于聚类的异常值检测方法物以类聚——相似的对象聚合在一起,基于聚类的异常点检测方法有两个共同特点:(1)先采用特殊的聚类算法处理输入数据而得到聚类,再在聚类的基础上来检测异常。(2)只需要扫描数据集若干次,效率较高,适用于大规模数据集。2.检测方法计算步骤基于聚类的......