首页 > 数据库 >海量数据处理项目-账号微服务和流量包数据库表+索引规范(下)

海量数据处理项目-账号微服务和流量包数据库表+索引规范(下)

时间:2024-03-26 12:29:26浏览次数:35  
标签:COMMENT utf8mb4 海量 账号 DEFAULT no 数据处理 NULL id

海量数据处理项目-账号微服务和流量包数据库表+索引规范(下)

第2集 账号微服务和流量包数据库表+索引规范讲解《下》
简介:账号微服务和流量包数据库表+索引规范讲解

  • 账号和流量包的关系:一对多
  • traffic流量包表
  • 思考点
  • 海量数据下每天免费次数怎么更新?
  • 海量数据付费流量套餐包每天次数限制怎么更新?
  • 高性能扣减流量包设计怎么做?
  • 流量包数据更新处理-高并发下分布式事务怎么解决
CREATE TABLE `traffic` (
  `id` bigint unsigned NOT NULL AUTO_INCREMENT,
  `day_limit` int DEFAULT NULL COMMENT '每天限制多少条,短链',
  `day_used` int DEFAULT NULL COMMENT '当天用了多少条,短链',
  `total_limit` int DEFAULT NULL COMMENT '总次数,活码才用',
  `account_no` bigint DEFAULT NULL COMMENT '账号',
  `out_trade_no` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL COMMENT '订单号',
  `level` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL COMMENT '产品层级:FIRST青铜、SECOND黄金、THIRD钻石',
  `expired_date` date DEFAULT NULL COMMENT '过期日期',
  `plugin_type` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL COMMENT '插件类型',
  `product_id` bigint DEFAULT NULL COMMENT '商品主键',
  `gmt_create` datetime DEFAULT CURRENT_TIMESTAMP,
  `gmt_modified` datetime DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
  PRIMARY KEY (`id`),
  UNIQUE KEY `uk_trade_no` (`out_trade_no`,`account_no`) USING BTREE,
  KEY `idx_account_no` (`account_no`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;

traffic_task 流量包任务表(先建-后续会讲用途)

CREATE TABLE `traffic_task` (
  `id` bigint unsigned NOT NULL AUTO_INCREMENT,
  `account_no` bigint DEFAULT NULL,
  `traffic_id` bigint DEFAULT NULL,
  `use_times` int DEFAULT NULL,
  `lock_state` varchar(16) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL COMMENT '锁定状态锁定LOCK  完成FINISH-取消CANCEL',
  `message_id` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin DEFAULT NULL COMMENT '唯一标识',
  `gmt_create` datetime DEFAULT CURRENT_TIMESTAMP,
  `gmt_modified` datetime DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
  PRIMARY KEY (`id`),
  UNIQUE KEY `uk_msg_id` (`message_id`) USING BTREE,
  KEY `idx_release` (`account_no`,`id`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;


在这里插入图片描述

标签:COMMENT,utf8mb4,海量,账号,DEFAULT,no,数据处理,NULL,id
From: https://blog.csdn.net/m0_68935893/article/details/137041928

相关文章

  • 海量数据处理项目-阿里编码规范里面Manager分层介绍和开发规范说明
    ......
  • Flink 流数据处理 基于Flink1.12.0版本 MapFunction 只适用于一对一的转换,而 FlatMap
    Flink流数据处理基于Flink1.12.0版本MapFunction只适用于一对一的转换,而FlatMapFunction中可以一对多,或者多对一序言基于官网教程整理的一个教程。基于Flink1.12.0版本。目前该版本的Flink支持的source与sink如下所示参考资料:https://ci.apache.org/projects/flink......
  • Cookie复用的妙用:数据处理中的高效利器!
    简介浏览网站时,服务器会往浏览器发一些数据,叫做Cookie。它是一种认证数据,存储在电脑浏览器上,用于后续访问时身份验证和记录登录信息。通常,服务器会把一些关键信息如用户ID,会话ID,密码等存在Cookie里。Cookie相当于个人信息,浏览器请求页面时携带Cookie,这样服务器就能通过......
  • 纯技术开发出身 -- 给全国各地提供软件技术咨询服务的开展(大型信息系统建设、大数据处
    往往技术厉害的离不开现在工作的公司、需要有稳定的技术岗位工作、每个月需要按时还巨额房屋贷款,需要安心专注技术研究、安心手上的技术开发、日常技术难题解决等等,没精力全国各地开拓客户资源,也没精力对接各种不确定的客户需求;从社会分工的角度、还是需要有一些人精通技术然......
  • 等保-linux-三权分立账号设置
    1.创建三权账号#新建系统管理员useraddsysadminpasswdsysadmin#新建安全管理员useraddsecadminpasswdsecadmin#新建审计管理员useraddauditadminpasswdauditadmin2.修改visudo配置visudo#系统管理员Cmnd_AliasSOFTWARE=/bin/rpm,/usr/bin/up2date,/usr/bin/yumCmn......
  • Go-Rod自用案例 #1 测试多组账号登录
    使用场景本样例用于在给定的HTML文件中(简单的登录注册),测试多组账号密码是否能够成功登录,并打印出登录结果。前端代码<!DOCTYPEhtml><htmllang="en"><head><metacharset="UTF-8"><metaname="viewport"content="width=device-width,initial-......
  • 基于java+springboot+vue实现的游戏账号估价交易平台(文末源码+Lw+ppt)23-555
    摘 要系统根据现有的管理模块进行开发和扩展,采用面向对象的开发的思想和结构化的开发方法对游戏账号估价交易的现状进行系统调查。采用结构化的分析设计,该方法要求结合一定的图表,在模块化的基础上进行系统的开发工作。在设计中采用“自下而上”的思想,在游戏账号估价交易平台......
  • 基于java+springboot+vue实现的游戏账号估价交易平台(文末源码+Lw+ppt)23-555
    摘 要系统根据现有的管理模块进行开发和扩展,采用面向对象的开发的思想和结构化的开发方法对游戏账号估价交易的现状进行系统调查。采用结构化的分析设计,该方法要求结合一定的图表,在模块化的基础上进行系统的开发工作。在设计中采用“自下而上”的思想,在游戏账号估价交易平台......
  • Matlab在高光谱遥感中的作用:从数据处理到决策支持
    光谱和图像是人们观察世界的两种方式,高光谱遥感通过“图谱合一”的技术创新将两者结合起来,大大提高了人们对客观世界的认知能力,本来在宽波段遥感中不可探测的物质,在高光谱遥感中能被探测。以高光谱遥感为核心,构建大范围、快速、远程、定量探测技术,已在矿物填图、土壤质量参......
  • 使用tokenizer进行数据处理的基本步骤
    一、打开data数据(以csv为例)#打开并且预处理数据(以一个四类数据一个标签的数据库为例)defdata_read(data_dir):data=pandas.read_csv(data_dir)data['content']=data['content'].fillna('')data['text']=data['content']+data[�......