首页 > 其他分享 >puthon-txt(1) 从txt读取gnss数据

puthon-txt(1) 从txt读取gnss数据

时间:2024-09-06 17:14:38浏览次数:11  
标签:puthon timestamp gnss result file txt data row

 

数据

1453132356.600000 34.0342694493 108.755911045 587.800293
1453132357.960000 34.0344383177 108.755909682 587.673778
1453132358.520000 34.0345050891 108.755905295 587.568409
1453132359.160000 34.0345823584 108.755898876 587.587611
1453132359.560000 34.0346306268 108.755897244 587.612678
1453132360.200000 34.0347072511 108.755895617 587.583863
1453132360.840000 34.0347838932 108.755894644 587.438686
1453132361.400000 34.034850341 108.755894968 587.336082
1453132362.040000 34.0349259665 108.755895105 587.321752
1453132362.600000 34.0349939502 108.755895669 587.300844
1453132363.160000 34.0350612885 108.755896463 587.323285
1453132363.720000 34.0351295704 108.755895922 587.301819

  

API_TXT_GNSS.py

import csv

# 读取数据到字典
def Read_GNSS_TXT(file_path):
    data_dict = {}
    with open(file_path, 'r') as file:
        reader = csv.reader(file, delimiter=' ')
        for row in reader:
            if row:  # 检查行是否为空
                timestamp = float(row[0])
                latitude = float(row[1])
                longitude = float(row[2])
                altitude = float(row[3])
                data_dict[timestamp] = (latitude, longitude, altitude)
    return data_dict

# 根据时间戳查找数据
def find_data_by_timestamp(data_dict, target_timestamp):
    return data_dict.get(target_timestamp, None)

# 示例
file_path = '/home/dongdong/2project/0data/NWPU/FHY_config/FHY_gps.txt'  # 替换为实际文件路径
GNSS_LIST = Read_GNSS_TXT(file_path)

# 查找特定时间戳
target_timestamp = 1453132359.160000  # 替换为你要查找的时间戳
result = find_data_by_timestamp(GNSS_LIST, target_timestamp)

if result:
    print(f"数据: 时间戳={target_timestamp}, 纬度={result[0]}, 经度={result[1]}, 高度={result[2]}")
else:
    print("没有找到对应的时间戳数据。")

  

标签:puthon,timestamp,gnss,result,file,txt,data,row
From: https://www.cnblogs.com/gooutlook/p/18400646

相关文章

  • 使用Cmake-编写CMakeLists.txt 文件
    好处:a)跨平台(makefile跟平台强相关)b)cmake可以自动生成makefile编写CMakeLists.txt文件#关键主体:cmake_minimum_required(VERSION3.10)#指定最低支持的CMake版本project(FunMainVERSION1.0)#定义项目名称及版本号#添加可执行文件add_executable(${PROJECT_N......
  • [20240902]验证sql_idz.sh计算PLSQL代码块.txt
    [20240902]验证sql_idz.sh计算PLSQL代码块.txt--//测试验证sql_idz.sh计算PLSQL代码块是否正确.1.环境:SYS@book>@ver2==============================PORT_STRING                  :x86_64/Linux2.4.xxVERSION                     ......
  • [20240902]建立完善sql_idz.sh脚本.txt
    [20240902]建立完善sql_idz.sh脚本.txt--//增加hash_value的16进制显示采用大小写显示.$cat-v~/bin/sql_idz.sh#!/bin/bash#calcucatesql_textoffull_hash_value(16),hash_value(10),sql_id(32).#argv1sqlstatementorsqloftextfile#argv2flag:0=sqlstatement......
  • [20240829]关于依赖链3.txt
    [20240829]关于依赖链3.txt--//如果修改表结构或者改名,相关的sql语句在共享池会失效,必须重新分析,我开始学习orcle时候,一直认为这些相关信息保存在表对象--//句柄的堆0里面,如果涉及到的sql语句很多,这样堆0应该很大,而实际上的情况上堆0一直没有变化.我曾经问过别人这个问题,......
  • [20240827]分析为什么出现library cache lock等待事件2.txt
    [20240827]分析为什么出现librarycachelock等待事件2.txt--//前几天一直在分析如果表不存在的情况下,密集执行为什么出现librarycachelock等待事件,而且出现的mode=2(共享模式),按照道--//理不应该阻塞,做一个分析.1.环境:SCOTT@book01p>@ver2==============================......
  • [20240828]分析为什么出现library cache lock等待事件5.txt
    [20240828]分析为什么出现librarycachelock等待事件5.txt--//前几天测试遇到的问题,假如表不存在的情况下,如果密集执行这类sql语句,不理解为什么出现librarycachelock等待事件.--//验证如果有1个会话,是否会持有mode=3的情况出现.--//上午使用gdb设置断点来验证,这次直接密集......
  • [20240829]关于依赖链.txt
    [20240829]关于依赖链.txt--//如果修改表结构或者改名,相关的sql语句在共享池会失效,必须重新分析,我开始学习orcle时候,一直认为这些相关信息保存在表对象--//句柄的堆0里面,如果涉及到的sql语句很多,这样堆0应该很大,而实际上的情况上堆0一直没有变化.我曾经问过别人这个问题,最......
  • [20240826]奇怪ORA-01031 insufficient privileges报错.txt
    [20240826]奇怪ORA-01031insufficientprivileges报错.txt--//遇到的奇怪ORA-01031insufficientprivileges情况,做一个分析:1.环境:SYS@book01p>@ver2==============================PORT_STRING                  :x86_64/Linux2.4.xxVERSION     ......
  • python读取txt文本文件-批量更改mysql数据库中一批用户的用户名的python脚本保存及转
    一、python读取txt文本文件-批量更改mysql数据库中一批用户的用户名的python脚本保存    做一个简单的事:使用python读取一个txt文件,里面存储着N行用户id,需要一行行读取后再读取另一个存储用户昵称的txt文件,判断昵称是否有重复,如果没有重复就将数据库中的当前uid用户的昵称......
  • 学习笔记:robots.txt文件
    1.1介绍robots.txt文件是一种用于指导搜索引擎爬虫在网站上哪些页面可以被抓取,哪些页面不应该被抓取的文本文件。这个文件通常放置在网站的根目录下。1.2由来robots.txt标准最早出自1994年,由荷兰的网络管理员和搜索引擎专家MartijnKoster编写。最初称为"RobotsExclusion"......