蛋白质FASTA与药物分子SMILES数据集文本数据处理与可视化分析(一)2021SC@SDUSC

本文主要是介绍蛋白质FASTA与药物分子SMILES数据集文本数据处理与可视化分析(一)2021SC@SDUSC,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文基于davis数据集进行操作2021SC@SDUSC

首先最直接的方式是学习一下别人的项目中是如何处理数据的

在项目代码中,指定了一个ParamList的字典用键值对的方式存储配置信息

下图为所选的数据集ESOL_SMILESValue.txt的结构,每一行数据逗号左侧为分子SMILES序列,右侧为该分子对应的label在这里插入图片描述

下一步就是把刚刚的ParamList(此次已封装到opt里),将opt作为参数送入MolDatasetCreator构造方法中创建一个对应的对象,后续会使用此对象进行进一步处理,接下来看看该构造方法有关opt部分的具体实现
在这里插入图片描述

仅仅是将opt赋值给了self.opt

返回到上一层,下面随即使用maldatasetcreator调用CreateDatasets函数进行处理,接下来看实现
在这里插入图片描述

此函数开头会获取前面paramList里的DataPath键的值,也就是ESOL_SMILESValue.txt的路径,然后创建文件加载器fileloader,并对文件使用load函数,下图可以看到load函数会通过readlines读出文本文件中的所有行
在这里插入图片描述

回到上层继续下面的执行,这一步是将opt中的ExpName对应的值作为FileParserList的键,又取得了一个值赋给到parser变量
在这里插入图片描述

可以看到,最终对应到的是ESOLFileParser(),从字面上猜测,应该是由于不同实验使用的数据集结构不同,所以要采用不同的parser进行处理
在这里插入图片描述
在这里插入图片描述

此次截取了两个parser类的实现,其中包括我们的ESOLFileParser,它们都有一个叫做_parse_line的函数,对于不同的数据集有着不同实现方式
在这里插入图片描述

可以看到,对一行数据的处理,先使用re对文本进行逗号分隔,分隔结果返回一个list,将list赋值给data,再分别取下标0、1的元素赋值给SMILES和Value,最后打包为一个dict,至此完成对该数据集中一行文本数据的分隔处理
在这里插入图片描述

所有的parser都继承了这个basicFileParser,可以看到它有一个子类中没有重写的函数parse_file,作用见下图注释信息

至此,该ESOL中的数据集处理已经明确,下一篇我们会对DTA任务中基准数据集davis中的蛋白质序列进行进一步处理。

这篇关于蛋白质FASTA与药物分子SMILES数据集文本数据处理与可视化分析(一)2021SC@SDUSC的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/337180

相关文章

使用Python开发一个Ditto剪贴板数据导出工具

《使用Python开发一个Ditto剪贴板数据导出工具》在日常工作中,我们经常需要处理大量的剪贴板数据,下面将介绍如何使用Python的wxPython库开发一个图形化工具,实现从Ditto数据库中读... 目录前言运行结果项目需求分析技术选型核心功能实现1. Ditto数据库结构分析2. 数据库自动定位3

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

pandas数据的合并concat()和merge()方式

《pandas数据的合并concat()和merge()方式》Pandas中concat沿轴合并数据框(行或列),merge基于键连接(内/外/左/右),concat用于纵向或横向拼接,merge用于... 目录concat() 轴向连接合并(1) join='outer',axis=0(2)join='o

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499