PyTorch深度学习实践概论笔记9练习-​使用kaggle的Otto数据集做多分类​

本文主要是介绍PyTorch深度学习实践概论笔记9练习-​使用kaggle的Otto数据集做多分类​,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在文章PyTorch深度学习实践概论笔记9-SoftMax分类器中刘老师给了一个课后练习题,下载kaggle的Otto数据集做多分类。

0 Overview

先看看官网给的背景介绍。

The Otto Group is one of the world’s biggest e-commerce companies, with subsidiaries in more than 20 countries, including Crate & Barrel (USA), Otto.de (Germany) and 3 Suisses (France). We are selling millions of products worldwide every day, with several thousand products being added to our product line.

奥托集团是世界上最大的电子商务公司之一,在20多个国家拥有子公司,包括美国的Crate & Barrel,德国的Otto.de和法国的3 Suisse。我们每天在全球销售数以百万计的产品,其中有几千种产品加入到我们的产品线中。】

A consistent analysis of the performance of our products is crucial. However, due to our diverse global infrastructure, many identical products get classified differently. Therefore, the quality of our product analysis depends heavily on the ability to accurately cluster similar products. The better the classification, the more insights we can generate about our product range.

对我们产品性能的一致分析是至关重要的。然而,由于我们多元化的全球基础设施,许多相同的产品被分类不同。因此,我们产品分析的质量在很大程度上依赖于对相似产品进行准确聚类的能力。分类越好,我们对产品范围的了解就越多。】

For this competition, we have provided a dataset with 93 features for more than 200,000 products. The objective is to build a predictive model which is able to distinguish between our main product categories. The winning models will be open sourced.

【在这次竞赛中,我们为超过200,000个产品提供了包含93个特性的数据集。我们的目标是建立一个能够区分我们主要产品类别的预测模型。获奖的模型将是开源的。】

1 数据获取

点击官网链接Otto Group Product Classification Challenge | Kaggle可以下载。

2 查看数据

先读取数据,然后查看一下数据情况。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
#1.读取数据
otto_data = pd.read_csv("./otto/train.csv")
otto_data.describe()  #8 rows × 94 columns(id  feat_1 ... feat_93)otto_data.shape

train数据集一共61878行95列(包括上述特征和target),94个非字符型特征的简单描述统计结果如上图所示。

由于target是字符型变量,我们画图展示,代码如下:

import seaborn as sns
sns.countplot(otto_data["target"])
plt.show()

target一共9个类别。由于是字符型,定义一个函数将target的类别标签转为index表示,方便后面计算交叉熵,代码如下:

def target2idx(targets):target_idx = []target_labels = ['Class_1', 'Class_2', 'Class_3', 'Class_4', 'Class_5', 'Class_6', 'Class_7', 'Class_8', 'Class_9','Class_10']for target in targets:target_idx.append(target_labels.index(target))return target_idx

3 构建模型

3.1 读取数据

import numpy as np
import pandas as pd
from torch.utils.data import Dataset, DataLoader
import torch
import torch.optim as optim#1.读取数据
class OttoDataset(Dataset):def __init__(self,filepath):data = pd.read_csv(filepath)labels = data['target']self.len = data.shape[0]self.X_data = torch.tensor(np.array(data)[:,1:-1].astype(float))self.y_data = target2idx(labels)def __getitem__(self, index):return self.X_data[index], self.y_data[index]def __len__(self):return self.lenotto_dataset1 = OttoDataset('./otto/train.csv')
otto_dataset2 = OttoDataset('./otto/testn.csv')
train_loader = DataLoader(dataset=otto_dataset1, batch_size=64, shuffle=True, num_workers=2)
test_loader = DataLoader(dataset=otto_dataset2, batch_size=64, shuffle=False, num_workers=2)

3.2 构建模型

#2.构建模型
class OttoNet(torch.nn.Module):def __init__(self):super(OttoNet, self).__init__()self.linear1 = torch.nn.Linear(93, 64)self.linear2 = torch.nn.Linear(64, 32)self.linear3 = torch.nn.Linear(32, 16)self.linear4 = torch.nn.Linear(16, 9)self.relu = torch.nn.ReLU()self.dropout = torch.nn.Dropout(p=0.1)self.softmax = torch.nn.Softmax(dim=1)def forward(self, x):x = x.view(-1,93)x = self.relu(self.linear1(x))x = self.relu(self.linear2(x))x = self.dropout(x)x = self.relu(self.linear3(x))x = self.linear4(x)x = self.softmax(x)return xottomodel = OttoNet()
ottomodel

输出:

OttoNet((linear1): Linear(in_features=93, out_features=64, bias=True)(linear2): Linear(in_features=64, out_features=32, bias=True)(linear3): Linear(in_features=32, out_features=16, bias=True)(linear4): Linear(in_features=16, out_features=9, bias=True)(relu): ReLU()(dropout): Dropout(p=0.1, inplace=False)(softmax): Softmax(dim=1)
)

3.3 构造loss和优化器

#3.loss和优化器
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(ottomodel.parameters(), lr=0.01, momentum=0.56)

3.4 训练模型

if __name__ == '__main__':for epoch in range(10):running_loss = 0.0for batch, data in enumerate(train_loader):inputs, target = dataoptimizer.zero_grad()outputs = ottomodel(inputs.float())loss = criterion(outputs, target)loss.backward()optimizer.step()running_loss += loss.item()if batch % 500 == 499:print('[%d, %5d] loss: %.3f' % (epoch+1, batch+1, running_loss/300))running_loss = 0.0

输出:

[1,   500] loss: 3.591
[2,   500] loss: 3.011
[3,   500] loss: 2.957
[4,   500] loss: 2.940
[5,   500] loss: 2.902
[6,   500] loss: 2.881
[7,   500] loss: 2.873
[8,   500] loss: 2.800
[9,   500] loss: 2.789
[10,   500] loss: 2.779

3.5 预测

with torch.no_grad():output = []for data in test_loader:inputs,labels = dataoutputs = torch.max(ottomodel(inputs.float()),1)[1]output.extend(outputs.numpy().tolist())

保存结果,并提交至kaggle。

submission = pd.read_csv('./otto/sampleSubmission.csv')#(144368, 10)
submission['target'] = output
submission.to_csv('./otto/submission_result1.csv', index=False)

提交失败,数据的格式不对,查看原因中,碰到相同问题的小伙伴可以告诉我,感谢。

说明:记录学习笔记,如果错误欢迎指正!写文章不易,转载请联系我。

这篇关于PyTorch深度学习实践概论笔记9练习-​使用kaggle的Otto数据集做多分类​的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/404837

相关文章

使用Redis快速实现共享Session登录的详细步骤

《使用Redis快速实现共享Session登录的详细步骤》在Web开发中,Session通常用于存储用户的会话信息,允许用户在多个页面之间保持登录状态,Redis是一个开源的高性能键值数据库,广泛用于... 目录前言实现原理:步骤:使用Redis实现共享Session登录1. 引入Redis依赖2. 配置R

使用Python的requests库调用API接口的详细步骤

《使用Python的requests库调用API接口的详细步骤》使用Python的requests库调用API接口是开发中最常用的方式之一,它简化了HTTP请求的处理流程,以下是详细步骤和实战示例,涵... 目录一、准备工作:安装 requests 库二、基本调用流程(以 RESTful API 为例)1.

使用Python开发一个Ditto剪贴板数据导出工具

《使用Python开发一个Ditto剪贴板数据导出工具》在日常工作中,我们经常需要处理大量的剪贴板数据,下面将介绍如何使用Python的wxPython库开发一个图形化工具,实现从Ditto数据库中读... 目录前言运行结果项目需求分析技术选型核心功能实现1. Ditto数据库结构分析2. 数据库自动定位3

Python yield与yield from的简单使用方式

《Pythonyield与yieldfrom的简单使用方式》生成器通过yield定义,可在处理I/O时暂停执行并返回部分结果,待其他任务完成后继续,yieldfrom用于将一个生成器的值传递给另一... 目录python yield与yield from的使用代码结构总结Python yield与yield

Go语言使用select监听多个channel的示例详解

《Go语言使用select监听多个channel的示例详解》本文将聚焦Go并发中的一个强力工具,select,这篇文章将通过实际案例学习如何优雅地监听多个Channel,实现多任务处理、超时控制和非阻... 目录一、前言:为什么要使用select二、实战目标三、案例代码:监听两个任务结果和超时四、运行示例五

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

pandas数据的合并concat()和merge()方式

《pandas数据的合并concat()和merge()方式》Pandas中concat沿轴合并数据框(行或列),merge基于键连接(内/外/左/右),concat用于纵向或横向拼接,merge用于... 目录concat() 轴向连接合并(1) join='outer',axis=0(2)join='o

批量导入txt数据到的redis过程

《批量导入txt数据到的redis过程》用户通过将Redis命令逐行写入txt文件,利用管道模式运行客户端,成功执行批量删除以Product*匹配的Key操作,提高了数据清理效率... 目录批量导入txt数据到Redisjs把redis命令按一条 一行写到txt中管道命令运行redis客户端成功了批量删除k

Java使用Thumbnailator库实现图片处理与压缩功能

《Java使用Thumbnailator库实现图片处理与压缩功能》Thumbnailator是高性能Java图像处理库,支持缩放、旋转、水印添加、裁剪及格式转换,提供易用API和性能优化,适合Web应... 目录1. 图片处理库Thumbnailator介绍2. 基本和指定大小图片缩放功能2.1 图片缩放的

Spring Boot集成/输出/日志级别控制/持久化开发实践

《SpringBoot集成/输出/日志级别控制/持久化开发实践》SpringBoot默认集成Logback,支持灵活日志级别配置(INFO/DEBUG等),输出包含时间戳、级别、类名等信息,并可通过... 目录一、日志概述1.1、Spring Boot日志简介1.2、日志框架与默认配置1.3、日志的核心作用