您现在的位置是:首页 > 文章详情

基于Tensorflow的人工智能算法入门

日期:2019-08-13点击:566

coding=utf-8

引用数据分析模块

import numpy as np

引用文档读取模块,可以读取csv、json等文件

import pandas as pd

引用人工智能算法模块,里面包含相关算法

import tensorflow as tf

引用数据人工智能分析模块,并引用数据拆分功能

from sklearn.model_selection import train_test_split

初始化数据

从文件读取数据

data = pd.read_csv('data/XXX.csv')

为空值的列补充0值

data = data.fillna(0)

转换XX为1,XXX为2

data['XXX'] = data['XXX'].apply(lambda s: 1 if s == 'XXX' else 0)

添加新列Deceased 值为Survived 取非

独立热编码,就是使用N位布尔型的状态标识来对N种状态进行编码,任意时刻编码中只有一位有效(one-hot编码)

data['XXX'] = data['XXX'].apply(lambda s: 1 - s)

选取特征字段用于分类

as_matrix :

在numpy中的特殊类型,

是作为array的子类出现,所以继承了array的所有特性并且有自己的特殊的地方,

专门用来处理线性代数操作(*表示矩阵的相乘,但是对于两个matrix的除/则表示对应元素的相除。)

dataset_X = data[['XXX', 'XXX', 'XXX', 'XXX', 'XXX', 'XXX']].as_matrix()
dataset_Y = data[['XXX', 'XXX']].as_matrix()

拆分数据为"训练数据集和验证数据集",其中验证数据集为20%(字段为test_size)

train_test_split是交叉验证中常用的函数,功能是从样本中随机的按比例选取train data和testdata。

参数说明:

train_data:所要划分的样本特征集

train_target:所要划分的样本结果

test_size:样本占比,如果是整数的话就是样本的数量

random_state:是随机数的种子。

随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。

比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。

随机数的产生取决于种子。

随机数和种子之间的关系遵从以下两个规则:

种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数。

X_data, X_val, y_data,y_data_test_split(dataset_X, dataset_Y,

 test_size=0.2, random_state=42) 

定义计算公式

声明输入数据占位符

shape 第一个参数为None,表示可以同时放入任意条记录

==================================================

tf.placeholder(dtype, shape=None, name=None)

此函数可以理解为形参,用于定义过程,在执行的时候再赋具体的值

参数:

dtype:数据类型。常用的是tf.float32,tf.float64等数值类型

shape:数据形状。默认是None,就是一维值,也可以是多维,比如[2,3], [None, 3]表示列是3,行不定

name:名称

X = tf.placeholder(tf.float32, shape=[None, 6])
y = tf.placeholder(tf.float32, shape=[None, 2])

逻辑回归预测函数:y' = softmax(xW + b)

参数:x为输入向量,是大小为d x 1的列向量,d是特征数

tf.Variable是声明变量。

weights = tf.Variable(tf.random_normal([6, 2]), name='weights')
bias = tf.Variable(tf.zeros([2]), name='bias')

下面为逻辑回归的预测函数的tf写法

tf.matmul 是矩阵乘法算子

tf.nn.softmax 是sofrmax 函数

y_pred = tf.nn.softmax(tf.matmul(X, weights) + bias)

下列是交叉熵的计算公式

Minimise cost using cross entropy

NOTE: add a epsilon(1e-10) when calculate log(y_pred),

otherwise the result will be -inf

使用交叉熵作为代价函数

1e-10 是误差值

当 y_pred 十分接近真值y_true 的时候,也就是y_pred 的值非常接近 0 或 1 时,

计算log(0)会得到负无穷 -inf,从而导致输出非法,全部都是 nan,并进一步导致

无法计算梯度,迭代陷入崩溃。

cross_entropy = - tf.reduce_sum(y * tf.log(y_pred + 1e-10),

 reduction_indices=1) 

批量样本的代价值为所有样本交叉熵的平均值

cost = tf.reduce_mean(cross_entropy)

使用随机梯度下降算法优化器来最小化代价,系统自动构建反向传播部分的计算图

train_op = tf.train.GradientDescentOptimizer(0.001).minimize(cost)

correct_pred = tf.equal(tf.argmax(y, 1), tf.argmax(y_pred, 1))
acc_op = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

开始训练和分析模型

通过计算session来开启训练迭代

with tf.Session() as sess:

# 初始化所有变量,必须最先执行 tf.global_variables_initializer().run() # 计算训练的循环,迭代10轮 for epoch in range(10): total_loss = 0. for i in range(len(X_train)): # 接口触发执行 feed_dict = {X: [X_train[i]], y: [y_train[i]]} _, loss = sess.run([train_op, cost], feed_dict=feed_dict) total_loss += loss # 评估校验数据集上的准确率 accuracy = sess.run(acc_op, feed_dict={X: X_val, y: y_val}) # 通过 NumPy 校验算法准确率 pred = sess.run(y_pred, feed_dict={X: X_val}) correct = np.equal(np.argmax(pred, 1), np.argmax(y_val, 1)) numpy_accuracy = np.mean(correct.astype(np.float32)) # 读取测试算法数据集 testdata = pd.read_csv('data/test.csv') testdata = testdata.fillna(0) # 转换XXX为1,XXX为2 testdata['XXX'] = testdata['XXX'].apply(lambda s: 1 if s == 'XXX' else 0) X_test = testdata[['XXX', 'XXX', 'XXX', 'XXX', 'XXX', 'XXX']] predictions = np.argmax(sess.run(y_pred, feed_dict={X: X_test}), 1) submission = pd.DataFrame({ "XXX": testdata["XXX"], "XXX": predictions }) 
原文链接:https://yq.aliyun.com/articles/714336
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章