热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

logistic回归(线性和非线性)的开发笔记

本文由编程笔记#小编为大家整理,主要介绍了logistic回归(线性和非线性)相关的知识,包括线性logistic回归的代码和数据集的分布情况。希望对你有一定的参考价值。
本文由编程笔记#小编为大家整理,主要介绍了logistic 回归(线性和非线性)相关的知识,希望对你有一定的参考价值。


一:线性logistic 回归

代码如下:


import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import scipy.optimize as opt
import seaborn as sns
#读取数据集
path = ex2data1.txt
data
= pd.read_csv(path, header=None, names=[Exam 1, Exam 2, Admitted])
#将正负数据集分开
positive = data[data[Admitted].isin([1])]
negative
= data[data[Admitted].isin([0])]
‘‘‘
#查看分布
fig, ax = plt.subplots(figsize=(12, 8))
ax.scatter(positive[‘Exam 1‘], positive[‘Exam 2‘], s=60, c=‘b‘, marker=‘o‘, label=‘Admitted‘)
ax.scatter(negative[‘Exam 1‘], negative[‘Exam 2‘], s=50, c=‘r‘, marker=‘x‘, label=‘UnAdmitted‘)
ax.legend()
ax.set_xlabel(‘Exam 1 Score‘)
ax.set_ylabel(‘Exam 2 Score‘)
plt.show()
‘‘‘
#sigmoid函数实现
def sigmoid(h):
return 1 / (1 + np.exp(-h))
‘‘‘
#测试sigmoid函数
nums = np.arange(-10, 11, step=1)
fig, ax = plt.subplots(figsize=(12, 8))
ax.plot(nums, sigmoid(nums), ‘k‘)
plt.show()
‘‘‘
#计算损失函数值
def cost(theta, X, y):
theta
= np.matrix(theta)
X
= np.matrix(X)
y
= np.matrix(y)
part1
= np.multiply(-y, np.log(sigmoid(X * theta.T)))
part2
= np.multiply((1-y), np.log(1-sigmoid(X * theta.T)))
return np.sum(part1-part2) / len(X)
#在原矩阵第1列前加一列全1
data.insert(0, ones, 1)
cols
= data.shape[1]
X
= data.iloc[:, 0:cols-1]
y
= data.iloc[:, cols-1:cols]
X
= np.array(X.values)
y
= np.array(y.values)
theta
= np.zeros(3) #这里是一个行向量
#返回梯度向量,注意是向量
def gradient(theta, X, y):
theta
= np.matrix(theta)
X
= np.matrix(X)
y
= np.matrix(y)
parameters
= theta.ravel().shape[1]
grad
= np.zeros(parameters)
error
= sigmoid(X * theta.T) - y
grad
= error.T.dot(X)
grad
= grad / len(X)
return grad
#通过高级算法计算出最好的theta值
result = opt.fmin_tnc(func=cost, x0=theta, fprime=gradient, args=(X, y))
#print(cost(result[0], X, y))
#测试所得theta的性能
#
计算原数据集的预测情况
def predict(theta, X):
theta
= np.matrix(theta)
X
= np.matrix(X)
probability
= sigmoid(X * theta.T)
return [1 if i > 0.5 else 0 for i in probability]
theta_min
= result[0]
predictions
= predict(theta_min, X)
correct
= [1 if((a == 1 and b == 1) or(a == 0 and b == 0)) else 0 for(a, b) in zip(predictions, y)]
accuracy
= (sum(map(int, correct)) % len(correct))
print(accuracy = {0}%.format(accuracy))#训练集测试准确度89%
# 作图
theta_temp = theta_min
theta_temp
= theta_temp / theta_temp[2]
x
= np.arange(130, step=0.1)
y
= -(theta_temp[0] + theta_temp[1] * x)
#画出原点
sns.set(cOntext=notebook, color: #800000">‘ticks, font_scale=1.5)
sns.lmplot(
Exam 1, Exam 2, hue=Admitted, data=data,
size
=6,
fit_reg
=False,
scatter_kws
={"s": 25}
)
#画出分界线
plt.plot(x, y, grey)
plt.xlim(0,
130)
plt.ylim(0,
130)
plt.title(
Decision Boundary)
plt.show()

二:非线性logistic 回归(正则化)

代码如下:


import pandas as pd
import numpy as np
import scipy.optimize as opt
import matplotlib.pyplot as plt
path
= ex2data2.txt
data
= pd.read_csv(path, header=None, names=[Test 1, Test 2, Accepted])
positive
= data[data[Accepted].isin([1])]
negative
= data[data[Accepted].isin([0])]
‘‘‘
#显示原始数据的分布
fig, ax = plt.subplots(figsize=(12, 8))
ax.scatter(positive[‘Test 1‘], positive[‘Test 2‘], s=50, c=‘b‘, marker=‘o‘, label=‘Accepted‘)
ax.scatter(negative[‘Test 1‘], negative[‘Test 2‘], s=50, c=‘r‘, marker=‘x‘, label=‘Unaccepted‘)
ax.legend() #显示右上角的Accepted 和 Unaccepted标签
ax.set_xlabel(‘Test 1 Score‘)
ax.set_ylabel(‘Test 2 Score‘)
plt.show()
‘‘‘
degree
= 5
x1
= data[Test 1]
x2
= data[Test 2]
#在data的第三列插入一列全1
data.insert(3, Ones, 1)
#创建多项式特征值,最高阶为4
for i in range(1, degree):
for j in range(0, i):
data[
F + str(i) + str(j)] = np.power(x1, i-j) * np.power(x2, j)
#删除原数据中的test 1和test 2两列
data.drop(Test 1, axis=1, inplace=True)
data.drop(
Test 2, axis=1, inplace=True)
#sigmoid函数实现
def sigmoid(h):
return 1 / (1 + np.exp(-h))
def cost(theta, X, y, learnRate):
theta
= np.matrix(theta)
X
= np.matrix(X)
y
= np.matrix(y)
first
= np.multiply(-y, np.log(sigmoid(X * theta.T)))
second
= np.multiply((1 - y), np.log(1 - sigmoid(X * theta.T)))
reg
= (learnRate / (2 * len(X))) * np.sum(np.power(theta[:, 1:theta.shape[1]], 2))
return np.sum(first - second) / len(X) + reg
learnRate
= 1
cols
= data.shape[1]
X
= data.iloc[:, 1:cols]
y
= data.iloc[:, 0:1]
X
= np.array(X)
y
= np.array(y)
theta
= np.zeros(X.shape[1])
#计算原数据集的预测情况
def predict(theta, X):
theta
= np.matrix(theta)
X
= np.matrix(X)
probability
= sigmoid(X * theta.T)
return [1 if i > 0.5 else 0 for i in probability]
def gradientReg(theta, X, y, learnRate):
theta
= np.matrix(theta)
X
= np.matrix(X)
y
= np.matrix(y)
paramates
= int(theta.ravel().shape[1])
grad
= np.zeros(paramates)
grad
= (sigmoid(X * theta.T) - y).T * X / len(X) + (learnRate / len(X)) * theta[:, i]
grad[0]
= grad[0] - (learnRate / len(X)) * theta[:, i]
return grad
result
= opt.fmin_tnc(func=cost, x0=theta, fprime=gradientReg, args=(X, y, learnRate))
print(result)
theta_min
= np.matrix(result[0])
predictions
= predict(theta_min, X)
correct
= [1 if((a == 1 and b == 1) or(a == 0 and b == 0)) else 0 for(a, b) in zip(predictions, y)]
accuracy
= (sum(map(int, correct)) % len(correct))
print(accuracy = {0}%.format(accuracy))

 


推荐阅读
  • 本文探讨了如何在给定整数N的情况下,找到两个不同的整数a和b,使得它们的和最大,并且满足特定的数学条件。 ... [详细]
  • 尽管使用TensorFlow和PyTorch等成熟框架可以显著降低实现递归神经网络(RNN)的门槛,但对于初学者来说,理解其底层原理至关重要。本文将引导您使用NumPy从头构建一个用于自然语言处理(NLP)的RNN模型。 ... [详细]
  • 本题探讨如何通过最大流算法解决农场排水系统的设计问题。题目要求计算从水源点到汇合点的最大水流速率,使用经典的EK(Edmonds-Karp)和Dinic算法进行求解。 ... [详细]
  • 毕业设计:基于机器学习与深度学习的垃圾邮件(短信)分类算法实现
    本文详细介绍了如何使用机器学习和深度学习技术对垃圾邮件和短信进行分类。内容涵盖从数据集介绍、预处理、特征提取到模型训练与评估的完整流程,并提供了具体的代码示例和实验结果。 ... [详细]
  • 作为一名专业的Web前端工程师,掌握HTML和CSS的命名规范是至关重要的。良好的命名习惯不仅有助于提高代码的可读性和维护性,还能促进团队协作。本文将详细介绍Web前端开发中常用的HTML和CSS命名规范,并提供实用的建议。 ... [详细]
  • 深入理解Redis的数据结构与对象系统
    本文详细探讨了Redis中的数据结构和对象系统的实现,包括字符串、列表、集合、哈希表和有序集合等五种核心对象类型,以及它们所使用的底层数据结构。通过分析源码和相关文献,帮助读者更好地理解Redis的设计原理。 ... [详细]
  • Python处理Word文档的高效技巧
    本文详细介绍了如何使用Python处理Word文档,涵盖从基础操作到高级功能的各种技巧。我们将探讨如何生成文档、定义样式、提取表格数据以及处理超链接和图片等内容。 ... [详细]
  • 利用决策树预测NBA比赛胜负的Python数据挖掘实践
    本文通过使用2013-14赛季NBA赛程与结果数据集以及2013年NBA排名数据,结合《Python数据挖掘入门与实践》一书中的方法,展示如何应用决策树算法进行比赛胜负预测。我们将详细讲解数据预处理、特征工程及模型评估等关键步骤。 ... [详细]
  • 采用IKE方式建立IPsec安全隧道
    一、【组网和实验环境】按如上的接口ip先作配置,再作ipsec的相关配置,配置文本见文章最后本文实验采用的交换机是H3C模拟器,下载地址如 ... [详细]
  • 深入解析Android自定义View面试题
    本文探讨了Android Launcher开发中自定义View的重要性,并通过一道经典的面试题,帮助开发者更好地理解自定义View的实现细节。文章不仅涵盖了基础知识,还提供了实际操作建议。 ... [详细]
  • 优化ListView性能
    本文深入探讨了如何通过多种技术手段优化ListView的性能,包括视图复用、ViewHolder模式、分批加载数据、图片优化及内存管理等。这些方法能够显著提升应用的响应速度和用户体验。 ... [详细]
  • 本文将介绍如何编写一些有趣的VBScript脚本,这些脚本可以在朋友之间进行无害的恶作剧。通过简单的代码示例,帮助您了解VBScript的基本语法和功能。 ... [详细]
  • 本文详细介绍了如何构建一个高效的UI管理系统,集中处理UI页面的打开、关闭、层级管理和页面跳转等问题。通过UIManager统一管理外部切换逻辑,实现功能逻辑分散化和代码复用,支持多人协作开发。 ... [详细]
  • 本文详细探讨了HTML表单中GET和POST请求的区别,包括它们的工作原理、数据传输方式、安全性及适用场景。同时,通过实例展示了如何在Servlet中处理这两种请求。 ... [详细]
  • 本问题探讨了在特定条件下排列儿童队伍的方法数量。题目要求计算满足条件的队伍排列总数,并使用递推算法和大数处理技术来解决这一问题。 ... [详细]
author-avatar
雪蝴蝶的诺言forever
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有