热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

python模拟逻辑斯蒂回归模型及最大熵模型举例分析

这篇文章主要介绍“python模拟逻辑斯蒂回归模型及最大熵模型举例分析”,在日常操作中,相信很多人在python模拟逻辑斯蒂回归模型及最大熵模型举例

这篇文章主要介绍“python模拟逻辑斯蒂回归模型及最大熵模型举例分析”,在日常操作中,相信很多人在python模拟逻辑斯蒂回归模型及最大熵模型举例分析问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”python模拟逻辑斯蒂回归模型及最大熵模型举例分析”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

逻辑斯蒂回归模型的模拟

  • 思想:用了新的回归函数y = 1/( exp(-x) ),其中x为分类函数,即w1*x1 + w2*x2 + ······ = 0。对于每一条样本数据,我们计算一次y,并求出误差△y;然后对权重向量w进行更新,更新策略为w = w + α*△y*x[i]' 其中α为学习率,△y为当前训练数据的误差,x[i]'为当前训练数据的转置;如此训返往复。

  • 这个例子中是对次数加了限制,也可以对误差大小加以限制。

from math import exp
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split


# data
def create_data():
    iris = load_iris()
    df = pd.DataFrame(iris.data, columns=iris.feature_names)
    df['label'] = iris.target
    df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']
    data = np.array(df.iloc[:100, [0, 1, -1]])
    # print(data)
    return data[:, :2], data[:, -1]


class LogisticReressionClassifier:
    def __init__(self, max_iter=200, learning_rate=0.01):
        self.max_iter = max_iter  # 对整个数据的最大训练次数
        self.learning_rate = learning_rate  # 学习率

    def sigmoid(self, x):  # 回归模型
        return 1 / (1 + exp(-x))

    # 对数据进行了整理,对原来的每行两列添加了一列,
    # 因为我们的线性分类器:w1*x1 + w2*x2 + b*1.0
    # 所以将原来的(x1, x2,)扩充为(x1, x2, 1.0)
    def data_matrix(self, X):
        data_mat = []
        for d in X:
            data_mat.append([1.0, *d])
        return data_mat

    def fit(self, X, y):
        data_mat = self.data_matrix(X)  # 处理训练数据
        # 生成权重数组
        # n行一列零数组,行数为data_mat[0]的长度
        # 这里也就是我们的 w0,w1,w2
        self.weights = np.zeros((len(data_mat[0]), 1), dtype=np.float32)

        for iter_ in range(self.max_iter):
            for i in range(len(X)):  # 对每条X进行遍历
                # dot函数返回数组的点乘,也就是矩阵乘法:一行乘一列
                # 在这里就是将 向量w*向量x 传入回归模型
                # 返回训练值
                result = self.sigmoid(np.dot(data_mat[i], self.weights))
                error = y[i] - result  # 误差
                # transpose是转置函数。改变权值
                # w = w + 学习率*误差*向量x
                self.weights += self.learning_rate * error * np.transpose([data_mat[i]])
        print('逻辑斯谛回归模型训练完成(learning_rate={},max_iter={})'.format(
            self.learning_rate, self.max_iter))

    def score(self, X_test, y_test):
        right = 0
        X_test = self.data_matrix(X_test)
        for x, y in zip(X_test, y_test):
            result = np.dot(x, self.weights)
            if (result > 0 and y == 1) or (result < 0 and y == 0):
                right += 1
        return right / len(X_test)


X, y = create_data()
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)

lr_clf = LogisticReressionClassifier()
lr_clf.fit(X_train, y_train)
print("评分:")
print(lr_clf.score(X_test, y_test))
x_points = np.arange(4, 8)
# 原拟合函数为: w1*x1 + w2*x2 + b = 0
# 即           w1*x  +  w2*y + w0 = 0
y_ = -(lr_clf.weights[1]*x_points + lr_clf.weights[0])/lr_clf.weights[2]
plt.plot(x_points, y_)
plt.scatter(X[:50, 0], X[:50, 1], label=&#39;0&#39;)
plt.scatter(X[50:, 0], X[50:, 1], label=&#39;1&#39;)
plt.legend()
plt.show()

结果如下:

逻辑斯谛回归模型训练完成(learning_rate=0.01,max_iter=200)
评分:
1.0

python模拟逻辑斯蒂回归模型及最大熵模型举例分析

直接调用sklearn已有的逻辑斯蒂回归函数

from math import exp
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression


def create_data():
    iris = load_iris()
    df = pd.DataFrame(iris.data, columns=iris.feature_names)
    df[&#39;label&#39;] = iris.target
    df.columns = [&#39;sepal length&#39;, &#39;sepal width&#39;, &#39;petal length&#39;, &#39;petal width&#39;, &#39;label&#39;]
    data = np.array(df.iloc[:100, [0, 1, -1]])
    # print(data)
    return data[:, :2], data[:, -1]


X, y = create_data()
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
clf = LogisticRegression(max_iter=200)
clf.fit(X_train, y_train)
print("socre:{}".format(clf.score(X_test, y_test)))
print(clf.coef_, clf.intercept_)
x_points = np.arange(4, 8)
y_ = -(clf.coef_[0][0]*x_points + clf.intercept_)/clf.coef_[0][1]
plt.plot(x_points, y_)
plt.plot(X[:50, 0], X[:50, 1], &#39;bo&#39;, color=&#39;blue&#39;, label=&#39;0&#39;)
plt.plot(X[50:, 0], X[50:, 1], &#39;bo&#39;, color=&#39;orange&#39;, label=&#39;1&#39;)
plt.xlabel(&#39;sepal length&#39;)
plt.ylabel(&#39;sepal width&#39;)
plt.legend()
plt.show()

结果:

socre:1.0
[[ 2.72989376 -2.5726044 ]] [-6.86599549]

python模拟逻辑斯蒂回归模型及最大熵模型举例分析

最大熵模型。

  • 最大熵原理:在满足约束条件的模型集合中选取熵最大的模型。

  • 思想比较简单,但公式太多,结合课本公式使用更佳

import math
from copy import deepcopy
# 深复制:将被复制的对象完全复制一份
# 浅复制:将被复制的对象打一个标签,两者改变其一,另一个随着改变


class MaxEntropy:
    def __init__(self, EPS=0.005):  # 参数为收敛条件
        self._samples = []  # 存储我们的训练数据
        self._Y = set()  # 标签集合,相当于去重后的y
        self._numXY = {}  # key为(x,y),value为出现次数
        self._N = 0  # 样本数
        self._Ep_ = []  # 样本分布的特征期望值
        self._xyID = {}  # key记录(x,y),value记录id号
        self._n = 0  # 所有特征键值(x,y)的个数
        self._C = 0  # 最大特征数
        self._IDxy = {}  # key为ID,value为对应的(x,y)
        self._w = []  #存我们的w系数
        self._EPS = EPS  # 收敛条件
        self._lastw = []  # 上一次w参数值

    def loadData(self, dataset):
        self._samples = deepcopy(dataset)
        for items in self._samples:
            y = items[0]
            X = items[1:]
            self._Y.add(y)  # 集合中y若已存在则会自动忽略
            for x in X:
                if (x, y) in self._numXY:
                    self._numXY[(x, y)] += 1
                else:
                    self._numXY[(x, y)] = 1

        self._N = len(self._samples)
        self._n = len(self._numXY)
        self._C = max([len(sample) - 1 for sample in self._samples])
        self._w = [0] * self._n  # w参数初始化为n个0,其中n为所有特征值数
        self._lastw = self._w[:]

        self._Ep_ = [0] * self._n
        # 计算特征函数fi关于经验分布的期望
        # 其中i对应第几条
        # xy对应(x, y)
        for i, xy in enumerate(self._numXY):
            self._Ep_[i] = self._numXY[xy] / self._N
            self._xyID[xy] = i
            self._IDxy[i] = xy

    def _Zx(self, X):  # 计算每个Z(x)值。其中Z(x)为规范化因子。
        zx = 0
        for y in self._Y:
            ss = 0
            for x in X:
                if (x, y) in self._numXY:
                    ss += self._w[self._xyID[(x, y)]]
            zx += math.exp(ss)
        return zx

    def _model_pyx(self, y, X):  # 计算每个P(y|x)
        zx = self._Zx(X)
        ss = 0
        for x in X:
            if (x, y) in self._numXY:
                ss += self._w[self._xyID[(x, y)]]
        pyx = math.exp(ss) / zx
        return pyx

    def _model_ep(self, index):  # 计算特征函数fi关于模型的期望
        x, y = self._IDxy[index]
        ep = 0
        for sample in self._samples:
            if x not in sample:
                continue
            pyx = self._model_pyx(y, sample)
            ep += pyx / self._N
        return ep

    def _convergence(self):  # 判断是否全部收敛
        for last, now in zip(self._lastw, self._w):
            if abs(last - now) >= self._EPS:
                return False
        return True

    def predict(self, X):  # 计算预测概率
        Z = self._Zx(X)
        result = {}
        for y in self._Y:
            ss = 0
            for x in X:
                if (x, y) in self._numXY:
                    ss += self._w[self._xyID[(x, y)]]
            pyx = math.exp(ss) / Z
            result[y] = pyx
        return result

    def train(self, maxiter=1000):  # 训练数据
        for loop in range(maxiter):  # 最大训练次数
            self._lastw = self._w[:]
            for i in range(self._n):
                ep = self._model_ep(i)  # 计算第i个特征的模型期望
                self._w[i] += math.log(self._Ep_[i] / ep) / self._C  # 更新参数
            if self._convergence():  # 判断是否收敛
                break


dataset = [[&#39;no&#39;, &#39;sunny&#39;, &#39;hot&#39;, &#39;high&#39;, &#39;FALSE&#39;],
           [&#39;no&#39;, &#39;sunny&#39;, &#39;hot&#39;, &#39;high&#39;, &#39;TRUE&#39;],
           [&#39;yes&#39;, &#39;overcast&#39;, &#39;hot&#39;, &#39;high&#39;, &#39;FALSE&#39;],
           [&#39;yes&#39;, &#39;rainy&#39;, &#39;mild&#39;, &#39;high&#39;, &#39;FALSE&#39;],
           [&#39;yes&#39;, &#39;rainy&#39;, &#39;cool&#39;, &#39;normal&#39;, &#39;FALSE&#39;],
           [&#39;no&#39;, &#39;rainy&#39;, &#39;cool&#39;, &#39;normal&#39;, &#39;TRUE&#39;],
           [&#39;yes&#39;, &#39;overcast&#39;, &#39;cool&#39;, &#39;normal&#39;, &#39;TRUE&#39;],
           [&#39;no&#39;, &#39;sunny&#39;, &#39;mild&#39;, &#39;high&#39;, &#39;FALSE&#39;],
           [&#39;yes&#39;, &#39;sunny&#39;, &#39;cool&#39;, &#39;normal&#39;, &#39;FALSE&#39;],
           [&#39;yes&#39;, &#39;rainy&#39;, &#39;mild&#39;, &#39;normal&#39;, &#39;FALSE&#39;],
           [&#39;yes&#39;, &#39;sunny&#39;, &#39;mild&#39;, &#39;normal&#39;, &#39;TRUE&#39;],
           [&#39;yes&#39;, &#39;overcast&#39;, &#39;mild&#39;, &#39;high&#39;, &#39;TRUE&#39;],
           [&#39;yes&#39;, &#39;overcast&#39;, &#39;hot&#39;, &#39;normal&#39;, &#39;FALSE&#39;],
           [&#39;no&#39;, &#39;rainy&#39;, &#39;mild&#39;, &#39;high&#39;, &#39;TRUE&#39;]]

maxent = MaxEntropy()
x = [&#39;overcast&#39;, &#39;mild&#39;, &#39;high&#39;, &#39;FALSE&#39;]
maxent.loadData(dataset)
maxent.train()
print(&#39;predict:&#39;, maxent.predict(x))

结果:

predict: {&#39;yes&#39;: 0.9999971802186581, &#39;no&#39;: 2.819781341881656e-06}

到此,关于“python模拟逻辑斯蒂回归模型及最大熵模型举例分析”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注编程笔记网站,小编会继续努力为大家带来更多实用的文章!


推荐阅读
  • 基于词向量计算文本相似度1.测试数据:链接:https:pan.baidu.coms1fXJjcujAmAwTfsuTg2CbWA提取码:f4vx2.实验代码:imp ... [详细]
  • 本文介绍了利用ARMA模型对平稳非白噪声序列进行建模的步骤及代码实现。首先对观察值序列进行样本自相关系数和样本偏自相关系数的计算,然后根据这些系数的性质选择适当的ARMA模型进行拟合,并估计模型中的位置参数。接着进行模型的有效性检验,如果不通过则重新选择模型再拟合,如果通过则进行模型优化。最后利用拟合模型预测序列的未来走势。文章还介绍了绘制时序图、平稳性检验、白噪声检验、确定ARMA阶数和预测未来走势的代码实现。 ... [详细]
  • 超级简单加解密工具的方案和功能
    本文介绍了一个超级简单的加解密工具的方案和功能。该工具可以读取文件头,并根据特定长度进行加密,加密后将加密部分写入源文件。同时,该工具也支持解密操作。加密和解密过程是可逆的。本文还提到了一些相关的功能和使用方法,并给出了Python代码示例。 ... [详细]
  • 颜色迁移(reinhard VS welsh)
    不要谈什么天分,运气,你需要的是一个截稿日,以及一个不交稿就能打爆你狗头的人,然后你就会被自己的才华吓到。------ ... [详细]
  • 本文介绍了Python爬虫技术基础篇面向对象高级编程(中)中的多重继承概念。通过继承,子类可以扩展父类的功能。文章以动物类层次的设计为例,讨论了按照不同分类方式设计类层次的复杂性和多重继承的优势。最后给出了哺乳动物和鸟类的设计示例,以及能跑、能飞、宠物类和非宠物类的增加对类数量的影响。 ... [详细]
  • YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程
    本文介绍了关于人工智能、神经网络和深度学习的知识点,并提供了YOLOv7基于自己的数据集从零构建模型完整训练、推理计算的详细教程。文章还提到了郑州最低生活保障的话题。对于从事目标检测任务的人来说,YOLO是一个熟悉的模型。文章还提到了yolov4和yolov6的相关内容,以及选择模型的优化思路。 ... [详细]
  • 在Android开发中,使用Picasso库可以实现对网络图片的等比例缩放。本文介绍了使用Picasso库进行图片缩放的方法,并提供了具体的代码实现。通过获取图片的宽高,计算目标宽度和高度,并创建新图实现等比例缩放。 ... [详细]
  • 本文讨论了在Windows 8上安装gvim中插件时出现的错误加载问题。作者将EasyMotion插件放在了正确的位置,但加载时却出现了错误。作者提供了下载链接和之前放置插件的位置,并列出了出现的错误信息。 ... [详细]
  • CSS3选择器的使用方法详解,提高Web开发效率和精准度
    本文详细介绍了CSS3新增的选择器方法,包括属性选择器的使用。通过CSS3选择器,可以提高Web开发的效率和精准度,使得查找元素更加方便和快捷。同时,本文还对属性选择器的各种用法进行了详细解释,并给出了相应的代码示例。通过学习本文,读者可以更好地掌握CSS3选择器的使用方法,提升自己的Web开发能力。 ... [详细]
  • 本文讨论了如何使用IF函数从基于有限输入列表的有限输出列表中获取输出,并提出了是否有更快/更有效的执行代码的方法。作者希望了解是否有办法缩短代码,并从自我开发的角度来看是否有更好的方法。提供的代码可以按原样工作,但作者想知道是否有更好的方法来执行这样的任务。 ... [详细]
  • 第四章高阶函数(参数传递、高阶函数、lambda表达式)(python进阶)的讲解和应用
    本文主要讲解了第四章高阶函数(参数传递、高阶函数、lambda表达式)的相关知识,包括函数参数传递机制和赋值机制、引用传递的概念和应用、默认参数的定义和使用等内容。同时介绍了高阶函数和lambda表达式的概念,并给出了一些实例代码进行演示。对于想要进一步提升python编程能力的读者来说,本文将是一个不错的学习资料。 ... [详细]
  • 本文介绍了如何在Mac上使用Pillow库加载不同于默认字体和大小的字体,并提供了一个简单的示例代码。通过该示例,读者可以了解如何在Python中使用Pillow库来写入不同字体的文本。同时,本文也解决了在Mac上使用Pillow库加载字体时可能遇到的问题。读者可以根据本文提供的示例代码,轻松实现在Mac上使用Pillow库加载不同字体的功能。 ... [详细]
  • 上图是InnoDB存储引擎的结构。1、缓冲池InnoDB存储引擎是基于磁盘存储的,并将其中的记录按照页的方式进行管理。因此可以看作是基于磁盘的数据库系统。在数据库系统中,由于CPU速度 ... [详细]
  • Hibernate延迟加载深入分析-集合属性的延迟加载策略
    本文深入分析了Hibernate延迟加载的机制,特别是集合属性的延迟加载策略。通过延迟加载,可以降低系统的内存开销,提高Hibernate的运行性能。对于集合属性,推荐使用延迟加载策略,即在系统需要使用集合属性时才从数据库装载关联的数据,避免一次加载所有集合属性导致性能下降。 ... [详细]
  • 本文介绍了一个Python函数same_set,用于判断两个相等长度的数组是否包含相同的元素。函数会忽略元素的顺序和重复次数,如果两个数组包含相同的元素,则返回1,否则返回0。文章还提供了函数的具体实现代码和样例输入输出。 ... [详细]
author-avatar
LY-李彦
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有