热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Python如何实现SQL自动化

本篇内容主要讲解“Python如何实现SQL自动化”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python

本篇内容主要讲解“Python如何实现SQL自动化”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python如何实现SQL自动化”吧!

从基础开始

import pyodbc from datetime import datetime classSql:     def__init__(self,  database, server="XXVIR00012,55000"):         # here we are  telling python what to connect to (our SQL Server)         self.cnxn = pyodbc.connect("Driver={SQL  Server Native Client 11.0};"                                    "Server="+server+";"                                    "Database="+database+";"                                    "Trusted_COnnection=yes;")         # initialise  query attribute         self.query ="--  {}\n\n-- Made in Python".format(datetime.now()                                                           .strftime("%d/%m/%Y"))

这个代码就是操作MS SQL服务器的基础。只要编写好这个代码,通过Python 连接到SQL 仅需:

sql = Sql('database123')

很简单对么?同时发生了几件事,下面将对此代码进行剖析。class Sql:

首先要注意,这个代码包含在一个类中。笔者发现这是合乎逻辑的,因为在此格式中,已经对此特定数据库进行了增添或移除进程。若见其工作过程,思路便能更加清晰。

初始化类:

def __init__(self, database,server="XXVIR00012,55000"):

因为笔者和同事几乎总是连接到相同的服务器,所以笔者将这个通用浏览器的名称设为默认参数server。

在“Connect to Server”对话框或者MS SQL Server Management Studio的视窗顶端可以找到服务器的名称:

Python如何实现SQL自动化

下一步,连接SQL:

self.cnxn =pyodbc.connect("Driver={SQL Server Native Client 11.0};"                           "Server="+self.server+";"                           "Database="+self.database+";"                           "Trusted_COnnection=yes;")

pyodbc 模块,使得这一步骤异常简单。只需将连接字符串过渡到 pyodbc.connect(...) 函数即可,点击以了解详情here。

最后,笔者通常会在 Sql 类中编写一个查询字符串,sql类会随每个传递给类的查询而更新:

self.query = "-- {}\n\n--Made in Python".format(datetime.now()                                              .strftime("%d/%m/%Y"))

这样便于记录代码,同时也使输出更为可读,让他人读起来更舒服。

请注意在下列的代码片段中,笔者将不再更新代码中的self.query 部分。

组块

一些重要函数非常有用,笔者几乎每天都会使用。这些函数都侧重于将数据从数据库中传入或传出。

以下图文件目录为始:

Python如何实现SQL自动化

对于当前此项目,需要:

  • 将文件导入SQL

  • 将其合并到单一表格内

  • 根据列中类别灵活创建多个表格

SQL类不断被充实后,后续会容易很多:

import sys sys.path.insert(0, r'C:\\User\medium\pysqlplus\lib') import os from data importSql sql =Sql('database123')  # initialise the Sql object directory =r'C:\\User\medium\data\\'  # this is where our generic data is  stored file_list = os.listdir(directory)  # get a list of all files for file in  file_list:  # loop to import  files to sql     df = pd.read_csv(directory+file)  # read file to dataframe     sql.push_dataframe(df, file[:-4]) # now we  convert our file_list names into the table names we have imported to SQL table_names = [x[:-4] for x in file_list] sql.union(table_names, 'generic_jan')  # union our files into one new table  called 'generic_jan' sql.drop(table_names)  # drop our original tables as we now  have full table # get list of  categories in colX, eg ['hr', 'finance', 'tech', 'c_suite'] sets =list(sql.manual("SELECT  colX AS 'category' FROM generic_jan GROUP BY colX", respOnse=True)['category']) for category in sets:     sql.manual("SELECT *  INTO generic_jan_"+category+" FROM  generic_jan WHERE colX = '"+category+"'")

从头开始。

入栈数据结构

defpush_dataframe(self, data,  table="raw_data", batchsize=500):     # create execution cursor     cursor = self.cnxn.cursor()     # activate fast execute     cursor.fast_executemany =True     # create create table statement     query ="CREATE  TABLE ["+ table +"] (\n"     # iterate through each column to be  included in create table statement     for i inrange(len(list(data))):         query +="\t[{}]  varchar(255)".format(list(data)[i])  # add column (everything is varchar  for now)         # append correct  connection/end statement code         if i !=len(list(data))-1:             query +=",\n"         else:             query +="\n);"     cursor.execute(query)  # execute the create table statement     self.cnxn.commit()  # commit changes     # append query to our SQL code logger     self.query += ("\n\n--  create table\n"+ query)     # insert the data in batches     query = ("INSERT  INTO [{}] ({})\n".format(table,                                                '['+'], ['  # get columns                                                .join(list(data)) +']') +              "VALUES\n(?{})".format(",  ?"*(len(list(data))-1)))     # insert data into target table in  batches of 'batchsize'     for i inrange(0, len(data), batchsize):         if i+batchsize >len(data):             batch = data[i: len(data)].values.tolist()         else:             batch = data[i: i+batchsize].values.tolist()         # execute batch  insert         cursor.executemany(query, batch)         # commit insert  to SQL Server         self.cnxn.commit()

此函数包含在SQL类中,能轻松将Pandas dataframe插入SQL数据库。

其在需要上传大量文件时非常有用。然而,Python能将数据插入到SQL的真正原因在于其灵活性。

要横跨一打Excel工作簿才能在SQL中插入特定标签真的很糟心。但有Python在,小菜一碟。如今已经构建起了一个可以使用Python读取标签的函数,还能将标签插入到SQL中。

Manual(函数)

defmanual(self, query,  respOnse=False):     cursor = self.cnxn.cursor()  # create execution cursor     if response:         returnread_sql(query,  self.cnxn)  # get sql query  output to dataframe     try:         cursor.execute(query)  # execute     except pyodbc.ProgrammingErroras error:         print("Warning:\n{}".format(error))  # print error as a warning     self.cnxn.commit()  # commit query to SQL Server     return"Query  complete."

此函数实际上应用在union 和 drop 函数中。仅能使处理SQL代码变得尽可能简单。

response参数能将查询输出解压到DataFrame。generic_jan 表中的colX ,可供摘录所有独特值,操作如下:

sets =list(sql.manual("SELECT colX AS 'category' FROM generic_jan GROUP BYcolX", respOnse=True)['category'])

Union(函数)

构建 了manual 函数,创建 union 函数就简单了:

defunion(self,  table_list, name="union", join="UNION"):     # initialise the query     query ="SELECT *  INTO ["+name+"] FROM (\n"     # build the SQL query     query +=f'\n{join}\n'.join(                         [f'SELECT [{x}].* FROM [{x}]'for x in table_list]                         )     query +=")  x"  # add end of  query     self.manual(query, fast=True)  # fast execute

创建 union 函数只不过是在循环参考 table_list提出的表名,从而为给定的表名构建  UNION函数查询。然后用self.manual(query)处理。

Drop(函数)

上传大量表到SQL服务器是可行的。虽然可行,但会使数据库迅速过载。 为解决这一问题,需要创建一个drop函数:

defdrop(self,  tables):     # check if single or list     ifisinstance(tables, str):         # if single  string, convert to single item in list for for-loop         tables = [tables]     for table in tables:         # check for  pre-existing table and delete if present         query = ("IF  OBJECT_ID ('["+table+"]', 'U')  IS NOT NULL "                  "DROP TABLE  ["+table+"]")         self.manual(query)  # execute

到此,相信大家对“Python如何实现SQL自动化”有了更深的了解,不妨来实际操作一番吧!这里是编程笔记网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


推荐阅读
  • 使用Ubuntu中的Python获取浏览器历史记录原文: ... [详细]
  • 本文详细介绍了MysqlDump和mysqldump进行全库备份的相关知识,包括备份命令的使用方法、my.cnf配置文件的设置、binlog日志的位置指定、增量恢复的方式以及适用于innodb引擎和myisam引擎的备份方法。对于需要进行数据库备份的用户来说,本文提供了一些有价值的参考内容。 ... [详细]
  • 本文讨论了在数据库打开和关闭状态下,重新命名或移动数据文件和日志文件的情况。针对性能和维护原因,需要将数据库文件移动到不同的磁盘上或重新分配到新的磁盘上的情况,以及在操作系统级别移动或重命名数据文件但未在数据库层进行重命名导致报错的情况。通过三个方面进行讨论。 ... [详细]
  • WhenIusepythontoapplythepymysqlmoduletoaddafieldtoatableinthemysqldatabase,itdo ... [详细]
  • 我们有(据我所知)星型模式SQL数据库中的数据文件。该数据库有5个不同的文件,扩展名为 ... [详细]
  • 在Oracle11g以前版本中的的DataGuard物理备用数据库,可以以只读的方式打开数据库,但此时MediaRecovery利用日志进行数据同步的过 ... [详细]
  • Python操作MySQL(pymysql模块)详解及示例代码
    本文介绍了使用Python操作MySQL数据库的方法,详细讲解了pymysql模块的安装和连接MySQL数据库的步骤,并提供了示例代码。内容涵盖了创建表、插入数据、查询数据等操作,帮助读者快速掌握Python操作MySQL的技巧。 ... [详细]
  •   《WindowsAzurePlatform系列文章目录》  本文将介绍如何在AzureSQLDatabase创建只读用户。  请先按照笔者之前的文章:AzureSQLDatabas ... [详细]
  • 基于PgpoolII的PostgreSQL集群安装与配置教程
    本文介绍了基于PgpoolII的PostgreSQL集群的安装与配置教程。Pgpool-II是一个位于PostgreSQL服务器和PostgreSQL数据库客户端之间的中间件,提供了连接池、复制、负载均衡、缓存、看门狗、限制链接等功能,可以用于搭建高可用的PostgreSQL集群。文章详细介绍了通过yum安装Pgpool-II的步骤,并提供了相关的官方参考地址。 ... [详细]
  • 本文详细介绍了SQL日志收缩的方法,包括截断日志和删除不需要的旧日志记录。通过备份日志和使用DBCC SHRINKFILE命令可以实现日志的收缩。同时,还介绍了截断日志的原理和注意事项,包括不能截断事务日志的活动部分和MinLSN的确定方法。通过本文的方法,可以有效减小逻辑日志的大小,提高数据库的性能。 ... [详细]
  • 本文介绍了如何使用php限制数据库插入的条数并显示每次插入数据库之间的数据数目,以及避免重复提交的方法。同时还介绍了如何限制某一个数据库用户的并发连接数,以及设置数据库的连接数和连接超时时间的方法。最后提供了一些关于浏览器在线用户数和数据库连接数量比例的参考值。 ... [详细]
  • Oracle Database 10g许可授予信息及高级功能详解
    本文介绍了Oracle Database 10g许可授予信息及其中的高级功能,包括数据库优化数据包、SQL访问指导、SQL优化指导、SQL优化集和重组对象。同时提供了详细说明,指导用户在Oracle Database 10g中如何使用这些功能。 ... [详细]
  • 本文介绍了Oracle数据库中tnsnames.ora文件的作用和配置方法。tnsnames.ora文件在数据库启动过程中会被读取,用于解析LOCAL_LISTENER,并且与侦听无关。文章还提供了配置LOCAL_LISTENER和1522端口的示例,并展示了listener.ora文件的内容。 ... [详细]
  • PDO MySQL
    PDOMySQL如果文章有成千上万篇,该怎样保存?数据保存有多种方式,比如单机文件、单机数据库(SQLite)、网络数据库(MySQL、MariaDB)等等。根据项目来选择,做We ... [详细]
  • 树莓派语音控制的配置方法和步骤
    本文介绍了在树莓派上实现语音控制的配置方法和步骤。首先感谢博主Eoman的帮助,文章参考了他的内容。树莓派的配置需要通过sudo raspi-config进行,然后使用Eoman的控制方法,即安装wiringPi库并编写控制引脚的脚本。具体的安装步骤和脚本编写方法在文章中详细介绍。 ... [详细]
author-avatar
DZ---Shanghai
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有