热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

100万人同时抢1万张火车票,12306抢票,极限并发带来的思考?

点击上方的终端研发部,右上角选择“设为星标”作者:绘你一世倾城链接:https:juejin.cnpost6844903949632274

点击上方的终端研发部,右上角选择“设为星标

作者:绘你一世倾城
链接:https://juejin.cn/post/6844903949632274445

12306抢票,极限并发带来的思考?

每到节假日期间,一二线城市返乡、外出游玩的人们几乎都面临着一个问题:抢火车票!虽然现在大多数情况下都能订到票,但是放票瞬间即无票的场景,相信大家都深有体会。尤其是春节期间,大家不仅使用12306,还会考虑“智行”和其他的抢票软件,全国上下几亿人在这段时间都在抢票。“12306服务”承受着这个世界上任何秒杀系统都无法超越的QPS,上百万的并发再正常不过了!笔者专门研究了一下“12306”的服务端架构,学习到了其系统设计上很多亮点,在这里和大家分享一下并模拟一个例子:如何在100万人同时抢1万张火车票时,系统提供正常、稳定的服务。

github代码地址:
https://github.com/GuoZhaoran/spikeSystem

1. 大型高并发系统架构

高并发的系统架构都会采用分布式集群部署,服务上层有着层层负载均衡,并提供各种容灾手段(双火机房、节点容错、服务器灾备等)保证系统的高可用,流量也会根据不同的负载能力和配置策略均衡到不同的服务器上。下边是一个简单的示意图:

1.1 负载均衡简介

上图中描述了用户请求到服务器经历了三层的负载均衡,下边分别简单介绍一下这三种负载均衡:

  • OSPF(开放式最短链路优先)是一个内部网关协议(Interior Gateway Protocol,简称IGP)。OSPF通过路由器之间通告网络接口的状态来建立链路状态数据库,生成最短路径树,OSPF会自动计算路由接口上的Cost值,但也可以通过手工指定该接口的Cost值,手工指定的优先于自动计算的值。OSPF计算的Cost,同样是和接口带宽成反比,带宽越高,Cost值越小。到达目标相同Cost值的路径,可以执行负载均衡,最多6条链路同时执行负载均衡。

  • LVS (Linux VirtualServer),它是一种集群(Cluster)技术,采用IP负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。

  • Nginx想必大家都很熟悉了,是一款非常高性能的http代理/反向代理服务器,服务开发中也经常使用它来做负载均衡。Nginx实现负载均衡的方式主要有三种:轮询、加权轮询、ip hash轮询,下面我们就针对Nginx的加权轮询做专门的配置和测试

1.2 Nginx加权轮询的演示

Nginx实现负载均衡通过upstream模块实现,其中加权轮询的配置是可以给相关的服务加上一个权重值,配置的时候可能根据服务器的性能、负载能力设置相应的负载。下面是一个加权轮询负载的配置,我将在本地的监听3001-3004端口,分别配置1,2,3,4的权重:

#配置负载均衡upstream load_rule {server 127.0.0.1:3001 weight=1;server 127.0.0.1:3002 weight=2;server 127.0.0.1:3003 weight=3;server 127.0.0.1:3004 weight=4;}...server {listen 80;server_name load_balance.com www.load_balance.com;location / {proxy_pass http://load_rule;}
}

我在本地/etc/hosts目录下配置了 www.load_balance.com的虚拟域名地址,接下来使用Go语言开启四个http端口监听服务,下面是监听在3001端口的Go程序,其他几个只需要修改端口即可:

package mainimport ("net/http""os""strings"
)func main() {http.HandleFunc("/buy/ticket", handleReq)http.ListenAndServe(":3001", nil)
}//处理请求函数,根据请求将响应结果信息写入日志
func handleReq(w http.ResponseWriter, r *http.Request) {failedMsg := "handle in port:"writeLog(failedMsg, "./stat.log")
}//写入日志
func writeLog(msg string, logPath string) {fd, _ := os.OpenFile(logPath, os.O_RDWR|os.O_CREATE|os.O_APPEND, 0644)defer fd.Close()content := strings.Join([]string{msg, "\r\n"}, "3001")buf := []byte(content)fd.Write(buf)
}

我将请求的端口日志信息写到了./stat.log文件当中,然后使用ab压测工具做压测:

ab -n 1000 -c 100 http://www.load_balance.com/buy/ticket

统计日志中的结果,3001-3004端口分别得到了100、200、300、400的请求量,这和我在nginx中配置的权重占比很好的吻合在了一起,并且负载后的流量非常的均匀、随机。具体的实现大家可以参考nginx的upsteam模块实现源码,这里推荐一篇文章:Nginx 中 upstream 机制的负载均衡

2.秒杀抢购系统选型

回到我们最初提到的问题中来:火车票秒杀系统如何在高并发情况下提供正常、稳定的服务呢?

从上面的介绍我们知道用户秒杀流量通过层层的负载均衡,均匀到了不同的服务器上,即使如此,集群中的单机所承受的QPS也是非常高的。如何将单机性能优化到极致呢?要解决这个问题,我们就要想明白一件事: 通常订票系统要处理生成订单、减扣库存、用户支付这三个基本的阶段,我们系统要做的事情是要保证火车票订单不超卖、不少卖,每张售卖的车票都必须支付才有效,还要保证系统承受极高的并发。这三个阶段的先后顺序改怎么分配才更加合理呢?我们来分析一下:

2.1 下单减库存

当用户并发请求到达服务端时,首先创建订单,然后扣除库存,等待用户支付。这种顺序是我们一般人首先会想到的解决方案,这种情况下也能保证订单不会超卖,因为创建订单之后就会减库存,这是一个原子操作。但是这样也会产生一些问题,第一就是在极限并发情况下,任何一个内存操作的细节都至关影响性能,尤其像创建订单这种逻辑,一般都需要存储到磁盘数据库的,对数据库的压力是可想而知的;第二是如果用户存在恶意下单的情况,只下单不支付这样库存就会变少,会少卖很多订单,虽然服务端可以限制IP和用户的购买订单数量,这也不算是一个好方法。

2.2 支付减库存

如果等待用户支付了订单在减库存,第一感觉就是不会少卖。但是这是并发架构的大忌,因为在极限并发情况下,用户可能会创建很多订单,当库存减为零的时候很多用户发现抢到的订单支付不了了,这也就是所谓的“超卖”。也不能避免并发操作数据库磁盘IO

2.3 预扣库存

从上边两种方案的考虑,我们可以得出结论:只要创建订单,就要频繁操作数据库IO。那么有没有一种不需要直接操作数据库IO的方案呢,这就是预扣库存。先扣除了库存,保证不超卖,然后异步生成用户订单,这样响应给用户的速度就会快很多;那么怎么保证不少卖呢?用户拿到了订单,不支付怎么办?我们都知道现在订单都有有效期,比如说用户五分钟内不支付,订单就失效了,订单一旦失效,就会加入新的库存,这也是现在很多网上零售企业保证商品不少卖采用的方案。订单的生成是异步的,一般都会放到MQ、kafka这样的即时消费队列中处理,订单量比较少的情况下,生成订单非常快,用户几乎不用排队。

3. 扣库存的艺术

从上面的分析可知,显然预扣库存的方案最合理。我们进一步分析扣库存的细节,这里还有很大的优化空间,库存存在哪里?怎样保证高并发下,正确的扣库存,还能快速的响应用户请求?

在单机低并发情况下,我们实现扣库存通常是这样的:

为了保证扣库存和生成订单的原子性,需要采用事务处理,然后取库存判断、减库存,最后提交事务,整个流程有很多IO,对数据库的操作又是阻塞的。这种方式根本不适合高并发的秒杀系统。

接下来我们对单机扣库存的方案做优化:本地扣库存。我们把一定的库存量分配到本地机器,直接在内存中减库存,然后按照之前的逻辑异步创建订单。改进过之后的单机系统是这样的:

这样就避免了对数据库频繁的IO操作,只在内存中做运算,极大的提高了单机抗并发的能力。但是百万的用户请求量单机是无论如何也抗不住的,虽然nginx处理网络请求使用epoll模型,c10k的问题在业界早已得到了解决。但是linux系统下,一切资源皆文件,网络请求也是这样,大量的文件描述符会使操作系统瞬间失去响应。上面我们提到了nginx的加权均衡策略,我们不妨假设将100W的用户请求量平均均衡到100台服务器上,这样单机所承受的并发量就小了很多。然后我们每台机器本地库存100张火车票,100台服务器上的总库存还是1万,这样保证了库存订单不超卖,下面是我们描述的集群架构:

问题接踵而至,在高并发情况下,现在我们还无法保证系统的高可用,假如这100台服务器上有两三台机器因为扛不住并发的流量或者其他的原因宕机了。那么这些服务器上的订单就卖不出去了,这就造成了订单的少卖。要解决这个问题,我们需要对总订单量做统一的管理,这就是接下来的容错方案。服务器不仅要在本地减库存,另外要远程统一减库存。有了远程统一减库存的操作,我们就可以根据机器负载情况,为每台机器分配一些多余的“buffer库存”用来防止机器中有机器宕机的情况。我们结合下面架构图具体分析一下:

我们采用Redis存储统一库存,因为Redis的性能非常高,号称单机QPS能抗10W的并发。在本地减库存以后,如果本地有订单,我们再去请求redis远程减库存,本地减库存和远程减库存都成功了,才返回给用户抢票成功的提示,这样也能有效的保证订单不会超卖。当机器中有机器宕机时,因为每个机器上有预留的buffer余票,所以宕机机器上的余票依然能够在其他机器上得到弥补,保证了不少卖。buffer余票设置多少合适呢,理论上buffer设置的越多,系统容忍宕机的机器数量就越多,但是buffer设置的太大也会对redis造成一定的影响。虽然redis内存数据库抗并发能力非常高,请求依然会走一次网络IO,其实抢票过程中对redis的请求次数是本地库存和buffer库存的总量,因为当本地库存不足时,系统直接返回用户“已售罄”的信息提示,就不会再走统一扣库存的逻辑,这在一定程度上也避免了巨大的网络请求量把redis压跨,所以buffer值设置多少,需要架构师对系统的负载能力做认真的考量。

4. 代码演示

Go语言原生为并发设计,我采用go语言给大家演示一下单机抢票的具体流程。

4.1 初始化工作

go包中的init函数先于main函数执行,在这个阶段主要做一些准备性工作。我们系统需要做的准备工作有:初始化本地库存、初始化远程redis存储统一库存的hash键值、初始化redis连接池;另外还需要初始化一个大小为1的int类型chan,目的是实现分布式锁的功能,也可以直接使用读写锁或者使用redis等其他的方式避免资源竞争,但使用channel更加高效,这就是go语言的哲学:不要通过共享内存来通信,而要通过通信来共享内存。redis库使用的是redigo,下面是代码实现:

...
//localSpike包结构体定义
package localSpiketype LocalSpike struct {LocalInStock int64LocalSalesVolume int64
}
...
//remoteSpike对hash结构的定义和redis连接池
package remoteSpike
//远程订单存储健值
type RemoteSpikeKeys struct {SpikeOrderHashKey string //redis中秒杀订单hash结构keyTotalInventoryKey string //hash结构中总订单库存keyQuantityOfOrderKey string //hash结构中已有订单数量key
}//初始化redis连接池
func NewPool() *redis.Pool {return &redis.Pool{MaxIdle: 10000,MaxActive: 12000, // max number of connectionsDial: func() (redis.Conn, error) {c, err := redis.Dial("tcp", ":6379")if err != nil {panic(err.Error())}return c, err},}
}
...
func init() {localSpike &#61; localSpike2.LocalSpike{LocalInStock: 150,LocalSalesVolume: 0,}remoteSpike &#61; remoteSpike2.RemoteSpikeKeys{SpikeOrderHashKey: "ticket_hash_key",TotalInventoryKey: "ticket_total_nums",QuantityOfOrderKey: "ticket_sold_nums",}redisPool &#61; remoteSpike2.NewPool()done &#61; make(chan int, 1)done <- 1
}

4.2 本地扣库存和统一扣库存

本地扣库存逻辑非常简单&#xff0c;用户请求过来&#xff0c;添加销量&#xff0c;然后对比销量是否大于本地库存&#xff0c;返回bool值:

package localSpike
//本地扣库存,返回bool值
func (spike *LocalSpike) LocalDeductionStock() bool{spike.LocalSalesVolume &#61; spike.LocalSalesVolume &#43; 1return spike.LocalSalesVolume }

注意这里对共享数据LocalSalesVolume的操作是要使用锁来实现的&#xff0c;但是因为本地扣库存和统一扣库存是一个原子性操作&#xff0c;所以在最上层使用channel来实现&#xff0c;这块后边会讲。统一扣库存操作redis&#xff0c;因为redis是单线程的&#xff0c;而我们要实现从中取数据&#xff0c;写数据并计算一些列步骤&#xff0c;我们要配合lua脚本打包命令&#xff0c;保证操作的原子性:

package remoteSpike
......
const LuaScript &#61; &#96;local ticket_key &#61; KEYS[1]local ticket_total_key &#61; ARGV[1]local ticket_sold_key &#61; ARGV[2]local ticket_total_nums &#61; tonumber(redis.call(&#39;HGET&#39;, ticket_key, ticket_total_key))local ticket_sold_nums &#61; tonumber(redis.call(&#39;HGET&#39;, ticket_key, ticket_sold_key))-- 查看是否还有余票,增加订单数量,返回结果值if(ticket_total_nums >&#61; ticket_sold_nums) thenreturn redis.call(&#39;HINCRBY&#39;, ticket_key, ticket_sold_key, 1)endreturn 0
&#96;
//远端统一扣库存
func (RemoteSpikeKeys *RemoteSpikeKeys) RemoteDeductionStock(conn redis.Conn) bool {lua :&#61; redis.NewScript(1, LuaScript)result, err :&#61; redis.Int(lua.Do(conn, RemoteSpikeKeys.SpikeOrderHashKey, RemoteSpikeKeys.TotalInventoryKey, RemoteSpikeKeys.QuantityOfOrderKey))if err !&#61; nil {return false}return result !&#61; 0
}

我们使用hash结构存储总库存和总销量的信息,用户请求过来时&#xff0c;判断总销量是否大于库存&#xff0c;然后返回相关的bool值。在启动服务之前&#xff0c;我们需要初始化redis的初始库存信息:

hmset ticket_hash_key "ticket_total_nums" 10000 "ticket_sold_nums" 0

4.3 响应用户信息

我们开启一个http服务&#xff0c;监听在一个端口上:

package main
...
func main() {http.HandleFunc("/buy/ticket", handleReq)http.ListenAndServe(":3005", nil)
}

上面我们做完了所有的初始化工作&#xff0c;接下来handleReq的逻辑非常清晰&#xff0c;判断是否抢票成功&#xff0c;返回给用户信息就可以了。

package main
//处理请求函数,根据请求将响应结果信息写入日志
func handleReq(w http.ResponseWriter, r *http.Request) {redisConn :&#61; redisPool.Get()LogMsg :&#61; ""<-done//全局读写锁if localSpike.LocalDeductionStock() && remoteSpike.RemoteDeductionStock(redisConn) {util.RespJson(w, 1, "抢票成功", nil)LogMsg &#61; LogMsg &#43; "result:1,localSales:" &#43; strconv.FormatInt(localSpike.LocalSalesVolume, 10)} else {util.RespJson(w, -1, "已售罄", nil)LogMsg &#61; LogMsg &#43; "result:0,localSales:" &#43; strconv.FormatInt(localSpike.LocalSalesVolume, 10)}done <- 1//将抢票状态写入到log中writeLog(LogMsg, "./stat.log")
}func writeLog(msg string, logPath string) {fd, _ :&#61; os.OpenFile(logPath, os.O_RDWR|os.O_CREATE|os.O_APPEND, 0644)defer fd.Close()content :&#61; strings.Join([]string{msg, "\r\n"}, "")buf :&#61; []byte(content)fd.Write(buf)
}

前边提到我们扣库存时要考虑竞态条件&#xff0c;我们这里是使用channel避免并发的读写&#xff0c;保证了请求的高效顺序执行。我们将接口的返回信息写入到了./stat.log文件方便做压测统计。

4.4 单机服务压测

开启服务&#xff0c;我们使用ab压测工具进行测试&#xff1a;

ab -n 10000 -c 100 http://127.0.0.1:3005/buy/ticket

下面是我本地低配mac的压测信息

This is ApacheBench, Version 2.3 <$Revision: 1826891 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/Benchmarking 127.0.0.1 (be patient)
Completed 1000 requests
Completed 2000 requests
Completed 3000 requests
Completed 4000 requests
Completed 5000 requests
Completed 6000 requests
Completed 7000 requests
Completed 8000 requests
Completed 9000 requests
Completed 10000 requests
Finished 10000 requestsServer Software:
Server Hostname: 127.0.0.1
Server Port: 3005Document Path: /buy/ticket
Document Length: 29 bytesConcurrency Level: 100
Time taken for tests: 2.339 seconds
Complete requests: 10000
Failed requests: 0
Total transferred: 1370000 bytes
HTML transferred: 290000 bytes
Requests per second: 4275.96 [#/sec] (mean)
Time per request: 23.387 [ms] (mean)
Time per request: 0.234 [ms] (mean, across all concurrent requests)
Transfer rate: 572.08 [Kbytes/sec] receivedConnection Times (ms)min mean[&#43;/-sd] median max
Connect: 0 8 14.7 6 223
Processing: 2 15 17.6 11 232
Waiting: 1 11 13.5 8 225
Total: 7 23 22.8 18 239Percentage of the requests served within a certain time (ms)50% 1866% 2475% 2680% 2890% 3395% 3998% 4599% 54100% 239 (longest request)

根据指标显示&#xff0c;我单机每秒就能处理4000&#43;的请求&#xff0c;正常服务器都是多核配置&#xff0c;处理1W&#43;的请求根本没有问题。而且查看日志发现整个服务过程中&#xff0c;请求都很正常&#xff0c;流量均匀&#xff0c;redis也很正常&#xff1a;

//stat.log
...
result:1,localSales:145
result:1,localSales:146
result:1,localSales:147
result:1,localSales:148
result:1,localSales:149
result:1,localSales:150
result:0,localSales:151
result:0,localSales:152
result:0,localSales:153
result:0,localSales:154
result:0,localSales:156
...

5.总结回顾

总体来说&#xff0c;秒杀系统是非常复杂的。我们这里只是简单介绍模拟了一下单机如何优化到高性能&#xff0c;集群如何避免单点故障&#xff0c;保证订单不超卖、不少卖的一些策略&#xff0c;完整的订单系统还有订单进度的查看&#xff0c;每台服务器上都有一个任务&#xff0c;定时的从总库存同步余票和库存信息展示给用户,还有用户在订单有效期内不支付&#xff0c;释放订单&#xff0c;补充到库存等等。

我们实现了高并发抢票的核心逻辑&#xff0c;可以说系统设计的非常的巧妙&#xff0c;巧妙的避开了对DB数据库IO的操作&#xff0c;对Redis网络IO的高并发请求&#xff0c;几乎所有的计算都是在内存中完成的&#xff0c;而且有效的保证了不超卖、不少卖&#xff0c;还能够容忍部分机器的宕机。我觉得其中有两点特别值得学习总结&#xff1a;

  • 负载均衡&#xff0c;分而治之。通过负载均衡&#xff0c;将不同的流量划分到不同的机器上&#xff0c;每台机器处理好自己的请求&#xff0c;将自己的性能发挥到极致&#xff0c;这样系统的整体也就能承受极高的并发了&#xff0c;就像工作的的一个团队&#xff0c;每个人都将自己的价值发挥到了极致&#xff0c;团队成长自然是很大的。

  • 合理的使用并发和异步。自epoll网络架构模型解决了c10k问题以来&#xff0c;异步越来被服务端开发人员所接受&#xff0c;能够用异步来做的工作&#xff0c;就用异步来做&#xff0c;在功能拆解上能达到意想不到的效果&#xff0c;这点在nginx、node.js、redis上都能体现&#xff0c;他们处理网络请求使用的epoll模型&#xff0c;用实践告诉了我们单线程依然可以发挥强大的威力。服务器已经进入了多核时代&#xff0c;go语言这种天生为并发而生的语言&#xff0c;完美的发挥了服务器多核优势&#xff0c;很多可以并发处理的任务都可以使用并发来解决&#xff0c;比如go处理http请求时每个请求都会在一个goroutine中执行&#xff0c;总之:怎样合理的压榨CPU,让其发挥出应有的价值&#xff0c;是我们一直需要探索学习的方向。


回复 【idea激活】即可获得idea的激活方式

回复 【Java】获取java相关的视频教程和资料

回复 【SpringCloud】获取SpringCloud相关多的学习资料

回复 【python】获取全套0基础Python知识手册

回复 【2020】获取2020java相关面试题教程

回复 【加群】即可加入终端研发部相关的技术交流群

最近于哥也在玩视频号啦&#xff0c;主要针对于程序员方向的&#xff0c;大家可以去关注一波&#xff1a;

最近面试Java后端开发的感受

互联网的圈子&#xff0c;游戏行业的现状是如何&#xff1f;

动画&#xff1a;一招学会TCP的三次握手和四次挥手

干掉PostMan&#xff01;IDEA这款插件太实用了…

美团面试题&#xff1a;Java-线程池 ThreadPool 专题详解

当去阿里面试 Java 都是问什么?

27个阿里 Java 开源项目&#xff0c;值得收藏&#xff01;

相信自己&#xff0c;没有做不到的&#xff0c;只有想不到的

在这里获得的不仅仅是技术&#xff01;

喜欢就给个“在看


推荐阅读
  • 网站访问全流程解析
    本文详细介绍了从用户在浏览器中输入一个域名(如www.yy.com)到页面完全展示的整个过程,包括DNS解析、TCP连接、请求响应等多个步骤。 ... [详细]
  • 服务器部署中的安全策略实践与优化
    服务器部署中的安全策略实践与优化 ... [详细]
  • 小王详解:内部网络中最易理解的NAT原理剖析,挑战你的认知极限
    小王详解:内部网络中最易理解的NAT原理剖析,挑战你的认知极限 ... [详细]
  • centos 7.0 lnmp成功安装过程(很乱)
    下载nginx[rootlocalhostsrc]#wgethttp:nginx.orgdownloadnginx-1.7.9.tar.gz--2015-01-2412:55:2 ... [详细]
  • 本文介绍了 Python 中的基本数据类型,包括不可变数据类型(数字、字符串、元组)和可变数据类型(列表、字典、集合),并详细解释了每种数据类型的使用方法和常见操作。 ... [详细]
  • MySQL初级篇——字符串、日期时间、流程控制函数的相关应用
    文章目录:1.字符串函数2.日期时间函数2.1获取日期时间2.2日期与时间戳的转换2.3获取年月日、时分秒、星期数、天数等函数2.4时间和秒钟的转换2. ... [详细]
  • 性能测试中的关键监控指标与深入分析
    在软件性能测试中,关键监控指标的选取至关重要。主要目的包括:1. 评估系统的当前性能,确保其符合预期的性能标准;2. 发现软件性能瓶颈,定位潜在问题;3. 优化系统性能,提高用户体验。通过综合分析这些指标,可以全面了解系统的运行状态,为后续的性能改进提供科学依据。 ... [详细]
  • 为了确保iOS应用能够安全地访问网站数据,本文介绍了如何在Nginx服务器上轻松配置CertBot以实现SSL证书的自动化管理。通过这一过程,可以确保应用始终使用HTTPS协议,从而提升数据传输的安全性和可靠性。文章详细阐述了配置步骤和常见问题的解决方法,帮助读者快速上手并成功部署SSL证书。 ... [详细]
  • 在配置Nginx的SSL证书后,虽然HTTPS访问能够正常工作,但HTTP请求却会遇到400错误。本文详细解析了这一问题,并提供了Nginx配置的具体示例。此外,还深入探讨了DNS服务器证书、SSL证书的申请与安装流程,以及域名注册、查询方法和CDN加速技术的应用,帮助读者全面了解相关技术细节。 ... [详细]
  • 在优化Nginx与PHP的高效配置过程中,许多教程提供的配置方法存在诸多问题或不良实践。本文将深入探讨这些常见错误,并详细介绍如何正确配置Nginx和PHP,以实现更高的性能和稳定性。我们将从Nginx配置文件的基本指令入手,逐步解析每个关键参数的最优设置,帮助读者理解其背后的原理和实际应用效果。 ... [详细]
  • Nginx 反向代理配置与应用指南
    本文详细介绍了 Nginx 反向代理的配置与应用方法。首先,用户可以从官方下载页面(http://nginx.org/en/download.html)获取最新稳定版 Nginx,推荐使用 1.14.2 版本。下载并解压后,通过双击 `nginx.exe` 文件启动 Nginx 服务。文章进一步探讨了反向代理的基本原理及其在实际应用场景中的配置技巧,包括负载均衡、缓存管理和安全设置等,为用户提供了一套全面的实践指南。 ... [详细]
  • Python全局解释器锁(GIL)机制详解
    在Python中,线程是操作系统级别的原生线程。为了确保多线程环境下的内存安全,Python虚拟机引入了全局解释器锁(Global Interpreter Lock,简称GIL)。GIL是一种互斥锁,用于保护对解释器状态的访问,防止多个线程同时执行字节码。尽管GIL有助于简化内存管理,但它也限制了多核处理器上多线程程序的并行性能。本文将深入探讨GIL的工作原理及其对Python多线程编程的影响。 ... [详细]
  • 在使用 SQL Server 时,连接故障是用户最常见的问题之一。通常,连接 SQL Server 的方法有两种:一种是通过 SQL Server 自带的客户端工具,例如 SQL Server Management Studio;另一种是通过第三方应用程序或开发工具进行连接。本文将详细分析导致连接故障的常见原因,并提供相应的解决策略,帮助用户有效排除连接问题。 ... [详细]
  • Nacos 0.3 数据持久化详解与实践
    本文详细介绍了如何将 Nacos 0.3 的数据持久化到 MySQL 数据库,并提供了具体的步骤和注意事项。 ... [详细]
  • 一个建表一个执行crud操作建表代码importandroid.content.Context;importandroid.database.sqlite.SQLiteDat ... [详细]
author-avatar
mobiledu2502880317
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有