扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
所谓的Dual Master,实际上就是两台MySQL服务器互相将对方作为自己的 Master,自己作为对方的Slave,这样任何一台服务器上的数据变更,都会通过MySQL 的复制机制同步到另一台服务器。当然,有的读者可能会担心,这样不会导致两台互为Master 的 MySQL之间循环复制吗?当然不会,这是由于MySQL在记录Binary log日志时,记录了当前的server-id, server-id在我们配置MySQL复制时就已经设置好了。一旦有了server-id,MySQL就很容易判断最初的写入是在哪台服务器上发生的,MySQL不会将复制所产生的变更记录到Binary log,这样就避免了服务器间数据的循环复制。当然,我们搭建Dual-Master 架构,并不是为了让两个 Master 能够同时提供写入服务,这样会导致很多问题。举例来说,假如Master A 与Master B几乎同时对一条数据进行了更新,对Master A的更新比对Master B的更新早,当对Master A的更新最终被同步到Master B时,老版本的数据将会把版本更新的数据覆盖,并且不会抛出任何异常,从而导致数据不一致的现象发生。在通常情况下,我们仅开启一台Master的写入,另一台Master仅仅 stand by或者作为读库开放,这样可以避免数据写入的冲突,防止数据不一致的情况发生。在正常情况下,如需进行停机维护,可按如下步骤执行Master的切换操作:
创新互联建站长期为上千多家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为郯城企业提供专业的网站制作、做网站,郯城网站改版等技术服务。拥有十余年丰富建站经验和众多成功案例,为您定制开发。
1)停止当前Master 的所有写入操作。
2)在 Master 上执行set global read_only=1,同时更新MySQL 配置文件中相应的配置,避免重启时失效。
3)在 Master上执行show Master status,以记录 Binary log 坐标。
4)使用Master上的Binary log坐标,在stand by的 Master上执行select Master_pos_wait(),等待stand by Master的 Binary log跟上 Master的 Binary log。
5)在stand by Master 开启写入时,设置read_only=O。
6)修改应用程序的配置,使其写入到新的Master。
MySQL做分布式需要通过ndb的Cluster来实现。MySQLCluster是MySQL适合于分布式计算环境的高实用、高冗余版本。 实现的步骤比较复杂,百度云案例:《MySQLCluster(MySQL集群)分布式》 下载地址:
可以参考"订阅服务器和分发" 使数据库表同步。
就是从本地数据库表更新到远程数据库表是同步进行的
打开企业管理器→工具→复制→创建和管理发布→创建发布→下步选要发布的数据库→选否,定义选项和属性→(根据情况选发布类型)事务发布→下步选择你要发布的数据表→编辑名称(随便)→否,根据指定方式创建发布→完成
*创建完成了发布在开始订阅远程的数据库
企业管理器→工具→复制→创建和管理发布→展开你所创建发布的数据库选择
发布的表→强制新订阅→下一步→选择远程服务器(如果没有就先到企业管理器上连接)→*编要订阅的数据库名(这里是很多新手会搞错的地方:是需订阅的远程数据库名)→是,初始化(这项是没做过复制的数据库可选,如果以前做过的选择此项就会导至以前订阅的数据丢失。*做过复制的数据库可选"否")→完成
远程也同上。
可以找两台PC试一下。
以前参加过一个库存系统,由于其业务复杂性,搞了很多个应用来支撑。这样的话一份库存数据就有可能同时有多个应用来修改库存数据。
比如说,有定时任务域xx.cron,和SystemA域和SystemB域这几个JAVA应用,可能同时修改同一份库存数据。如果不做协调的话,就会有脏数据出现。
对于跨JAVA进程的线程协调,可以借助外部环境,例如DB或者Redis。下文介绍一下如何使用DB来实现分布式锁。
本文设计的分布式锁的交互方式如下:
在使用synchronized关键字的时候,必须指定一个锁对象。
进程内的线程可以基于obj来实现同步。obj在这里可以理解为一个锁对象。如果线程要进入synchronized代码块里,必须先持有obj对象上的锁。这种锁是JAVA里面的内置锁,创建的过程是线程安全的。那么借助DB,如何保证创建锁的过程是线程安全的呢?
可以利用DB中的UNIQUE KEY特性,一旦出现了重复的key,由于UNIQUE KEY的唯一性,会抛出异常的。在JAVA里面,是 SQLIntegrityConstraintViolationException 异常。
transaction_id是事务Id,比如说,可以用
来组装一个transaction_id,表示某仓库某销售模式下的某个条码资源。不同条码,当然就有不同的transaction_id。如果有两个应用,拿着相同的transaction_id来创建锁资源的时候,只能有一个应用创建成功。
在写操作频繁的业务系统中,通常会进行分库,以降低单数据库写入的压力,并提高写操作的吞吐量。如果使用了分库,那么业务数据自然也都分配到各个数据库上了。
在这种水平切分的多数据库上使用DB分布式锁,可以自定义一个DataSouce列表。并暴露一个 getConnection(String transactionId) 方法,按照transactionId找到对应的Connection。
实现代码如下:
首先编写一个initDataSourceList方法,并利用Spring的PostConstruct注解初始化一个DataSource 列表。相关的DB配置从db.properties读取。
DataSource使用阿里的DruidDataSource。
接着最重要的一个实现getConnection(String transactionId)方法。实现原理很简单,获取transactionId的hashcode,并对DataSource的长度取模即可。
连接池列表设计好后,就可以实现往distributed_lock表插入数据了。
接下来利用DB的 select for update 特性来锁住线程。当多个线程根据相同的transactionId并发同时操作 select for update 的时候,只有一个线程能成功,其他线程都block住,直到 select for update 成功的线程使用commit操作后,block住的所有线程的其中一个线程才能开始干活。
我们在上面的DistributedLock类中创建一个lock方法。
当线程执行完任务后,必须手动的执行解锁操作,之前被锁住的线程才能继续干活。在我们上面的实现中,其实就是获取到当时 select for update 成功的线程对应的Connection,并实行commit操作即可。
那么如何获取到呢?我们可以利用ThreadLocal。首先在DistributedLock类中定义
每次调用lock方法的时候,把Connection放置到ThreadLocal里面。我们修改lock方法。
这样子,当获取到Connection后,将其设置到ThreadLocal中,如果lock方法出现异常,则将其从ThreadLocal中移除掉。
有了这几步后,我们可以来实现解锁操作了。我们在DistributedLock添加一个unlock方法。
毕竟是利用DB来实现分布式锁,对DB还是造成一定的压力。当时考虑使用DB做分布式的一个重要原因是,我们的应用是后端应用,平时流量不大的,反而关键的是要保证库存数据的正确性。对于像前端库存系统,比如添加购物车占用库存等操作,最好别使用DB来实现分布式锁了。
如果想锁住多份数据该怎么实现?比如说,某个库存操作,既要修改物理库存,又要修改虚拟库存,想锁住物理库存的同时,又锁住虚拟库存。其实也不是很难,参考lock方法,写一个multiLock方法,提供多个transactionId的入参,for循环处理就可以了。这个后续有时间再补上。
1、主要解决针对大型网站架构中持久化部分中,大量数据存储以及高并发访问所带来是数据读写问题。分布式是将一个业务拆分为多个子业务,部署在不同的服务器上。集群是同一个业务,部署在多个服务器上。
2、着重对数据切分做了细致丰富的讲解,从数据切分的原理出发,一步一步深入理解数据的切分,通过深入理解各种切分策略来设计和优化我们的系统。这部分中我们还用到了数据库中间件和客户端组件来进行数据的切分,让广大网友能够对数据的切分从理论到实战都会有一个质的飞跃。
通过分布式+集群的方式来提高io的吞吐量,以及数据库的主从复制,主主复制,负载均衡,高可用,分库分表以及数据库中间件的使用。
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流