关于实现一个基于文件持久化的EventStore的核心构思

大家知道enode框架的架构是基于ddd+event sourcing的思想。我们持久化的不是聚合根的最新状态,而是聚合根产生的领域事件。最近我在思考如何实现一个基于文件的eventstore。目标有两个:

1.必须要高性能;
2.支持聚合根事件的并发持久化,要确保单个聚合根实例不会保存版本号相同的事件;

事件持久化高性能

经过了一番调研,发现用文件存储事件非常合适。要确保高性能,我们可以顺序写文件(append),然后随机读文件。之所以要随机读文件是因为在当某些command由于操作同一个聚合根而遇到并发冲突的时候,框架需要获取该聚合根的所有最新的事件,然后通过event sourcing重建出最新的聚合根,然后再重试这些遇到并发冲突的command。经过测试,顺序写文件和随机读文件都非常高效,每秒100W次顺序写和每秒10W次随机读在我的笔记本上不是问题;因为在enode中,domain是基于in-memory架构的,所以我们很少会从eventstore读取事件。所以重点是要优化持久化事件的性能。而读事件只有在command遇到并发冲突的时候或系统重启的时候,才有可能需要从eventstore读取事件。所以每秒10W次随机读取应该不是问题。当然,关于文件如何写,见下面的遗留问题的分析。

另外一个就是刷磁盘的问题。我们知道,通过文件流写入数据到文件后,如果不Flush文件流,那数据有可能还没刷到磁盘。所以必须定时Flush文件流,出于性能和可靠性的权衡,选择定时1s刷一次磁盘,通过异步线程刷盘。实际上,大部分NoSQL产品都是如此,比如Redis的fsync可以指定为每隔1s刷一次AOF日志到磁盘。这样做唯一的问题是断电后可能丢失1s的数据,但这个可以通过在服务器上配置UPS备用电源确保断电后服务器还能工作,来确保断电后还能支持足够的时间确保我们把文件流的数据刷到磁盘。这样既解决性能问题,也能保证不丢失数据。

事件并发控制

首先,每个聚合根实例有多个事件,每个时刻,每个聚合根可能都会产生多个事件然后要保存到eventstore中。为什么呢?因为我们的domain model所在的应用服务器一般是集群部署的,所以完全有可能同一个聚合根在不同的机器上在被同时在做不同的修改,然后产生的事件的版本号是相同的,从而就会导致并发修改同一个聚合根的情况了。

因此,我们主要要确保的是,对同一个聚合根实例,产生的事件如果版本号相同,则只能有一个事件能保存成功,其他的认为并发冲突,需要告诉外部有并发冲突了,然后由外部决定接下来该如何做。那么如何保证这一点呢?

前面说到,所有聚合根的事件都是顺序的方式append到同一个文件,append事件到文件这个步骤本身没办法检查是否有并发冲突,文件只能帮我们持久化数据,不负责检查是否有并发冲突。那如何检查并发冲突呢?思路就是在内存设计一个Dictionary,Dictionary的key为聚合根ID,value保存当前聚合根产生的事件的最大版本号,也就是最后一个事件的版本号。

然后有两个办法可以实现并发冲突的检测:

  1. 所有的事件进入eventstore服务器后,先通过一个ConcurrentQueue进行排队。所有事件并发进入ConcurrentQueue,然后ConcurrentQueue的消费者为单线程。然后我们在单线程内一个个取出ConcurrentQueue中的事件,然后根据Dictionary里的内容一个个判断当前事件是否有版本冲突,如果没冲突,则先将事件写入文件,再更新Dictionary里当前聚合根的最大版本号;这个方式没问题,只是效率不是非常高,因为这样相当于对所有的聚合根实例的处理都线性化了。实际上,我们希望的是,只有对同一个聚合根实例的操作是线性化的,而对不同聚合根实例之间,完全可以并行处理;那怎么做呢?见第二种思路。
  2. 首先,所有的事件不必排队了,可以并行处理。但是对于每一个聚合根实例的事件的处理,需要通过原子锁的方式(CAS原理)做并发控制。关键思路是,通过一个字段存储每个聚合根的当前版本号信息,版本号信息中设计一个状态位用来控制同一时刻只能有一个线程在更改当前聚合根的版本信息。以此来实现对同一个聚合根的处理的线性化。然后,当前修改版本状态成功的线程,能够进一步做持久化事件的逻辑,但持久化事件之前还需要判断当前事件的版本是否已经是老的版本了(当前事件的版本一定等于当前聚合根的最大版本号+1),以此来确保同一个聚合根的事件序列一定是连续递增的。具体的实现思路见如下的demo代码。

DEMO代码示例、注解

/// <summary>一个结构体,记录当前聚合根的当前版本号,以及用于并发控制的一些状态信息
/// </summary>
class AggregateVersionInfo
{
    public const int Editing = 1;    //一个常量,表示当前聚合根的当前版本号正在被修改
    public const int UnEditing = 0;  //一个常量,表示当前聚合根的当前版本号未在被修改

    public int CurrentVersion = 0;   //记录当前聚合根的当前版本号,初始值为0,其实就是事件的个数
    public int Status = UnEditing;   //默认状态,未被修改
}
class Program
{
    static void Main(string[] args)
    {
        var aggregateCount = 4;                    //用于测试的聚合根的个数
        var eventCountPerAggregate = 10;           //单个聚合根产生的事件数
        var aggregateIdList = new List<string>();  //一个List,存放所有聚合根的ID
        var aggregateCurrentVersionDict = new ConcurrentDictionary<string, AggregateVersionInfo>();  //一个Dict,用于保存所有聚合根的当前版本信息
        var aggregateEventsDict = new Dictionary<string, IList<int>>();                      //一个Dict,用于模拟存储每个聚合根的所有事件

        //先生成所有聚合根ID
        for (var index = 1; index <= aggregateCount; index++)
        {
            aggregateIdList.Add("key-" + index);
        }
        //初始化每个聚合根的当前状态
        foreach (var aggregateId in aggregateIdList)
        {
            aggregateCurrentVersionDict[aggregateId] = new AggregateVersionInfo();
            aggregateEventsDict[aggregateId] = new List<int>();
        }

        //该方法用于实现事件的并发冲突检测和持久化逻辑。
        Action<string, int> persistEventAction = (aggregateId, currentEventVersion) =>
        {
            var aggregateVersionInfo = aggregateCurrentVersionDict[aggregateId];
            var originalStatus = Interlocked.CompareExchange(
                ref aggregateVersionInfo.Status,
                AggregateVersionInfo.Editing,
                AggregateVersionInfo.UnEditing);

            //这里两者不相等,说明aggregateVersionInfo.Status成功更新为Editing了
            if (originalStatus != aggregateVersionInfo.Status)
            {
                if (currentEventVersion == aggregateVersionInfo.CurrentVersion + 1)
                {
                    //这里,将事件加入到一个List,真实的eventstore会在这里持久化事件到文件;
                    aggregateEventsDict[aggregateId].Add(currentEventVersion);
                    //更新聚合根的最新版本
                    aggregateVersionInfo.CurrentVersion++;
                }
                else
                {
                    //进入这里,说明有别的线程已经添加了该版本,也就是遇到并发冲突了。
                }

                //处理完后,将聚合根的版本状态修改回UnEditing
                Interlocked.Exchange(ref aggregateVersionInfo.Status, AggregateVersionInfo.UnEditing);
            }
            else
            {
                //进入这里,说明有别的线程正在更改当前聚合根的版本信息,也可以认为是遇到并发冲突了。
            }
        };

        //该方法用于模拟并行产生事件并调用事件的持久化逻辑
        Action generateEventAction = () =>
        {
            foreach (var aggregateId in aggregateIdList) //循环处理每个聚合根
            {
                //对每个聚合根产生指定个数的事件,为了简化,仅使用事件版本号表示事件了
                for (var eventVersion = 1; eventVersion <= eventCountPerAggregate; eventVersion++)
                {
                    for (var i = 0; i < 100000; i++) //这里纯粹为了性能测试,对每个事件再循环10W次调用持久化逻辑
                    {
                        persistEventAction(aggregateId, eventVersion); //调用持久化方法持久化聚合根的当前事件
                    }
                }
            }
        };

        var watch = Stopwatch.StartNew();
        //模拟同时4个线程同时产生事件并持久化,这里其实只要开2个够了,因为我的笔记本只有2个核
        Parallel.Invoke(generateEventAction, generateEventAction, generateEventAction, generateEventAction);
        watch.Stop();
        var time = watch.ElapsedMilliseconds;

        //最后输出结果,输出总运行时间,以及验证每个聚合根的当前版本以及聚合根的每个事件的版本是否是顺序逐个递增的。
        Console.WriteLine("total time:{0}ms", time);
        foreach (var aggregateId in aggregateIdList)
        {
            Console.WriteLine("aggregateId:{0}, currentVersion:{1}, events:{2}",
                aggregateId,
                aggregateCurrentVersionDict[aggregateId].CurrentVersion,
                string.Join(",", aggregateEventsDict[aggregateId].ToArray()));
        }

        Console.ReadLine();
    }
}

DEMO运行结果及分析

从上图可以看出,开启4个线程,并行操作4个聚合根,每个聚合根产生10个不同版本的事件(事件版本号连续递增),每个事件重复产生10W次,只花了大概1s时间。另外,最后每个聚合根的当前版本号以及所对应的事件也都是正确的。所以,可以看出,性能还不错。4个线程并行处理,每秒可以处理400W个事件(当然实际肯定没这么高,这里是因为大部分处理都被CompareExchange方法判断掉了。所以,只有没并发的情况,才是理想情况下的最快的性能点,因为每个事件都会做持久化和更新当前版本的逻辑,上面的代码主要是为了验证并发情况下是否会产生重复版本的事件这个功能。),且能保证不会持久化重复版本的事件。明天有空把持久化事件替换为真实的写文件流的方式,看看性能会有多少,理论上只要写文件流够快,那性能应该依旧很高。

遗留问题

上面还有一个问题我还没提及,那就是光用一个文件来存储所有的事件还不够的,我们还需要一个文件存储每个事件在文件中的位置和长度,否则我们没办法知道每个事件存储在文件的哪里。也就是在当事件写入到文件后,我们需要知道当前写入的起始位置,然后我们可以将这个起始位置信息再写入到另一个相当于索引作用的文件。这个问题下次有机会在详细分析吧,总体思路和淘宝开源的高性能分布式消息队列metaq的消息存储架构非常相似。淘宝的metaq之所以能高性能,很大一方面原因也是设计为顺序写文件,随机读文件的思路。如下图所示:

 

上图中的commitlog文件相当于我上面提到的用来存储事件的文本文件,commitlog在metaq消息队列中是用来存储消息的。index文件相当于用来存储事件在commitlog中的位置和长度。在metaq中,则是用来存储消息在commitlog中的位置和长度。所以,从存储结构的角度来看,metaq的消息存储和eventstore的事件存储的结构一致;但不一样的是,metaq在存储消息时,不需要做并发控制,所有消息只要append消息到commitlog即可,所有的index文件也只要append写入即可,关于metaq具体更详细的设计我还没深入研究,有兴趣的朋友也可以和我交流。而eventstore则必须对事件的版本号做并发控制,这是最大的区别。另外,实际上,事件的索引信息可以只需要维护在内存中即可,因为这些索引信息在eventstore启动时总是可以通过commitlog还原出来。当然我们维护一份Index文件也可以,只是会增加事件持久化时的复杂度,这里到底是否需要这个Index文件,我需要再研究下metaq后才能更进一步明确。

关于使用LevelDB的思考

在调研的过程中,无意中发现LevelDB的插入性能非常高。它是由Google的MapReduce和BigTable的作者设计的一个基于key/value结构的轻量级的非常高效的开源的NoSQL数据库。它能够支持10亿级别的数据量存储。LevelDB 是单进程的服务,性能非常之高,在一台4个Q6600的CPU机器上,每秒钟写数据超过40w,而随机读的性能每秒钟超过10w,足见性能之高。正因为他的高效,所以现在很多其他NoSQL都使用它来作为底层的数据持久化,比如淘宝的Tair支持用LevelDB来持久化缓存数据。所以有时间研究下LevelDB的设计与实现非常有必要。但是LevelDB只提供最简单的key/value的操作。对于顺序插入事件的需求,可以调用LevelDB的put操作。但是这里的put操作不支持并发冲突的检测,也就是如果连续put了两个key相同的value,则前一个value就会被后一个value所覆盖,这不是我们想要的。所以我们如果使用LevelDB,对于同一个聚合根不能有两个版本号相同的事件这个需求仍然需要我们自己来保证,可以通过上面DEMO中的思路来实现。也就是说,我们仅仅用LevelDB来代替日志。其实这样已经省去我们很多的工作量,因为我们自己写日志以及记录每个事件的存储位置和长度不是一件容易的事情,要求对算法和逻辑非常严密,否则只要一个bit错位了,可能读取出来的所有数据都错了。而LevelDB帮我们完成了最复杂和头疼的事情了。但不幸的是,LevelDB没有官方的windows版本。我能找到.net平台下的实现,但要在生产环境使用,还是要多做很多验证才行。另外,如果要用LevelDB来持久化事件,那我们的key可以是聚合根ID+事件版本号的字符串拼接。这点应该不难理解吧!

结束语

这篇文章洋洋洒洒,都是思路性的东西,希望大家看了不会枯燥,呵呵。欢迎大家提出自己的意见和建议!

时间: 2025-01-01 13:57:37

关于实现一个基于文件持久化的EventStore的核心构思的相关文章

Safelock 20120229发布 基于文件的锁定基元

Safelock 是一个基于文件的锁定基元,用于无关的进程和线程之间的死锁条件互诉.它提供了 POSIX 和 BSD 文件的锁定优势,如:多线程应用的兼容性,支持567.html">尝试超时锁定,检测崩溃的锁持有者,并详细列出锁定状态(PID,锁定时期,自定义数据). Safelock 20120229该版本是首次发布的版本. 使用范例: &http://www.aliyun.com/zixun/aggregation/37954.html">nbsp;#inclu

用户登录-毕设做一个基于安卓的手机网盘,该怎么实现文件加密上传?

问题描述 毕设做一个基于安卓的手机网盘,该怎么实现文件加密上传? 总不能在服务器端随便看到上传的文件吧?还有我只做了上传下载和对服务器端文件的查询删除修改的功能,需不需要做用户登录,用户登录要用数据库做吗? 解决方案 这种数据存储做好是分段加密存储,用文件的CRC校验码做文件名,然后做个列表文件,文件中记录这个文件的一些信息,以及文件是由哪些CRC校验码的文件组成的,以后下载时根据这个文件来组合会原来的文件 这样,在服务器上不会出现很大的数据,客户端处理起来也占资源少 比如你先读取这个文件的CR

lnav:Linux下一个基于控制台的高级日志文件查看器

服务器日志是一个由服务器创建并经常更新.用于抓取特定服务和应用的所有活动信息的日志文件.当你的应用或者服务出现问题时这个文件就会非常有用.从日志文件中你可以获取所有关于该问题的信息,例如基于警告或者错误信息它什么时候开始表现不正常. LNAV(Log file Navigator)是 Linux 下一个基于控制台的高级日志文件查看器.它和其它文件查看器,例如 cat.more.tail 等,完成相同的任务,但有很多普通文件查看器没有的增强功能(尤其是它自带多种颜色和易于阅读的格式). 它能在解压

lnav:Linux 下一个基于控制台的高级日志文件查看器

服务器日志是一个由服务器创建并经常更新.用于抓取特定服务和应用的所有活动信息的日志文件.当你的应用或者服务出现问题时这个文件就会非常有用.从日志文件中你可以获取所有关于该问题的信息,例如基于警告或者错误信息它什么时候开始表现不正常. LNAV(Log file Navigator)是 Linux 下一个基于控制台的高级日志文件查看器.它和其它文件查看器,例如 cat.more.tail 等,完成相同的任务,但有很多普通文件查看器没有的增强功能(尤其是它自带多种颜色和易于阅读的格式). 它能在解压

link环境中,制作一个基于codefirst的网盘,如何在文件前加上图示?

问题描述 link环境中,制作一个基于codefirst的网盘,如何在文件前加上图示? link环境中,制作一个基于codefirst的网盘,如何在文件前加上图示? 解决方案 可以根据后缀名判断,Path.GetExtention事先将图标放在服务器上

MongoDB 是一个基于分布式文件存储的数据库

MongoDB 是一个基于分布式文件存储的数据库,旨在为 WEB 应用提供可扩展的高性能数据存储解决方案.MongoDB 的发展势头十分迅猛,自成立以来每年的销售收入和员工数量均实现翻番. 据彭博社报道,非关系式数据库初创企业 MongoDB 在最新一轮的融资中获得了 1.5 亿美元的 VC 资金,其估值也已达到 12 亿美元. MongoDB 是一种对象式数据库,据介绍,在非关系式数据库中,这种数据库是功能最丰富.最像关系数据库的一种: MongoDB 是一个基于分布式文件存储的数据库,旨在为

android-小白请教高手问题,今天看了持久化技术的关于一个从文件中读取数据的问题

问题描述 小白请教高手问题,今天看了持久化技术的关于一个从文件中读取数据的问题 想要完成一个功能,向EditText里输入数据,数据存放在一个文件夹后,然后按下back键,再重新启动这个程序,再从这个文件里读取数据,出现的是这个数据已经填充在EditText里 下面是代码 MainActivity import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.FileInputStream; import

快速从一个XML文件中查找信息

在网络时代,XML文件起到了一个保存和传输数据的作用.Soap协议通过Xml交流信息,数据库通过Xml文件存取等等.那么怎样快速的从一个XML文件中取得所需的信息呢? 我们知道,JAVA的JAXP中和Microsoft.Net都有Xml分析器,Microsoft.Net是边读边分析,而JAXP是读到内存中然后才进行分析(还有一种是事件机制去读),总而言之,是不利于快速读取.基于此,Microsoft.Net 和JAXP都提供了XPATH机制,来快速定位到XML文件中所需的节点. 例如有一个XML

怎样快速从一个XML文件中查找信息

xml 在网络时代,XML文件起到了一个保存和传输数据的作用.Soap协议通过Xml交流信息,数据库通过Xml文件存取等等.那么怎样快速的从一个XML文件中取得所需的信息呢? 我们知道,JAVA的JAXP中和Microsoft.Net都有Xml分析器,Microsoft.Net是边读边分析,而JAXP是读到内存中然后才进行分析(还有一种是事件机制去读),总而言之,是不利于快速读取.基于此,Microsoft.Net 和JAXP都提供了XPATH机制,来快速定位到XML文件中所需的节点. 例如有一