下面是一个粗略的实现,它可能会为您指明一个方向。在我的示例中,涉及通知的任务是保存数据对象。保存对象时,将引发保存的事件。除了一个简单的保存方法外,我还实现了beginsave和endsave方法,以及与这两个方法一起用于批保存的保存过载。调用endsave时,将激发单个batchsave事件。
显然,你可以根据自己的需要修改这个。在我的示例中,我跟踪了在批处理操作期间保存的所有对象的列表,但这可能不是您需要做的事情……您可能只关心保存了多少对象,甚至只关心批处理保存操作已完成。如果您预期会保存大量对象,那么将它们存储在列表中(如我的示例中所示)可能会成为内存问题。
编辑:我在我的示例中添加了一个“阈值”概念,它试图防止在内存中保存大量对象。但是,这会导致batchsaved事件更频繁地触发。我还添加了一些锁来解决潜在的线程安全问题,尽管我可能遗漏了一些东西。
class DataConcierge<T>
{
// *************************
// Simple save functionality
// *************************
public void Save(T dataObject)
{
// perform save logic
this.OnSaved(dataObject);
}
public event DataObjectSaved<T> Saved;
protected void OnSaved(T dataObject)
{
var saved = this.Saved;
if (saved != null)
saved(this, new DataObjectEventArgs<T>(dataObject));
}
// ************************
// Batch save functionality
// ************************
Dictionary<BatchToken, List<T>> _BatchSavedDataObjects = new Dictionary<BatchToken, List<T>>();
System.Threading.ReaderWriterLockSlim _BatchSavedDataObjectsLock = new System.Threading.ReaderWriterLockSlim();
int _SavedObjectThreshold = 17; // if the number of objects being stored for a batch reaches this threshold, then those objects are to be cleared from the list.
public BatchToken BeginSave()
{
// create a batch token to represent this batch
BatchToken token = new BatchToken();
_BatchSavedDataObjectsLock.EnterWriteLock();
try
{
_BatchSavedDataObjects.Add(token, new List<T>());
}
finally
{
_BatchSavedDataObjectsLock.ExitWriteLock();
}
return token;
}
public void EndSave(BatchToken token)
{
List<T> batchSavedDataObjects;
_BatchSavedDataObjectsLock.EnterWriteLock();
try
{
if (!_BatchSavedDataObjects.TryGetValue(token, out batchSavedDataObjects))
throw new ArgumentException("The BatchToken is expired or invalid.", "token");
this.OnBatchSaved(batchSavedDataObjects); // this causes a single BatchSaved event to be fired
if (!_BatchSavedDataObjects.Remove(token))
throw new ArgumentException("The BatchToken is expired or invalid.", "token");
}
finally
{
_BatchSavedDataObjectsLock.ExitWriteLock();
}
}
public void Save(BatchToken token, T dataObject)
{
List<T> batchSavedDataObjects;
// the read lock prevents EndSave from executing before this Save method has a chance to finish executing
_BatchSavedDataObjectsLock.EnterReadLock();
try
{
if (!_BatchSavedDataObjects.TryGetValue(token, out batchSavedDataObjects))
throw new ArgumentException("The BatchToken is expired or invalid.", "token");
// perform save logic
this.OnBatchSaved(batchSavedDataObjects, dataObject);
}
finally
{
_BatchSavedDataObjectsLock.ExitReadLock();
}
}
public event BatchDataObjectSaved<T> BatchSaved;
protected void OnBatchSaved(List<T> batchSavedDataObjects)
{
lock (batchSavedDataObjects)
{
var batchSaved = this.BatchSaved;
if (batchSaved != null)
batchSaved(this, new BatchDataObjectEventArgs<T>(batchSavedDataObjects));
}
}
protected void OnBatchSaved(List<T> batchSavedDataObjects, T savedDataObject)
{
// add the data object to the list storing the data objects that have been saved for this batch
lock (batchSavedDataObjects)
{
batchSavedDataObjects.Add(savedDataObject);
// if the threshold has been reached
if (_SavedObjectThreshold > 0 && batchSavedDataObjects.Count >= _SavedObjectThreshold)
{
// then raise the BatchSaved event with the data objects that we currently have
var batchSaved = this.BatchSaved;
if (batchSaved != null)
batchSaved(this, new BatchDataObjectEventArgs<T>(batchSavedDataObjects.ToArray()));
// and clear the list to ensure that we are not holding on to the data objects unnecessarily
batchSavedDataObjects.Clear();
}
}
}
}
class BatchToken
{
static int _LastId = 0;
static object _IdLock = new object();
static int GetNextId()
{
lock (_IdLock)
{
return ++_LastId;
}
}
public BatchToken()
{
this.Id = GetNextId();
}
public int Id { get; private set; }
}
class DataObjectEventArgs<T> : EventArgs
{
public T DataObject { get; private set; }
public DataObjectEventArgs(T dataObject)
{
this.DataObject = dataObject;
}
}
delegate void DataObjectSaved<T>(object sender, DataObjectEventArgs<T> e);
class BatchDataObjectEventArgs<T> : EventArgs
{
public IEnumerable<T> DataObjects { get; private set; }
public BatchDataObjectEventArgs(IEnumerable<T> dataObjects)
{
this.DataObjects = dataObjects;
}
}
delegate void BatchDataObjectSaved<T>(object sender, BatchDataObjectEventArgs<T> e);
在我的示例中,我选择使用令牌概念来创建单独的批。这允许在不同线程上运行的较小批处理操作完成并引发事件,而不需要等待较大的批处理操作完成。
我做了单独的事件:保存和批保存。然而,这些可以很容易地合并为一个事件。
编辑:修正了StevenSudit在访问赛事代表时指出的比赛条件。
编辑:在我的示例中,修改了锁定代码以使用readerwriterlockslim而不是monitor(即“lock”语句)。我认为在save和endsave方法之间存在一些竞争条件。可以执行endsave,从而从字典中删除数据对象列表。如果save方法同时在另一个线程上执行,则可以将数据对象添加到该列表中,即使该对象已从字典中删除。
在我修改过的示例中,这种情况不会发生,如果save方法在endsave之后执行,它将抛出异常。这些比赛条件主要是由于我试图避免我认为不必要的锁定。我意识到在一个锁中需要更多的代码,但是决定使用readerwriterlockslim而不是monitor,因为我只想防止save和endsave同时执行;不需要防止多个线程同时执行save。注意,monitor仍然用于同步对从字典中检索到的特定数据对象列表的访问。
编辑:添加用法示例
下面是上述示例代码的用法示例。
static void DataConcierge_Saved(object sender, DataObjectEventArgs<Program.Customer> e)
{
Console.WriteLine("DataConcierge<Customer>.Saved");
}
static void DataConcierge_BatchSaved(object sender, BatchDataObjectEventArgs<Program.Customer> e)
{
Console.WriteLine("DataConcierge<Customer>.BatchSaved: {0}", e.DataObjects.Count());
}
static void Main(string[] args)
{
DataConcierge<Customer> dc = new DataConcierge<Customer>();
dc.Saved += new DataObjectSaved<Customer>(DataConcierge_Saved);
dc.BatchSaved += new BatchDataObjectSaved<Customer>(DataConcierge_BatchSaved);
var token = dc.BeginSave();
try
{
for (int i = 0; i < 100; i++)
{
var c = new Customer();
// ...
dc.Save(token, c);
}
}
finally
{
dc.EndSave(token);
}
}
这导致了以下输出:
dataconcierege<customer>。保存的批数:17
dataconcierege<customer>。保存的批数:17
dataconcierege<customer>。保存的批数:17
dataconcierege<customer>。保存的批数:17
dataconcierege<customer>。保存的批数:17
dataconcierege<customer>。保存的批数:15
在我的示例中,阈值设置为17,因此一批100个项目会导致batchsaved事件触发6次。