为什么要计算非事件的对数似然?

背景:事件和非事件的建模

  • 事件发生:模型预测某些时刻会发生特定类型的事件。
    • 事件的对数似然(event_ll)用于评估模型在正确预测事件上的性能。
  • 非事件建模:在没有事件发生的时间区间(非事件区间)中,模型需要正确预测“没有事件发生”的可能性。
    • 非事件对数似然(non_event_ll)用于评估模型对空窗期的预测能力。

在 Hawkes 过程和类似的时间序列建模中,事件发生概率和非事件发生概率需要同时被建模,才能全面描述时间序列。

为什么要计算非事件的对数似然?

2.1 补全概率分布

  • 在时间序列建模中,事件发生的概率和非事件发生的概率需要共同描述整个时间过程。
  • 如果只考虑事件的对数似然,模型可能会忽视事件之间的空窗期(即非事件的部分),导致预测偏差。
  • 非事件的对数似然弥补了这一空白,确保模型能够平衡事件和非事件的预测。

2.2 避免过拟合事件

  • 如果只优化事件对数似然,模型可能会倾向于过拟合现有事件,而忽视没有事件的时间段(空窗期)。
  • 计算非事件的对数似然,模型需要在空窗期内预测“事件不应该发生”,从而提高模型对真实数据的拟合能力。

2.3 强化时间动态的学习

  • 非事件的对数似然依赖于事件发生率(intensity function),即 type_lambda
    • 高强度:非事件的对数似然会较低(模型认为事件更有可能发生)。
    • 低强度:非事件的对数似然会较高(模型认为事件不太可能发生)。
  • 通过优化非事件的对数似然,模型能够更准确地学习时间动态变化,区分事件和非事件的边界。

2.4 对比学习的核心

  • 在对比学习中,正样本(事件)和负样本(非事件)需要一起优化。
    • 优化事件对数似然:让模型在事件时刻更自信。
    • 优化非事件对数似然:让模型在非事件时刻更谨慎。
  • 非事件对数似然帮助模型更好地区分正负样本。

总结

计算非事件的对数似然有以下意义:

  1. 补充事件的对数似然:完整描述时间序列的概率分布。
  2. 提升模型鲁棒性:避免模型过拟合事件,增强对非事件区间的预测能力。
  3. 强化时间动态的学习:通过优化非事件对数似然,模型能更准确地学习强度函数的变化趋势。
  4. 优化生成模型:在对比学习中,正负样本需要共同训练,非事件对数似然优化负样本的学习。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注