我有一个场景,我必须存储过去30分钟的流数据并继续根据传入数据执行某些操作。基本上,它与事件相关,因此当触发第一个事件时,我必须等待下一个事件,然后查看它是否与先前的事件有关。
我正在从Kafka流式传输数据,但是如何将数据移动到spark中的临时表并在特定时间范围内维护呢?
我有一个场景,我必须存储过去30分钟的流数据并继续根据传入数据执行某些操作。基本上,它与事件相关,因此当触发第一个事件时,我必须等待下一个事件,然后查看它是否与先前的事件有关。
我正在从Kafka流式传输数据,但是如何将数据移动到spark中的临时表并在特定时间范围内维护呢?