0
点赞
收藏
分享

微信扫一扫

transformer--输入(位置编码)

东林梁 03-02 17:00 阅读 2

1.官方设计

1.1.分配读取拆分

Source通常有两个核心的部件:当前的Source接口就是用来创建SplitEnumerator和Reader的工厂类

  1. SplitEnumerator: 分片发现和分配(分片即文件、分区等),目前只运行一次(应该可以重复调用运行)
  2. Reader: 从分片读取数据,可以是一系列有界数据,也可以是多个并行无界数据源

1.2.批流统一

  • FileSource:
    有界:SplitEnumerator一次性抓取目录下所有文件并分配
    无界:SplitEnumerator定期获取目录下的所有文件并只分配新文件
  • KafkaSource
    有界:列出所有分区并获取每个分区的最新偏移量并将其作为“结束偏移量”附加到分片
    无界:列出所有分区并将LONG_MAX作为“结束偏移量”附加到每个分片
    无界还支持发现新分区的功能

2.基本方法

基本接口为Source(flink-core中)

  • getBoundedness
    数据源的有界性,包括无界数据源这里也可以设置界限
  • createReader
    创建一个reader去读取分配的数据分片,读取是无状态的
  • createEnumerator
    创建一个SplitEnumerator,SplitEnumerator是分割枚举器的接口,功能是发现reader读取器的分片并分配
  • restoreEnumerator
    从checkpoint恢复SplitEnumerator
  • getSplitSerializer
    为分片创建序列化器
  • getEnumeratorCheckpointSerializer
    为SplitEnumerator的checkpoint创建序列化器

3.FileSource

  以FileSource举例说明,大部分实现实际在AbstractFileSource

3.1.getBoundedness

  由continuousEnumerationSettings决定是否有界

public Boundedness getBoundedness() {
    return continuousEnumerationSettings == null
            ? Boundedness.BOUNDED
            : Boundedness.CONTINUOUS_UNBOUNDED;
}

  continuousEnumerationSettings有专门的接口设置(monitorContinuously),在FileSystemTableSource以及WordCount用例里有实现。FileSystemTableSource里方式就是配置source.monitor-interval,用来周期性扫描文件目录

3.2.createEnumerator

  上节的continuousEnumerationSettings在createSplitEnumerator接口当中使用,createSplitEnumerator接口由createEnumerator调用,用于产生SplitEnumerator

public SplitEnumerator<SplitT, PendingSplitsCheckpoint<SplitT>> createEnumerator(
        SplitEnumeratorContext<SplitT> enumContext) {

    final FileEnumerator enumerator = enumeratorFactory.create();

    // read the initial set of splits (which is also the total set of splits for bounded
    // sources)
    final Collection<FileSourceSplit> splits;
    try {
        // TODO - in the next cleanup pass, we should try to remove the need to "wrap unchecked"
        // here
        splits = enumerator.enumerateSplits(inputPaths, enumContext.currentParallelism());
    } catch (IOException e) {
        throw new FlinkRuntimeException("Could not enumerate file splits", e);
    }

    return createSplitEnumerator(enumContext, enumerator, splits, null);
}
  • FileEnumerator
    在构建FileSource的时候确定,有两个实现
    BlockSplittingRecursiveEnumerator、NonSplittingRecursiveEnumerator
    BlockSplittingRecursiveEnumerator用于文件能拆分的,会拆分文件块
    NonSplittingRecursiveEnumerator文件不能拆分,每个文件作为一个split
  • splits
    目前关联FileSource是实现了NonSplittingRecursiveEnumerator,最终封装成了一个FileSourceSplit的List列表,这里的参数Parallelism接口里没有用
final String[] hosts =
        getHostsFromBlockLocations(fs.getFileBlockLocations(file, 0L, file.getLen()));
target.add(
        new FileSourceSplit(
                getNextId(),
                file.getPath(),
                0,
                file.getLen(),
                file.getModificationTime(),
                file.getLen(),
                hosts));
  • FileSplitAssigner
    split分配器,FileSource使用的是LocalityAwareSplitAssigner
    这里会有本地文件和远程文件的识别分配,但实际使用的时候还是依赖于上层(SplitEnumerator)的调用,会传入host
    最终是由这个类返回一个FileSourceSplit
  • SplitEnumerator
    注意这里传入的参数alreadyProcessedPaths是null,也就是说对于FileSource,每次都是全量扫描
    AbstractFileSource里用到了两个实现
    StaticFileSplitEnumerator、ContinuousFileSplitEnumerator,分别用于处理有界和无界文件流

3.3.createReader

  创建一个阅读器,FileSource的实例是FileSourceReader,大部分功能在基础SourceReaderBase接口中实现了
  读取的触发应该由SourceOperator的emitNext接口调用,最终调用到SourceReaderBase的pollNext接口,里面有一个死循环
  这里有三层关系:fetch -> split -> record,一层一层获取
  循环中有两个处理:1、record列表有数据,走flink的算子间的数据传输流程;2、无数据,则走读取split的流程(split也是一批批读取的,所以这里面包好了两个方法,从当前的split读取数据和读取下一个split)
  fetch的获取由SplitFetcherManager控制,最终由FetchTask获取。有一个在各个对象之间传递的elementsQueue对象,存储了fetch列表,FetchTask会向它增加元素,在SourceReaderBase当中读取

3.4.用法

  在WordCount里有样例

FileSource.FileSourceBuilder<String> builder =
        FileSource.forRecordStreamFormat(
                new TextLineInputFormat(), params.getInputs().get());

// If a discovery interval is provided, the source will
// continuously watch the given directories for new files.
params.getDiscoveryInterval().ifPresent(builder::monitorContinuously);

text = env.fromSource(builder.build(), WatermarkStrategy.noWatermarks(), "file-input");

  forRecordStreamFormat接口定义数据格式,会在创建FileSourceReader的时候使用
  monitorContinuously就是配置流式监控文件
  最终是通过env封装成Source

4.SourceTransformation\SourceOperator

  Flink数据源的执行表现形式还是SourceOperator,所以最终的执行触发还是在这个结构。算子层面,Source的表现形式为SourceTransformation,由SourceTransformation触发构建SourceOperator
  原生的Source是SourceTransformation的一个成员

public SourceTransformation(
        String name,
        Source<OUT, SplitT, EnumChkT> source,
        WatermarkStrategy<OUT> watermarkStrategy,
        TypeInformation<OUT> outputType,
        int parallelism) {
    super(name, outputType, parallelism);
    this.source = source;
    this.watermarkStrategy = watermarkStrategy;
}

  SourceOperator里有三个核心方法:
  emitNext:是Operator的统一数据流转接口,即处理一次数据的接口
  open\initReader:open里也调用了initReade,主要都是为了做初始化

4.1.initReader

  这里面主要是创建了SourceReaderContext,SourceReaderContext里有两个重要的方法,负责向Coordinator发送请求

@Override
public void sendSplitRequest() {
    operatorEventGateway.sendEventToCoordinator(
            new RequestSplitEvent(getLocalHostName()));
}

@Override
public void sendSourceEventToCoordinator(SourceEvent event) {
    operatorEventGateway.sendEventToCoordinator(new SourceEventWrapper(event));
}

4.2.open

  核心是对Reader的三步操作:1、初始化,即上面的initReader方法;2、注册,即向Coordinator发送请求,注册reader;3、启动,调用Reader的启动接口

4.3.emitNext

  核心是通过SourceReader获取数据

// short circuit the hot path. Without this short circuit (READING handled in the
// switch/case) InputBenchmark.mapSink was showing a performance regression.
if (operatingMode == OperatingMode.READING) {
    return convertToInternalStatus(sourceReader.pollNext(currentMainOutput));
}
return emitNextNotReading(output);

5.ScanTableSource

  关键接口是getScanRuntimeProvider,有子类实现,返回一个运行时数据读取器

6.相关类集合

  • Source - 帮助在运行时创建SplitEnumerator和SourceReader的工厂样式类。
  • SourceSplit - 所有拆分类型的接口。
  • SplitEnumerator - 发现拆分并将它们分配给SourceReaders
  • SplitEnumeratorContext - 向SplitEnumerator提供必要的信息以分配拆分并将自定义事件发送到SourceReaders。
  • SplitAssignment - 一个容器类,其中包含每个子任务的源拆分分配。
  • SourceReader - 从SplitEnumerator分配的拆分中读取记录。
  • SourceReaderContext - 为SourceReader提供必要的功能以与SplitEnumerator通信。
  • SourceOutput - 收集器样式接口,用于获取SourceReader发出的记录和时间戳。
  • WatermarkOutput -用于发出水印并指示源空闲的接口。
  • Watermark - 将在包org.apache.flink.api.common.eventtime 中创建一个新的 Watermark 类。 该类最终将替换org.apache.flink.streaming.api.watermark 中现有的 Watermark。 此更改允许 flink-core 保持独立于其他模块。鉴于我们最终会将所有水印生成放入源中,因此此更改将是必要的。请注意,此 FLIP 并不打算更改水印在源发出后可以在 DataStream 中覆盖的现有方式。

7.SourceCoordinator

举报

相关推荐

0 条评论