https://flink.apache.org/ logo
Join Slack
Powered by
# lang-中文
  • q

    Qinghui Xu

    08/04/2022, 5:14 PM
    大家好, 请问是否有人也在Mesos上运行Flink session cluster, 我最近注意到一个奇怪的问题,就是jobmanager无法提供足够的slot给job。这个问题偶尔发生,需要通过重启jobmanager来解决。 大伙有什么想法吗?谢谢。
    y
    • 2
    • 2
  • z

    Zhenyu Xing

    08/09/2022, 8:29 AM
    有哪位同学有空 review 一下这个 中文翻译的PR 不,谢啦🤓
  • k

    Kyle Meow

    08/16/2022, 7:55 AM
    发现个诡异事情:用 RocksDB 存状态时,Flink 的 MiniBatchGlobalGroupAggFunction 的 accState(RowData)读取时,RowData 的字段有概率突变成 null;Heap 状态后端就一切正常。JIRA 里还没找到相关问题
    y
    • 2
    • 2
  • p

    pingzhong

    08/18/2022, 1:15 PM
    请问intervalJoin没匹配上的数据有办法获取到吗?
  • e

    Eric Liu

    01/13/2023, 4:31 AM
    Hello 大家好,请问有人了解这个error吗?因为这个error, checkpointing 经常timeout… 尝试着把
    blob.fetch.num-concurrent
    从50增加到200还是不行.. (Flink1.15.3)
    Copy code
    2023-01-09 06:26:28,780 ERROR org.apache.flink.runtime.blob.BlobServerConnection           [] - Error while executing BLOB connection.
    java.io.IOException: Unknown operation 71
    	at org.apache.flink.runtime.blob.BlobServerConnection.run(BlobServerConnection.java:116) [flink-dist-1.15.3.jar:1.15.3]
    w
    • 2
    • 5
  • u

    肖文浩

    02/16/2023, 5:54 AM
    想问下大家有用flink往2.7版本以上的hdfs写数据吗,从checkpoint恢复的时候会truncate文件的,如果写的是压缩格式的,truncate后文件会损坏,有什么好的方法吗?
    x
    • 2
    • 1
  • t

    Ting Yin

    02/21/2023, 2:43 AM
    大家好,请问有人在flink- operator下跑过flink-benchmarks 吗? 我碰到一个错误org.apache.flink.runtime.resourcemanager.active.ActiveResourceManager [] - Starting the resource manager. Error: Could not find or load main class org.openjdk.jmh.runner.ForkedMain Caused by: java.lang.ClassNotFoundException: org.openjdk.jmh.runner.ForkedMain <forked VM failed with exit code 1>
  • t

    Ting Yin

    02/21/2023, 2:45 AM
    benchmarks.jar直接java -jar 是可以运行的,不知道缺少配置导致上面的错误?
  • z

    Zhiyu Tian

    02/23/2023, 4:22 AM
    Hello 大家好, 请教一下 如何 将 task manager 注册到 job manager. 1. 我们有多个 k8s cluster. 2. 在 cluster A 创建了 Deployment 用来启动 Job manager 3. 在 cluster B 和 cluster C 各创建了 一个deployment 作为 Task Manager 现在想要让 cluster B 和 Cluster C 里面的 task manager 注册到 cluster A 上面的 job manager, 请问有什么办法么?
    w
    • 2
    • 10
  • z

    Zhiyu Tian

    03/09/2023, 2:50 AM
    大家好, 请教一下 Flink WebUI 上面的任务的 Metrics 提示“No Available Metric” 的情况? 这个metrics, 打包提交的时候, 有时候有 metrics, 有时候没有 metrics. 这个是跟 打包方式有关系么? 环境: Flink env: Flink 1.16 standalone mode, 物理机,非 Docker 非 Kubernetes 打包工具: Maven shade plugin 提交方式:WebUI
  • b

    Bruce Lee (Unicorn)

    03/16/2023, 9:10 AM
    flink都是报的这种类型的错误是缺包吗?下的flink1.14.6版本,为啥会缺包?怎么解决有人知道吗?
  • b

    Bruce Lee (Unicorn)

    04/04/2023, 10:03 AM
    本地在idea调试没有问题 打成jar传到flink创建job就报这个错 有人遇到过吗
  • b

    Bruce Lee (Unicorn)

    04/07/2023, 1:44 AM
    有大神遇到过这个问题吗
    b
    • 2
    • 1
  • u

    刘路

    05/10/2023, 6:29 AM
    flink 从mysql 写到gp,mysql数据有个聚合操作,但是我的postgresql版本是9.4不支持upsert,请问好啥好办法吗
  • a

    akira

    06/01/2023, 6:46 AM
    有同学遇到 用flinksql写s3 会出现文件丢失的情况(大概2%),但是没有报错日志 flink版本是1.13
  • s

    Stan Hsu

    07/13/2023, 2:54 AM
    大家好,想問問performance的問題,我有一段flink sql如下,預先在kafka_ticdc_orders_log產了60萬筆message,對應的tidb表tidb_orders_log也是60萬筆, 然後再啟動job去消耗,kafka partition為5,flink parallelism為5,每秒約只能消耗10筆message, 透過web ui 有觀察應是卡在ROW_NUMBER去重,是因為前面的SQL產生了太大量的資料嗎? 那是否不建議使用flink做這樣的處理呢? 謝謝各位!
    Copy code
    INSERT INTO tidb_order_labels
        WITH kafka_ticdc_orders_log_parsed AS (
            -- tidb的cdc資料
            SELECT
                *
            FROM
                kafka_ticdc_orders_log
        ),
        orders_all_state AS (
            -- 利用kafka的order_id去查tidb的order歷程表,tidb_orders_log在tidb裡面pk是order_id+updated_at,
            -- 所以來了一筆order_A,如果他有三筆歷程,就會查回像是order_A,T1/order_A,T2/order_A,T3
            SELECT
                orders_log.*,
                kafka_ticdc_orders_log_parsed.proc_time
            FROM
                kafka_ticdc_orders_log_parsed
            JOIN
                tidb_orders_log FOR SYSTEM_TIME AS OF kafka_ticdc_orders_log_parsed.proc_time AS orders_log
            ON
                kafka_ticdc_orders_log_parsed.order_id = orders_log.order_id
        ),
        orders_enrich_previous_state AS (
            SELECT
                order_id,
                seller_id,
                updated_at,
                status,
                previous_status
            FROM (
                -- 利用剛剛從tidb查回的歷程資料,算出每筆歷程的previous狀態,如下
                -- order_id,updated_at,status,    previous_status
                -- order_A ,T1        ,active,    null
                -- order_A ,T2        ,cancelled, active
                -- order_A ,T3        ,removed,   active
                -- order_A ,T3        ,removed,   cancelled
                -- 利用row_number去重複
                -- order_id,updated_at,status,    previous_status
                -- order_A ,T1        ,active,    null
                -- order_A ,T2        ,cancelled, active
                -- order_A ,T3        ,removed,   cancelled
                SELECT
                    t1.*,
                    t2.total_cents AS previous_total_cents,
                    0 AS previous_total_cost,
                    t2.status AS previous_status,
                    t2.edited_at AS previous_edited_at,
                    ROW_NUMBER() OVER (
                        PARTITION BY
                            t1.order_id, t1.updated_at
                        ORDER BY
                            t2.updated_at DESC
                    ) AS rn
                FROM
                    orders_all_state AS t1
                LEFT JOIN
                    orders_all_state AS t2
                ON
                    t1.order_id = t2.order_id
                    AND t1.updated_at > t2.updated_at
            )
            WHERE
                rn = 1
        )
        SELECT
            order_id,
            seller_id AS merchant_id,
            updated_at,
            status,
            previous_status,
            CURRENT_TIMESTAMP as _processed_at
        FROM
            orders_enrich_previous_state
        WHERE
            order_id IS NOT NULL
            AND updated_at IS NOT NULL
    ;
  • m

    Mike Zhang

    08/02/2023, 2:24 AM
    有点问题想请教一下,DataStream的Kafka Connector,有办法像Table API一样得到Metadata吗?
  • s

    Stephen Lii

    08/16/2023, 11:08 AM
    大家好,你们生产上用的Flink版本是多少啊?
  • s

    Stephen Lii

    08/16/2023, 11:08 AM
    以及为什么用这个版本啊,可以交流一下下吗?
  • h

    han liu

    09/11/2023, 2:57 PM
    hello,大家好,我想知道,能否将datastream.addSource()的结果输出到集合当中?例如List或Map?
    u
    • 2
    • 1
  • z

    Zhenjiu Tian

    10/30/2023, 8:53 AM
    大家好, 这个 cassandra connector 只支持flink1.17 以上吗? 我们的集群说1.14的有办法用吗? https://github.com/apache/flink-connector-cassandra
  • x

    XI XI

    11/03/2023, 2:13 AM
    各位早安,想问下在FLINK k8s(standalone)下如何直接使用HDFS的中定义在其配置内的集群名称进行访问(提示找不到host),谢谢回答。
  • z

    Zhenjiu Tian

    01/02/2024, 3:57 AM
    https://flink.apache.org/visualizer/ 这个404了,现在要看graph有替代方案吗?
  • q

    qinxiao

    05/06/2024, 7:37 AM
    让我们用这个频道来……
  • j

    Jingyu Zhao

    05/09/2024, 11:22 PM
    用起来…
  • z

    Zhenjiu Tian

    05/27/2024, 5:44 AM
    用啊,发消息都没人理的
    😂 2
  • s

    Shay Shen

    05/31/2024, 10:12 AM
    老师们你们flink 用golang的哪个库
  • h

    huangsijun17

    07/01/2024, 10:30 AM
    请问一下,我搭了一个Flink的主从后,怎么验证网络调用的可用性?
  • z

    Zhenjiu Tian

    09/12/2024, 6:12 AM
    大家好
  • z

    Zhenjiu Tian

    09/12/2024, 10:31 AM
    大家好,对flink cdc pg我有一个问题🙏 如果checkpoint是五分钟,在五分钟之前,lsn没有更新到checkpoint,那么如果出问题恢复的时候有可能产生重复数据吗? 比如,LSN:5,6,7,8,9,10 checkpoint里面记的还是5,处理到10的时候出了问题要recover,从checkpoint回复不就是5开始了,6-9就会重复event?