-
-
34有偿在线答疑。 擅长flink,spark,hive各类疑难杂症。
-
1flink1.12 同步数据到https ssl鉴权es 报pkix path building failed:有人遇到吗,帮忙解决下,懵逼了
-
4接活啦,欢迎来聊
-
2#本地sink ddl es_sink_ddl = f""" CREATE TABLE es_sink `5xx_user_count` FLOAT, `4xxand5xx_user_count` FLOAT ) with ( 'connector' = 'elasticsearch-7', 'hosts' = '{elasticsearch_url}', 'index' = 'test_ott_performance_v1-{es_index}', 'username' = '{elasticsearch_user_name}', 'password' = '{elasticsearch_user_password}', 'failure-handler'='https', 'format' = 'json', 'json.timestamp-format.standard'='ISO-8601', 'json.fail-on-missing-field' = 'fa
-
0大厂架构师亲自录制,课程不同于市面上走马观花的课程,我们深入剖析Flink的所有底层组件,确保学员在理解的基础上能够融会贯通。 1.源码逐行剖析:深入解读Flink底层核心源码,让你掌握其内在逻辑。 2.注释辅助学习:源码中附带详细注释,方便你轻松复习巩固所学内容。 3.实时微信群答疑:专业团队在线解答,你的疑问我们秒回,学习无障碍。 4.知识体系贯通:助你串联底层源码,形成完整知识体系,真正精通Flink。
-
0RT,本人在本地测试的时候规划了flink和yarn在不同虚拟机上,已经启动Hadoop yarn服务,然后flink这边不知道如何配置才能找到yarn的地址并通过yarn-session.sh命令启动
-
0
-
0
-
0
-
0
-
4Flink SQL 的insert into操作 我想达到的效果是写入数据时,如果对应字段的值存在则更新,如果写入的是null,则保持原表的值不更新。 现在Flink SQL能实现吗?
-
1
-
2
-
0订阅关系不断增加的表同步怎么做比较好,就是有两个表a,b,订阅字段为m,b订阅a的m=2的数据,就这一部分数据进行同步,以后订阅关系不断增加m=1,2,3,4.........,订阅关系增加时,a表中可能存在该订阅关系的历史数据,要保持a和b表在订阅关系上数据最终一致,这种不断增加订阅关系的表同步怎么做比较好(表不限于mysql,可以是数据湖中的表)
-
0
-
0
-
0
-
0网页链接 专栏还有flink详细笔记
-
0
-
0
-
0海汼部落云平台-大数据自学者神器
-
0
-
2#flink##mysql#有没有大佬有简单的flink项目,java实现读取文本文件内容由flink转换然后输出到MySQL,20悬赏(确保能够正确运行)可以不用原创,学习使用,不用于商用
-
0
-
0Scala版的flink吗
-
0Scala版的flink吗
-
1
-
0
-
2flink单机模式下,通过web提交任务,job manager的metaspace不断升高,这个有参数解决么,版本1.14.3
-
1
-
0
-
3开发flink sql,各位有什么好的ide推荐吗?
-
0复写richsinkfunction有点太麻烦了,我需要搞的表有点多。有大佬做过类似的需求吗
-
0
-
5
-
0
-
0求助:StreamX build后不能自动同步代码 重启Application无法更新最新代码 需要删除Application 重新添加配置 这个问题是不是BUG还是功能未实现
-
4如题,被它困了一下午了,有没有大佬指点一下,感激不尽~
-
0flink 开窗,开多少个窗口,在编码时就固定吗
-
1create table flink_medatc_cloud.t_window( id int, organization_id int, took_at TIMESTAMP(3), WATERMARK FOR took_at AS took_at - INTERVAL '5' SECOND, primary key(id) NOT ENFORCED ) with ( 'connector' = 'postgres-cdc', 'hostname' = '', 'port' = '5432', 'username' = '', 'password' = '', 'database-name' = 'ibupro_cloud', 'schema-name' = 'public', 'table-name' = 't_window', 'decoding.plugin.name' = 'wal2json_streaming' ); 在sq-client中执行 select organization_id,window_start,window_end,count(1) as cnt from TABLE(TUMBLE(TABLE t_window,descriptor(took_at),interval '1' days)) group by organization
-
4Java
-
2
-
2如果我使用的是滚动时间窗口,还有必要设置watermark吗,固定时长比如每隔30秒就切割一次数据流处理,即使它是乱序,不还是30秒切割一次吗。我理解watermark应该是和数量窗口配套,我设置50条数据进行切割一次,可能第45条数据就要等好久了,我设置个watermark进行强制提交44条数据进行处理。怎么理解