范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文

实践数据湖在sqlclient中,以sql方式从kafka读数据到iceberg

  前言
  之前使用flink1.11.6 iceberg0.11 没写成功,升级flink到1.12.7
  升级后版本:
  flink-1.12.7-bin-scala_2.12
  flink-sql-connector-hive-2.3.6_2.12-1.12.7.jar
  kafka_2.12-2.4.1 1. 启动flink sql[root@hadoop101 bin]# sql-client.sh embedded -j /opt/software/iceberg-flink-runtime-0.12.1.jar  -j /opt/software/flink-sql-connector-hive-2.3.6_2.12-1.12.7.jar  -j /opt/software/flink-sql-connector-kafka_2.12-1.12.7.jar  shell  SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/module/flink-1.12.7/lib/log4j-slf4j-impl-2.16.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/module/hadoop-2.7.2/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] No default environment specified. Searching for "/opt/module/flink-1.12.7/conf/sql-client-defaults.yaml"...found. Reading default environment from: file:/opt/module/flink-1.12.7/conf/sql-client-defaults.yaml No session environment specified.  Command history file path: /root/.flink-sql-history                                    ▒▓██▓██▒                                ▓████▒▒█▓▒▓███▓▒                             ▓███▓░░        ▒▒▒▓██▒  ▒                           ░██▒   ▒▒▓▓█▓▓▒░      ▒████                           ██▒         ░▒▓███▒    ▒█▒█▒                             ░▓█            ███   ▓░▒██                               ▓█       ▒▒▒▒▒▓██▓░▒░▓▓█                             █░ █   ▒▒░       ███▓▓█ ▒█▒▒▒                             ████░   ▒▓█▓      ██▒▒▒ ▓███▒                          ░▒█▓▓██       ▓█▒    ▓█▒▓██▓ ░█░                    ▓░▒▓████▒ ██         ▒█    █▓░▒█▒░▒█▒                   ███▓░██▓  ▓█           █   █▓ ▒▓█▓▓█▒                 ░██▓  ░█░            █  █▒ ▒█████▓▒ ██▓░▒                ███░ ░ █░          ▓ ░█ █████▒░░    ░█░▓  ▓░               ██▓█ ▒▒▓▒          ▓███████▓░       ▒█▒ ▒▓ ▓██▓            ▒██▓ ▓█ █▓█       ░▒█████▓▓▒░         ██▒▒  █ ▒  ▓█▒            ▓█▓  ▓█ ██▓ ░▓▓▓▓▓▓▓▒              ▒██▓           ░█▒            ▓█    █ ▓███▓▒░              ░▓▓▓███▓          ░▒░ ▓█            ██▓    ██▒    ░▒▓▓███▓▓▓▓▓██████▓▒            ▓███  █           ▓███▒ ███   ░▓▓▒░░   ░▓████▓░                  ░▒▓▒  █▓           █▓▒▒▓▓██  ░▒▒░░░▒▒▒▒▓██▓░                            █▓           ██ ▓░▒█   ▓▓▓▓▒░░  ▒█▓       ▒▓▓██▓    ▓▒          ▒▒▓           ▓█▓ ▓▒█  █▓░  ░▒▓▓██▒            ░▓█▒   ▒▒▒░▒▒▓█████▒            ██░ ▓█▒█▒  ▒▓▓▒  ▓█                █░      ░░░░   ░█▒            ▓█   ▒█▓   ░     █░                ▒█              █▓             █▓   ██         █░                 ▓▓        ▒█▓▓▓▒█░              █▓ ░▓██░       ▓▒                  ▓█▓▒░░░▒▓█░    ▒█               ██   ▓█▓░      ▒                    ░▒█▒██▒      ▓▓                ▓█▒   ▒█▓▒░                         ▒▒ █▒█▓▒▒░░▒██                 ░██▒    ▒▓▓▒                     ▓██▓▒█▒ ░▓▓▓▓▒█▓                   ░▓██▒                          ▓░  ▒█▓█  ░░▒▒▒                       ▒▓▓▓▓▓▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒▒░░▓▓  ▓░▒█░                ______ _ _       _       _____  ____  _         _____ _ _            _  BETA       |  ____| (_)     | |     / ____|/ __ | |       / ____| (_)          | |      | |__  | |_ _ __ | | __ | (___ | |  | | |      | |    | |_  ___ _ __ | |_     |  __| | | | "_ | |/ /  ___ | |  | | |      | |    | | |/ _  "_ | __|    | |    | | | | | |   <   ____) | |__| | |____  | |____| | |  __/ | | | |_     |_|    |_|_|_| |_|_|_ |_____/ __________|  _____|_|_|___|_| |_|__|                    Welcome! Enter "HELP;" to list all available commands. "QUIT;" to exit.   Flink SQL>2. 建kafka表
  format=raw的只有在flink1.12后才支持 create table kafka_test_log (   data String ) WITH (   "connector" = "kafka",   "topic" = "test_log",   "properties.bootstrap.servers" = "hadoop101:9092,hadoop102:9092,hadoop103:9092",   "properties.group.id" = "rickKafkaHiveGroup5",   "scan.startup.mode" = "earliest-offset",   "format" = "raw" )   create table kafka_test_log_csv (   data String ) WITH (   "connector" = "kafka",   "topic" = "test_log",   "properties.bootstrap.servers" = "hadoop101:9092,hadoop102:9092,hadoop103:9092",   "properties.group.id" = "rickKafkaHiveGroup6",   "scan.startup.mode" = "earliest-offset",   "format" = "csv" ) create table kafka_test_log2 (   data String ) WITH (   "connector" = "kafka",   "topic" = "test_log2",   "properties.bootstrap.servers" = "hadoop101:9092,hadoop102:9092,hadoop103:9092",   "properties.group.id" = "rickKafkaHiveGroup5",   "scan.startup.mode" = "earliest-offset",   "format" = "raw" )  create table kafka_test_log_csv (   data String ) WITH (   "connector" = "kafka",   "topic" = "test_log",   "properties.bootstrap.servers" = "hadoop101:9092,hadoop102:9092,hadoop103:9092",   "properties.group.id" = "rickKafkaHiveGroup7",   "scan.startup.mode" = "earliest-offset",   "format" = "csv" )3. 读kafka的数据写入到kafkaFlink SQL> insert into kafka_test_log2 select * from kafka_test_log; [INFO] Submitting SQL update statement to the cluster... [INFO] Table update statement has been successfully submitted to the cluster: Job ID: 777618b911d015a9b80cab316edf3fe8
  页面查看
  读进来和发出去的条数都是0,
  使用sql直接查,发现把数据完整从 kafka_test_log写到 kafka_test_log2;
  结论:flink的insert into 语法的mertrix有bug,显示条数有问题 Flink SQL> select * from kafka_test_log2;4.写入到iceberg4.1 创建 hive catalog 从kafka->iceberg创建hive_catalog与表 CREATE CATALOG hive_catalog4 WITH (   "type"="iceberg",   "catalog-type"="hive",   "uri"="thrift://hadoop101:9083",   "clients"="5",   "property-version"="1",   "warehouse"="hdfs:///user/hive/warehouse/hive_catalog4" );  在hive_catalog下创建数据库 use catalog hive_catalog4;    create table `hive_catalog4`.`default`.`ib_hive_test_log`(  data String );  在hive datalog下建表,写入iceberg  insert into  `hive_catalog4`.`default`.`ib_hive_test_log` select * from   default_catalog.default_database.kafka_test_log_csv
  4.2 创建 hadoop catalog ,从kafka->iceberg CREATE CATALOG hadoop_catalog4 WITH (   "type"="iceberg",   "catalog-type"="hadoop",   "warehouse"="hdfs://ns/user/hive/warehouse/iceberg_hadoop_catalog4",   "property-version"="1" ); use catalog hadoop_catalog4; create database iceberg_db; create table `hadoop_catalog4`.`iceberg_db`.`ib_hadoop_test_log`(  data String ); insert into hadoop_catalog4.iceberg_db.ib_hadoop_test_log select data from  default_catalog.default_database.kafka_test_log  ;
  到hdfs查看
  生产者生产看看,发现iceberg的数据目录还是0,iceberg的输出没有 [root@hadoop101 ~]# kafka-console-producer.sh --topic test_log  --broker-list hadoop101:9092,hadoop102:9092总结
  经过测试,读写kafka都没有问题 有想过是否消费者组的问题,更换消费者组,还是没输出… hive catalog 与 hadoop catalog都尝试过,没用
  是不是iceberg有问题?

华为与苹果喊你换手机,最全指南来了9月6日下午,华为发布了华为Mate50系列新机,隔了一天之后的北京时间9月8日凌晨,苹果也如期发布了其一年一度升级后的iPhone14系列新机,基础容量版本加量不加价,显然意在吸2022年的早秋,牛仔裙又回来了!穿搭风格多样化,比牛仔裤更实用时尚是一个圈这句话越发觉得正确,不难发现,近年来常流行的一些时尚款式和单品,早在我们父母或者爷爷奶奶那个时候就出现过了,并且还引领了当时的时尚,如今又回头流行起来的风格极具复古气息听句劝中年大叔尽量别穿低裆裤,油腻又显矮,这3种裤子更有型到了中年的男人,在穿衣打扮上都会尽量做减法,没有设计夸张的网红服装,也没有花里胡哨的配色。但也正因如此,在选择单品时更要注重款式,否则穿起来要么太单调,要么显油腻。很多中年男人之所8月份性能流畅榜公布小米仅第二名,vivo三星向后排8月份已经结束了,从整体的新机发布量来说,以高端机和折叠屏手机为主,而80以上的新机都是搭载了骁龙8Gen1芯片。其实,一半以上的新机都是因芯片而发布的,毕竟各大手机品牌都有应用的小米11UItra没能扛住压力,12G256G最新价格确认,还送699元耳机iPhone14系列的推出给国产手机造成了不小的压力,为了可以与iPhone14系列一战,国产手机厂商纷纷选择降价,比如去年发布的小米11UItra,这是一款定位高端市场的旗舰手机电视挂多高最合适?如何安装小米电视挂架?新房装修完,买了各种家电,小米电视70寸让售后安装要300元,自己动手丰衣足食吧。一购买挂架某宝上号称小米售后官方挂架,买回来后给正在我家安装小米洗碗机的售后安装工看,一眼看出来是适合大户型家庭!小米86英寸巨屏电视,到手仅五千元出头我国现在已全面开放二胎政策,家里增添一位人口,对于室内面积的需求也会提升,所以很多人在买房时都会一步到位选择120140平方的大户型,以前比较火的100平小三室明显不够用了。多出来工业互联网为传统制造业带来了什么?这些参与者有话说近日,2022金砖国家工业创新大赛决赛在厦门举行,本次大赛设置工业互联智能制造绿色循环三个赛道,面向金砖及其他国家共征集1330个项目,其中90个项目入围决赛,18个项目脱颖而出。Jetpack之DataBinding绑定布局文件是怎样实现的?dataBinding的实现原理是什么?dataBinding是怎么进行数据双向驱动的?时间从来不语,却回答了所有。致自己本文从定义,用法,原理分析,由浅到深对DataBindin发车!192号快闪列车带你驶向广电5G新世界视频加载中9月9日起,一列崭新的192号列车停靠在东方明珠广播电视塔的零米大厅内。这部拥有超大明亮空间明快红白色调的列车究竟从何而来?192有什么寓意?又有哪些新奇好物隐藏其中?作iPhone13有必要换14吗?我们来聊聊我们长话短说,如果你是纯粹为了追求最新款,那闭着眼睛就换了。但如果你是务实主义的,我是真不建议换。这次的升级可以说是微乎其微,处理器没有变还是A15,外观没有变,屏幕素质没有变,充
人性的善恶无需多言孔孟说性本善,荀子说性本恶,那你认为呢?性本善还是性本恶?嘘,答案留在你心里就好,不需要让他人知道你的观点我不知道你的答案,可鲁迅先生的答案早已在他作品和话语里揭露,他说荒田无可耕CBA最新消息!徐杰年薪超百万,新疆放弃法尔,姚明连任篮协主席近日,很多球迷都在等待CBA第2阶段比赛的到来,在第五窗口期比赛结束后,很多球迷都希望能够看到CBA球星更加精彩的发挥,在第一阶段的比赛中,广东男篮表现的并不是特别顺畅,因此很多球寻味唐山河北卫视带您走进唐山,寻觅独特的山海风味今晚1824分河北卫视专题宣传节目走遍河北重磅播出了一城一味寻味唐山枕燕山踏渤海,屏京津扼关外。唐山南临渤海,北依燕山,地处华北与东北通道的咽喉要地,既有山丘文化的质朴温厚,又有着走近美丽新疆,感受新疆人的淳朴心声蒙上双眼,没有指引,没有声音,没有提醒,你能发现一个未知的地方嘛。对于新疆你知道多少,你可能知道3月初的杏花一片雪白,6月的薰衣草香飘万里,8月的漫天花海辽阔无边,9月金秋时节瓜果我,70后辽宁人,结婚14年无存款,37岁借了5万走上出国打工路这是我们讲述的第1175位真人的故事我叫肖锋牛帮主日本生活,今年41岁,目前在日本农村打工。我初中辍学,种过地,干过工地,当过司机,可始终没有攒下多少钱,日子过得紧巴巴。随着孩子慢曾繁日回归莫兰德不打!广东内线正式超越辽宁,夺冠没悬念了2022年男篮亚洲赛区世预赛第五窗口期的比赛结束之后,国家队的主教练杜锋正式辞去中国男篮主教练的职务,未来将会集中精力帮助CBA联赛广东队再度打出理想的战绩。要知道,上个赛季被辽宁微软将向索尼提供为期10年的使命召唤许可协议,为尽快完成交易作出妥协目前微软收购游戏界巨头动视暴雪(ActivisionBlizzard)的计划正受到各国监管机构的严苛审查,多位内部人士近期都声称,在各方压力下这笔交易有可能会以失败告终。微软和动视保障妇女权益我们在行动西藏65名女双联户长筑起基层治理巾帼防线在西藏自治区拉萨市城关区木如社区,女双联户长已成为一张响当当的名片。信访代理员调解员巡逻员宣讲员多年来,木如社区的65名女双联户长在为人民服务的一线岗位上承担着多重角色。她们以诚心卡塔尔婆媳同亮相世界杯,颜值比不上莫扎太后惊艳本届卡塔尔世界杯,卡塔尔的王室贵族再次吸引了人们的目光,有这几天火爆全网的卡塔尔小王子,也有中东甄嬛之称莫扎太后,她可谓是高调惊艳亮相,两个同场亮相世界杯的儿媳完全被她比下去了,不火一个人,火了一座城!认识中东的钮钴禄甄嬛莫扎太后世界杯时与大儿子夫妇同框的莫扎太后。一身枣红色修身裙外穿长袍,高挑的身材,没有佩戴面纱,立体的五官,笔挺的鼻根,深邃的眼神,妆容浓艳,虽然她佩戴了头巾,但那更像是与华丽的长裙成套出关于雍正王朝里,太子被废的理由试问在座的各位是看真实的历史呢?还是看二月河的书雍正王朝还是看根据书改编的这部电视剧呢。真实的历史,一废太子的原因跟这个完全不一样。历史上的一废原因很多,导火索是十八阿哥病重,康熙