Ich versuche Apache Kafka mit Apache Flink zu verbinden, indem ich einen Kafka Consumer in Scala erstelle. Das ist mein Consumer-Code:Es konnten keine Appender für den Logger gefunden werden (org.apache.kafka.clients.consumer.ConsumerConfig)
val properties = new Properties()
properties.setProperty("bootstrap.servers", "localhost:9092")
properties.setProperty("zookeeper.connect", "localhost:2181")
properties.setProperty("group.id", "test")
val env = StreamExecutionEnvironment.getExecutionEnvironment
val stream = env
.addSource(new FlinkKafkaConsumer09[String]("test", new SimpleStringSchema(), properties))
.print
env.enableCheckpointing(5000)
Als ich dieses Programm ausführen ich einige Warnungen von log4j erhalten und das Programm beendet wird, wird keine Ausgabe angezeigt. Mein Kafka Producer ist betriebsbereit.
log4j:WARN No appenders could be found for logger (org.apache.kafka.clients.consumer.ConsumerConfig).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Sie führen dies von einer IDE oder einer externen Flink-Installation aus. Haben Sie bei einer externen Installation die Protokolldateien des Job Managers und des Task Managers überprüft? Flink-Stream-Programme drucken in die './Log/* out'-Dateien der Task-Manager. –
@FabianHueske werden keine Protokolldateien erstellt. Ich führe das von Eclipse aus. –