2016-07-28 17 views
0

Ich bekomme den obigen Fehler beim Ausführen des unten stehenden Codes. Ich habe festgestellt, dass es ein serialisierbares Problem gibt, aber ich kann nicht genau nachvollziehen jemand erklären, was ich hier tun kann. Vielen dank im Voraus.Ausnahme im Thread "main" org.apache.spark.SparkException: Task nicht serialisierbar "

enter code here 



    def checkforType(json:String):String={ 
      val parsedjson = parse(json) 
       val res=(parsedjson \\ "Head" \\ "Type").extract[String] 
       (res)  
      } 
    val dstream = KafkaUtils.createStream(ssc, zkQuorum, group, Map("topic" -> 1)).map(_._2) 
      val pType = dstream.map(checkforType) 
      pType.map(rdd => { 
      val pkt= rdd.toString() 
      if(pkt.equals("P300")) { 

      val t300=dstream.map(par300) 
      t300.print() 
     }else if(pkt.equals("P30")) { 
      val t30=dstream.map(par30) 
      t30.print()   
     }else if(pkt.equals("P6")) { 
      val t6=dstream.map(par6) 
      t6.print()   
     } 
     }) 

Antwort