Quel est le moyen le plus efficace d'écrire à partir de kafka pour hdfs avec des fichiers de partitionnement dans les dates

Je suis en train de travailler sur le projet qui devrait écrire via kafka pour hdfs.
Supposons qu'il y ait serveur en ligne qui écrit des messages dans la kafka. Chaque message contient le timestamp.
Je veux créer un emploi à la sortie d'un fichier/fichiers en fonction de l'horodatage des messages.
Par exemple, si les données de kafka est

 {"ts":"01-07-2013 15:25:35.994", "data": ...}
 ...    
 {"ts":"01-07-2013 16:25:35.994", "data": ...}
 ... 
 {"ts":"01-07-2013 17:25:35.994", "data": ...}

J'aimerais avoir les 3 fichiers de sortie

  kafka_file_2013-07-01_15.json
  kafka_file_2013-07-01_16.json
  kafka_file_2013-07-01_17.json 

Et bien sûr, Si je suis l'exécution de ce travail encore une fois et il y a un nouveau message dans la file d'attente comme

 {"ts":"01-07-2013 17:25:35.994", "data": ...}

Il doit créer un fichier

  kafka_file_2013-07-01_17_2.json //second  chunk of hour 17

J'ai vu quelques-uns des sources ouvertes, mais la plupart d'entre eux lectures de kafka pour certains hdfs dossier.
Quelle est la meilleure solution/design/opensource pour ce problème

OriginalL'auteur Julias | 2013-07-02