Le moyen le plus rapide pour battre des lignes dans un fichier sous Linux

Je veux battre un gros fichier avec des millions de lignes de chaînes dans Linux. J'ai essayé 'tri -R' Mais elle est très lente (compter 50 minutes pour une 16M gros fichier). Est-il plus rapide de l'utilitaire que je peux utiliser à la place de?

Chouf? en.wikipedia.org/wiki/Shuf
des millions de lignes de 16 mo pour un fichier: vous avez de très courtes lignes? BTW: 16 MO n'est pas grand. Il rentre dans le coeur, et le tri prend moins d'une seconde, je suppose.
Quelle est l'entropie Shuf introduit? Est-il aussi aléatoire qu' 'tri -R'
Oh...ses 16 Millions de ligne de fichier, pas de 16 MO. Le tri est assez rapide sur ce dossier, mais de tri -R' est très lent.
Je suppose que c'est /dev/random. Vous pouvez contrôler ensuite l'entropie de la source avec --random-source.

OriginalL'auteur alpha_cod | 2013-02-06