Tout en résolvant certains problèmes de Project Euler pour apprendre Haskell (donc actuellement je suis complètement débutant), je suis venu problème 12 . J'ai écrit cette solution (naïve):
--Get Number of Divisors of n
numDivs :: Integer -> Integer
numDivs n = toInteger $ length [ x | x<-[2.. ((n `quot` 2)+1)], n `rem` x == 0] + 2
--Generate a List of Triangular Values
triaList :: [Integer]
triaList = [foldr (+) 0 [1..n] | n <- [1..]]
--The same recursive
triaList2 = go 0 1
where go cs n = (cs+n):go (cs+n) (n+1)
--Finds the first triangular Value with more than n Divisors
sol :: Integer -> Integer
sol n = head $ filter (\x -> numDivs(x)>n) triaList2
Cette solution pour n=500
(sol 500)
est extrêmement lent (fonctionne depuis plus de 2 heures maintenant), alors je me suis demandé comment savoir pourquoi cette solution était si lente. Y a-t-il des commandes qui me disent où la plupart du temps de calcul est passé, donc je sais quelle partie de mon programme haskell est lente? Quelque chose comme un simple profileur.
Pour être clair, je ne demande pas une solution plus rapide mais une manière pour trouver cette solution. Comment commenceriez-vous si vous n'aviez aucune connaissance de haskell?
J'ai essayé d'écrire deux fonctions triaList
mais n'ai trouvé aucun moyen de tester laquelle est la plus rapide, c'est donc là que mes problèmes commencent.
Merci
comment savoir pourquoi cette solution est si lente. Y a-t-il des commandes qui me disent où la plupart du temps de calcul est passé, donc je sais quelle partie de mon programme haskell est lente?
Précisément! GHC fournit de nombreux excellents outils, notamment:
Un tutoriel sur l'utilisation du profilage temporel et spatial est partie de Real World Haskell .
Statistiques GC
Tout d'abord, assurez-vous de compiler avec ghc -O2. Et vous pouvez vous assurer qu'il s'agit d'un GHC moderne (par exemple GHC 6.12.x)
La première chose que nous pouvons faire est de vérifier que la collecte des ordures n'est pas le problème. Exécutez votre programme avec + RTS -s
$ time ./A +RTS -s
./A +RTS -s
749700
9,961,432,992 bytes allocated in the heap
2,463,072 bytes copied during GC
29,200 bytes maximum residency (1 sample(s))
187,336 bytes maximum slop
**2 MB** total memory in use (0 MB lost due to fragmentation)
Generation 0: 19002 collections, 0 parallel, 0.11s, 0.15s elapsed
Generation 1: 1 collections, 0 parallel, 0.00s, 0.00s elapsed
INIT time 0.00s ( 0.00s elapsed)
MUT time 13.15s ( 13.32s elapsed)
GC time 0.11s ( 0.15s elapsed)
RP time 0.00s ( 0.00s elapsed)
PROF time 0.00s ( 0.00s elapsed)
EXIT time 0.00s ( 0.00s elapsed)
Total time 13.26s ( 13.47s elapsed)
%GC time **0.8%** (1.1% elapsed)
Alloc rate 757,764,753 bytes per MUT second
Productivity 99.2% of total user, 97.6% of total elapsed
./A +RTS -s 13.26s user 0.05s system 98% cpu 13.479 total
Ce qui nous donne déjà beaucoup d'informations: vous n'avez qu'un tas de 2M, et GC prend 0,8% de temps. Il n'est donc pas nécessaire de s'inquiéter que l'allocation soit le problème.
Profils horaires
Obtenir un profil horaire pour votre programme est simple: compiler avec -prof -auto-all
$ ghc -O2 --make A.hs -prof -auto-all
[1 of 1] Compiling Main ( A.hs, A.o )
Linking A ...
Et, pour N = 200:
$ time ./A +RTS -p
749700
./A +RTS -p 13.23s user 0.06s system 98% cpu 13.547 total
qui crée un fichier, A.prof, contenant:
Sun Jul 18 10:08 2010 Time and Allocation Profiling Report (Final)
A +RTS -p -RTS
total time = 13.18 secs (659 ticks @ 20 ms)
total alloc = 4,904,116,696 bytes (excludes profiling overheads)
COST CENTRE MODULE %time %alloc
numDivs Main 100.0 100.0
Indiquant que tous votre temps est passé dans numDivs, et c'est aussi la source de toutes vos allocations.
Profils de tas
Vous pouvez également obtenir une ventilation de ces allocations, en exécutant avec + RTS -p -hy, qui crée A.hp, que vous pouvez afficher en le convertissant en un fichier postscript (hp2ps -c A.hp), générant:
ce qui nous dit qu'il n'y a rien de mal à votre utilisation de la mémoire: c'est l'allocation dans un espace constant.
Votre problème est donc la complexité algorithmique de numDivs:
toInteger $ length [ x | x<-[2.. ((n `quot` 2)+1)], n `rem` x == 0] + 2
Corrigez cela, qui représente 100% de votre temps de fonctionnement, et tout le reste est facile.
Optimisations
Cette expression est un bon candidat pour l'optimisation fusion de flux , donc je vais la réécrire pour utiliser Data.Vector , comme ceci:
numDivs n = fromIntegral $
2 + (U.length $
U.filter (\x -> fromIntegral n `rem` x == 0) $
(U.enumFromN 2 ((fromIntegral n `div` 2) + 1) :: U.Vector Int))
Ce qui devrait fusionner en une seule boucle sans allocation de tas inutile. Autrement dit, il aura une meilleure complexité (par des facteurs constants) que la version de liste. Vous pouvez utiliser l'outil ghc-core (pour les utilisateurs avancés) pour inspecter le code intermédiaire après l'optimisation.
En testant cela, ghc -O2 --make Z.hs
$ time ./Z
749700
./Z 3.73s user 0.01s system 99% cpu 3.753 total
Il a donc réduit le temps de fonctionnement pour N = 150 de 3,5x, sans changer l'algorithme lui-même.
Conclusion
Votre problème est numDivs. C'est 100% de votre temps de fonctionnement et a une complexité terrible. Pensez à numDivs, et comment, par exemple, pour chaque N vous générez [2 .. n div
2 + 1] N fois. Essayez de le mémoriser, car les valeurs ne changent pas.
Pour mesurer laquelle de vos fonctions est la plus rapide, envisagez d'utiliser critère , qui fournira des informations statistiquement robustes sur les améliorations de la microseconde en temps d'exécution.
Addenda
Étant donné que numDivs représente 100% de votre temps de fonctionnement, toucher d'autres parties du programme ne fera pas beaucoup de différence, cependant, à des fins pédagogiques, nous pouvons également réécrire ceux qui utilisent la fusion de flux.
Nous pouvons également réécrire trialList, et compter sur la fusion pour le transformer en boucle que vous écrivez à la main dans trialList2, qui est une fonction "scan de préfixe" (aka scanl):
triaList = U.scanl (+) 0 (U.enumFrom 1 top)
where
top = 10^6
De même pour sol:
sol :: Int -> Int
sol n = U.head $ U.filter (\x -> numDivs x > n) triaList
Avec le même temps de fonctionnement global, mais un code un peu plus propre.
La réponse de Dons est excellente sans être un spoiler en donnant une solution directe au problème.
Ici, je veux suggérer un peu outil que j'ai écrit récemment. Cela vous fait gagner du temps pour écrire à la main SCC annotations lorsque vous voulez un profil plus détaillé que le ghc -prof -auto-all
Par défaut. En plus, c'est coloré!
Voici un exemple avec le code que vous avez donné (*), le vert est OK, le rouge est lent:
Tout le temps passe à créer la liste des diviseurs. Cela suggère quelques choses que vous pouvez faire:
1. Accélérez le filtrage n rem x == 0
, Mais comme il s'agit d'une fonction intégrée, il est probablement déjà rapide.
2. Créez une liste plus courte. Vous avez déjà fait quelque chose dans ce sens en vérifiant uniquement jusqu'à n quot 2
.
3. Jeter complètement la génération de liste et utiliser des mathématiques pour obtenir une solution plus rapide. C'est la manière habituelle pour les problèmes du projet Euler.
(*) J'ai obtenu cela en mettant votre code dans un fichier appelé eu13.hs
, En ajoutant une fonction principale main = print $ sol 90
. Exécutez ensuite visual-prof -px eu13.hs eu13
Et le résultat est dans eu13.hs.html
.
Remarque relative à Haskell: triaList2
est bien sûr plus rapide que triaList
car ce dernier effectue de nombreux calculs inutiles. Il faudra du temps quadratique pour calculer n premiers éléments de triaList
, mais linéaire pour triaList2
. Il existe une autre manière élégante (et efficace) de définir une liste paresseuse infinie de nombres triangulaires:
triaList = 1 : zipWith (+) triaList [2..]
Remarque relative aux mathématiques: il n'est pas nécessaire de vérifier tous les diviseurs jusqu'à n/2, il suffit de vérifier jusqu'à sqrt (n).
Vous pouvez exécuter votre programme avec des indicateurs pour activer le profilage temporel. Quelque chose comme ça:
./program +RTS -P -sprogram.stats -RTS
Cela devrait exécuter le programme et produire un fichier appelé program.stats qui indiquera le temps passé dans chaque fonction. Vous pouvez trouver plus d'informations sur le profilage avec GHC dans le GHC guide de l'utilisateur . Pour l'analyse comparative, il y a la bibliothèque Criterion. J'ai trouvé ce blog a une introduction utile.